Press ESC to close

Sun’iy intellektda xavf kuchaymoqda: qat’iy nazorat vaqti keldi

Sun’iy intellekt (SI) tizimlari jamiyatimiz hayotiga tobora chuqur kirib borayotgan bir vaqtda, mutaxassislar bu texnologiyaning xavfli jihatlari haqida jiddiy ogohlantirishlar bermoqda. Ularning fikriga ko‘ra, SI modellar hali ham zararli kontent — haqoratli ifodalar, pornografik materiallar va mualliflik huquqining buzilishlarigacha — ishlab chiqarmoqda. Hozirgi xavfsizlik tekshiruvlari esa bu muammolarning oldini olishga yetarli emas.

“15 yillik izlanishlarga qaramay, biz hanuzgacha SI modellarining xavfsizligini qanday ta’minlashni aniq bilmaymiz. Ilgari siljish deyarli sezilmayapti,” — deydi raqobatbardosh mashina o‘rganish bo‘yicha ekspert Xaver Rando. Uning ta’kidlashicha, sun’iy intellekt sohasidagi texnologik taraqqiyot tartibga solish, nazorat va xavfsizlik sinovlaridan oldinda ketmoqda, bu esa real hayotda modellarning kutilmagan va noaniq xatti-harakatlarga sabab bo‘lishi mumkinligini anglatadi.

Asosiy muammolardan biri — standartlashtirilgan, keng miqyosli baholov tizimining yo‘qligidir. Hozirda qo‘llanilayotgan “qizil guruh” (red teaming) kabi uslublar — ya’ni mutaxassislarning maxsus sinov orqali zaifliklarni aniqlash harakatlari — ko‘lami jihatidan yetarli emas. “Bu ishni bajarishga layoqatli mutaxassislar soni juda kam,” — deydi Data Provenance Initiative rahbari Sheyn Longpre. U va uning hammuallliflari fikricha, tekshiruv jarayoniga nafaqat ichki sinovchilar, balki mustaqil uchinchi tomonlar: tadqiqotchilar, etik xakerlar va domen ekspertlari ham jalb qilinishi kerak.

Longpre jamoasi dasturiy ta’minot xavfsizligi sohasidagi “bug bounty” dasturlariga o‘xshash tuzilmani taklif qildi: sun’iy intellektning kamchiliklari to‘g‘risida hisobotlarni taqdim etish, oshkor qilishni rag‘batlantirish va xavf-xatarlar haqidagi ma’lumotlarni jamoatchilikka ulashish uchun rasmiy tuzilma. Uning ta’kidlashicha, bu zamonaviy sun’iy intellektning tobora murakkablashib borayotgan muammolari bilan kurashish uchun yanada shaffof va barqaror tizim yaratadi.

Sinovdan ishonchgacha

Singapurning “Moonshot” loyihasi aynan mana shu ehtiyojlarni qondirishga xizmat qilmoqda. Infocomm Media Development Authority tomonidan IBM va DataRobot kabi kompaniyalar bilan hamkorlikda ishlab chiqilgan ushbu loyiha ochiq kodli vositalar orqali startaplarga SI modellarini ishga tushirishdan avval va keyin sinovdan o‘tkazish imkonini beradi. U baholash mezonlari, qizil guruh protokollari va xavfsizlik tahlillarini o‘z ichiga oladi.

“Ba’zi startaplar bu tizimni tezda qabul qildi, ammo hali ko‘p ish qilish kerak,” — deya ta’kidlaydi IBM Asia Pacific vakili Anup Kumar. Moonshot loyihasining keyingi bosqichlari ko‘p tilli qizil guruh sinovlarini qo‘llab-quvvatlash va muayyan sanoat ehtiyojlari uchun maxsus sinovlar taklif etishga qaratilgan.

Shunday bo‘lsa-da, muammo faqat texnik emas, balki tizimli ham hisoblanadi.

Mezonni ko‘tarish vaqti keldi

ESSEC biznes maktabining statistika bo‘yicha professori Per Alkerning fikricha, sun’iy intellekt dori-darmonlar yoki aviatsiya xavfsizligiga o‘xshash tartibga solish nazoratiga muhtoj. “Farmatsevtika kompaniyalari yangi dori ishlab chiqqanda, uni chiqarishdan oldin oylab qattiq sinovlardan o‘tkazishlari shart,” dedi u. “Millionlab insonlar hayotiga ta’sir qilish imkoniyatiga ega bo‘lgan sun’iy intellekt nima uchun bundan mustasno bo‘lishi kerak?”

Alker va boshqalar haddan tashqari umumlashtirilgan sun’iy intellekt tizimlaridan ham ogohlantirishmoqda. Katta til modellari (LLM) kabi keng qamrovli, har qanday vazifani bajaradigan modellarni sinash va nazorat qilish qiyinroq, ularni noto‘g‘ri ishlatish esa osonroq. Aksincha, muayyan vazifalarga mo‘ljallangan modellarni aniqroq baholash mumkin va ular kutilmagan xatti-harakatlarni kamroq namoyon etadi.

Shuningdek, tadqiqotchilar kompaniyalarning himoya choralarini haddan tashqari bo‘rttirib ko‘rsatishidan ham ogohlantirmoqda. “Modelni xavfsiz deb reklama qilish oson, lekin real hayotdagi suiiste’mollar qarshisida bu himoyalar ko‘pincha ojiz qolmoqda,” — deya eslatadi Rando.

Tadqiqotchilarning umumiy xulosasi aniq: sun’iy intellekt endi uzoq kelajak orzusi emas – u allaqachon mavjud va uning xavflari tobora ortib bormoqda. Shu bois, xavfsiz, mas’uliyatli va tushunarli SI tizimlarini yaratish bugungi kunda tanlov emas, balki zarur ehtiyojga aylangan.

Tayyorladi: Navro‘zaxon Bo‘riyeva

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan