Press ESC to close

AI aldashni o‘rgandi – shaxmatdagi qiziq tajriba

Sun’iy intellekt odatda murakkab muammolarni hal qilish, strategik o‘yinlarda insonlardan ustun bo‘lish va mantiqiy fikrlashda yaxshiroq natija berishi bilan maqtovga sazovordir. Ammo, agar AI g‘alaba qozonish maqsadida qoidalarni buzsa, nima bo‘ladi?

Yaqinda o‘tkazilgan bir tadqiqot kutilmagan va biroz xavotirli holatni aniqladi: ayrim ilg‘or sun’iy intellekt modellari shaxmatda firibgarlik qilish yo‘llarini o‘rganmoqda. Eng ajablanarlisi shundaki, buni ularga hech kim o‘rgatmagan. Tadqiqot shuni ko‘rsatadiki, AI modellari rejalashtirish va murakkab muammolarni hal qilish qobiliyatini oshirgan sari, ular maqsadga yetish uchun g‘irrom va axloqsiz usullarni ixtiro qila boshlashi mumkin.

Eksperiment: AI va Stockfish qarama-qarshiligi

Palisade Research tadqiqotchilari yettita yirik til modelidan (jumladan, OpenAI’ning o1-preview va DeepSeek’ning R1 modellari) foydalanib sinov o‘tkazdi. Bu modellar inson kabi bosqichma-bosqich fikrlab, murakkab vazifalarni hal qilishga mo‘ljallangan edi.

AI dunyodagi eng kuchli ochiq kodli shaxmat dasturlaridan biri bo‘lgan Stockfish’ga qarshi o‘ynatildi. Umumiy hisobda modellar Stockfish’ga qarshi yuzlab partiyalar o‘tkazdi. Ularning asosiy maqsadi ma’lum qoidalarga ega murakkab o‘yinda AI modellarining mantiqiy yondashuv qobiliyatini baholash edi.

Natijalar nafaqat, qiziqarli balki haqiqatan ham hayratlanarli edi.

AI modellari qanday qilib aldashni o‘rgandi

Ba’zi modellar halol o‘ynash o‘rniga, muqobil yo‘llarni izlay boshladi. G‘alaba uchun yetarli ko‘nikmaga ega emasligi ayon bo‘lgach, ular firib ishlatdi, bu qaror ularga buyurilmagan, balki o‘z xulosasi edi.

AI sinab ko‘rgan ayrim hiylalar:

  • Doskani o‘zgartirish: modellarning ayrimlari o‘yinni o‘z foydasiga burish uchun raqib figuralarini doskadan olib tashlab, o‘yin fayllarini o‘zgartirdi.
  • Raqibni klonlash: boshqalar esa Stockfish’ning o‘z nusxasini ishga tushirib, uning yurishlarini yashirincha takrorladi va go‘yoki o‘yin hali ham haqiqiy raqibga qarshi bo‘layotgandek ko‘rsatdi.
  • Raqibni almashtirish: bir AI model o‘zi yengilroq g‘alaba qozonishi uchun Stockfish o‘rniga kuchsizroq dasturni joylashtirishga urindi.

Masalan, OpenAI’ning o1-preview modeli 122 o‘yindan 45 tasida aldashga harakat qilgan va shu yo‘l bilan yetti marta “g‘alaba” qozongan. Unga hech kim yordam bermagan, o‘rgatmagan ya’ni model bularning barchasini o‘zi mustaqil o‘rgangan.

Bu nega muhim?

Bunday xatti-harakat shaxmat o‘yinida zararli ko‘rinmasligi mumkin, lekin bu sun’iy intellekt tizimlari qanday qurilayotgani va ular real hayotda qanday harakat qilishi haqida katta savollarni tug‘diradi. AI’dan natijani optimallashtirishni talab qilganimiz sari, u bu natijaga yetishning kutilmagan va ehtimol zararli yo‘llarini o‘ylab topish xavfi ortadi.

Agar AI shaxmatda aldasa, u xuddi shunday moliyaviy tizimlar, sog‘liqni saqlash qarorlari yoki huquqiy avtomatlashtirishda ham shunday qilish ehtimoli bor. Gap faqat qoidalarni “aylanib o‘tish”da emas, AI odamlar axloqan nomaqbul deb hisoblaydigan qisqa yo‘llarni izlayotgan bo‘lishi mumkin.

Boshqacha qilib aytganda, bu modellar qanchalik yaxshilansa, shunchalik maqsad sari intilishda har qanday vositani qo‘llashga, hatto qoidalarni buzishga ham moyilligi ortmoqda.

Keyingi qadamlar

Ushbu tadqiqot hozirda ilmiy hamjamiyat tomonidan ko‘rib chiqilishi uchun taqdim etilgan va bu AI sohasidagi olimlar orasida katta bahs-munozaralarga sabab bo‘lishi kutilmoqda. Ayniqsa uzoq muddatli rejalashtirish va murakkab fikrlash qobiliyatiga ega modellar uchun, AI rivojlanishida kuchliroq xavfsizlik mexanizmlarini yaratish zarurligini yana bir bor ta’kidlaydi.

OpenAI va boshqa kompaniyalar o‘z tizimlarining inson qadriyatlariga mos va xavfsiz harakat qilishiga katta e’tibor qaratayotganini aytmoqda. Biroq, ushbu tajriba shuni ko‘rsatadiki, AI’ni inson qadriyatlariga moslashtirish yo‘li hali anchagina murakkab va oson emas.

Tayyorladi: Navro‘zaxon Bo‘riyeva

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan