O‘zini yirik tadqiqot laboratoriyalari orasida eng xavfsizlikka e’tiborli kompaniya deb tanishtirib kelgan, ulkan muvaffaqiyatlarga erishayotgan Anthropic kompaniyasi o‘zining flagman xavfsizlik siyosatidagi markaziy va’dasidan voz kechmoqda. Bu haqda kompaniya rasmiylari TIME nashriga ma’lum qildi.
2023-yilda Anthropic, agar kompaniyaning xavfsizlik choralari yetarli ekanligiga oldindan kafolat bera olmasa, hech qachon sun’iy intellekt (SI) tizimini o‘qitmaslik majburiyatini olgan edi. Yillar davomida kompaniya rahbarlari ushbu va’dani — o‘zlarining Mas’uliyatli kengayish siyosatining (Responsible Scaling Policy — RSP) asosiy ustuni sifatida — xavfli texnologiyalarni ishlab chiqishda bozor stimullariga qarshi tura oladigan mas’uliyatli kompaniya ekanliklarining isboti sifatida ko‘rsatib kelishdi.
Biroq so‘nggi oylarda kompaniya RSPni tubdan qayta ko‘rib chiqishga qaror qildi. Bu qaror, agar Anthropic xavflarni yumshatish choralarini oldindan kafolatlay olmasa, SI modellarini chiqarmaslik haqidagi va’dani bekor qilishni ham o‘z ichiga oladi.
«Biz SI modellarini o‘qitishni to‘xtatishimiz hech kimga foyda keltirmaydi deb hisobladik», — dedi Anthropic kompaniyasining ilmiy direktori va asoschilaridan biri Jared Kaplan TIME nashriga bergan eksklyuziv intervyusida. «SI shiddat bilan rivojlanayotgan va raqobatchilar oldinga qarab intilayotgan bir paytda, bir tomonlama majburiyatlar olish mantiqqa to‘g‘ri kelmaydi deb hisobladik».
TIME ko‘rib chiqqan siyosatning yangi tahriri SI xavfsizligi borasidagi risklar haqida ko‘proq shaffof bo‘lishni, jumladan, Anthropic modellarining xavfsizlik sinovlaridan qanday o‘tgani haqida qo‘shimcha ma’lumotlarni oshkor qilishni o‘z ichiga oladi. Kompaniya xavfsizlik borasidagi sa’y-harakatlarini raqobatchilar darajasiga yetkazish yoki ulardan o‘zib ketish majburiyatini oladi. Shuningdek, agar rahbarlar Anthropicni SI poygasida yetakchi deb hisoblasa va katastrofik xavflarni jiddiy deb baholasa, SI ishlanmalarini «kechiktirishga» va’da beradi.
Umuman olganda, RSPga kiritilgan o‘zgarishlar Anthropicni o‘z xavfsizlik siyosati bilan bog‘langan cheklovlardan ancha ozod qiladi. Avvalgi tahrirda ma’lum bir darajadan yuqori bo‘lgan modellarni, agar tegishli xavfsizlik choralari hali tayyor bo‘lmasa, o‘qitish qat’iyan man etilgan edi.
Ushbu o‘zgarish Anthropic uchun texnologik va tijoriy muvaffaqiyatlar davriga to‘g‘ri keldi. Ilgari OpenAI’dan orqada deb hisoblangan kompaniyaning Claude modellari, ayniqsa, dasturlash uchun mo‘ljallangan Claude Code vositasi ko‘plab sodiq muxlislarga ega bo‘ldi. Fevral oyida Anthropic 30 milliard dollar yangi investitsiya jalb qildi, natijada uning qiymati 380 milliard dollarga yetdi va yillik daromadi har yili 10 barobar o‘sayotgani xabar qilindi.
Kaplan kompaniyaning yo‘nalishini o‘zgartirish qarorini superintellekt uchun poyga tezlashayotgan bir paytda bozor bosimiga taslim bo‘lish ekanini rad etdi. U buni paydo bo‘layotgan siyosiy va ilmiy voqeliklarga pragmatik javob deb atadi. «Men buni qandaydir keskin burilish (U-turn) deb hisoblamayman», — deydi Kaplan.
Anthropic 2023-yilda RSPni joriy qilganda, raqiblarini ham shunday choralar ko‘rishga undashni umid qilgan edi. Ammo bunday tartibga solishlar hech qachon amalga oshmadi. Buning o‘rniga, Trump ma’muriyati SI rivojlanishiga «yo‘l ochiq» (let-it-rip) munosabatini qo‘llab-quvvatladi. Federal SI qonuni hali ko‘rinmayapti. 2023-yilda global boshqaruv tizimi yaratilishi imkoniyatidek ko‘ringan bo‘lsa, uch yil o‘tib bu eshik yopilgani ayon bo‘ldi. Shu bilan birga, SI ustunligi uchun raqobat — nafaqat kompaniyalar, balki davlatlar o‘rtasida ham kuchaydi.
Vaziyatni yanada murakkablashtirgan narsa — SI baholash fani kutilganidan ancha murakkab bo‘lib chiqdi. 2025-yilda Anthropic yangi kuchli modellar bioterroristik hujumga yordam berishi ehtimolini istisno qila olmasligini e’lon qildi. Ammo ularda modellar haqiqatda shunday xavf tug‘dirishi haqida kuchli ilmiy dalillar ham yo‘q edi. Kompaniya ilgari aniq «qizil chiziq» deb tasavvur qilgan narsa, amalda xira va noaniq chegaraga aylanib qoldi.
Fevral oyida kompaniya rahbari Amodei raqobatchilar oldinga qarab chopayotgan bir paytda, kompaniyani yangi modellarni o‘qitishdan to‘xtatib turish hech kimga foyda bermaydi degan qarorga keldi. RSPning yangi tahririda shunday deyilgan: «Agar biror SI ishlab chiquvchisi xavfsizlik choralarini ko‘rish uchun to‘xtasa-yu, boshqalari kuchli himoya choralarisiz SI tizimlarini o‘qitishda va joriy etishda davom etsa, bu dunyoni xavfsizroq qilmaydi. Eng zaif himoyaga ega ishlab chiquvchilar sur’atni belgilaydi va mas’uliyatli ishlab chiquvchilar xavfsizlik bo‘yicha tadqiqotlar o‘tkazish qobiliyatini yo‘qotadilar».
Anthropic yangilangan RSP eski tizimning eng katta afzalliklarini saqlab qolish uchun mo‘ljallanganligini ta’kidlamoqda. Kompaniya muntazam ravishda «Frontier Safety Roadmaps» (Ilg‘or xavfsizlik yo‘l xaritalari) deb nomlangan hujjatlarni e’lon qilib borish majburiyatini oladi. Shuningdek, har uch-olti oyda «Risk Reports» (Xavf-xatarlar bo‘yicha hisobotlar) nashr etishga va’da bermoqda. Bu hisobotlarda imkoniyatlar, tahdid modellari va xavflarni yumshatish choralari qanday bir-biriga mos kelishi tushuntiriladi.
METR siyosat bo‘yicha direktori Kris Peynterning so‘zlariga ko‘ra, bu o‘zgarish tushunarli, ammo ayni paytda dunyoning potentsial SI katastrofalaridan omon chiqish qobiliyati uchun yomon signaldir. Uning aytishicha, Anthropic «xavfsizlik rejalarida triaj (saralash) rejimiga o‘tish kerak deb hisoblamoqda, chunki xavfni baholash va yumshatish usullari imkoniyatlarning o‘sish sur’atiga yetib ololmayapti». Bu jamiyat SIning potentsial halokatli xavflariga tayyor emasligining yana bir isbotidir.















