
Sun’iy intellekt sohasida maxfiylik hal qiluvchi omilga aylangan bir paytda, Scale AI kompaniyasi o‘zining xavfsizlik siyosatlari yuzasidan keskin tanqid ostida qoldi. Meta, Google va Ilon Maskning xAI kabi yirik texnologik mijozlari bilan ishlovchi kompaniyaning minglab ichki hujjatlari internetda ochiq havola orqali erkin tarzda tarqalgan.
Sun’iy intellektni o‘qitish loyihalariga oid minglab maxfiy hujjatlar hech qanday cheklovsiz onlayn tarzda mavjud bo‘lgan. Ba’zi fayllar “maxfiy” deb belgilangan bo‘lib, ularda asosiy mijozlarning sun’iy intellekt tashabbuslari, ichki loyiha ko‘rsatmalari va hatto Scale AI xodimlarining shaxsiy ma’lumotlari ham mavjud edi.
Mijozlarning nozik loyihalari fosh qilindi
Eng tashvishli topilmalar orasida Google’ning Bard chatbotini takomillashtirish bo‘yicha ishlarining tafsilotlarini ko‘rsatuvchi hujjatlar bor edi. Sizib chiqqan hujjatlarda Scale frilans ishchilari uchun Bardning murakkab savollarga javob berish muammolarini bartaraf etishga yordam beruvchi bosqichma-bosqich ko‘rsatmalar mavjud edi. Shuningdek, maxfiy deb belgilangan boshqa Google fayllari ham ochiq holda topildi.
xAI kompaniyasining generativ sun’iy intellekt loyihalariga oid ichki hujjatlar ham himoyasiz qoldirilgan. Ular orasida “Project Xylophone” nomli loyiha bo‘yicha materiallar ham mavjud bo‘lib, unda mashg‘ulot uchun ishlatilgan turli matnli topshiriqlar – zombi apokalipsislari haqidagi kundalik suhbatlardan tortib, santexnika kabi texnik mavzularigacha bo‘lgan namunalar keltirilgan. Meta’ga tegishli, maxfiy deb belgilangan fayllar esa sun’iy intellektni o‘qitish materiallari, audio fayl namunalari va Meta chat-botlarini yanada muloqotga moyil va hissiy jihatdan jalb qiluvchi qilish uchun ishlab chiqilgan ichki ko‘rsatmalarni o‘z ichiga olgan.
Mazkur loyihalarda ishlagan frilans ishchilar ta’kidlashicha, ular qaysi mijoz uchun ish olib borayotganlarini aniq bilib olishlari ko‘pincha qiyin emas edi – hattoki mijoz nomlari yashirilgan hollarda ham. Ba’zi hujjatlarda Google logotipi ochiq ko‘rinib turgan bo‘lsa, boshqa hollarda esa AI modellarini shunchaki savol berish orqali ularning asl mijoz kimligi fosh bo‘lgan.
Ishchilar maxfiyligi xavf ostida
Ma’lumot sizib chiqishi faqat mijozlarga tegishli emas. Ochiq hujjatlar orasida minglab frilanserlarning ismlari, Gmail manzillari, ish faoliyati bo‘yicha reytinglar “yuqori sifat”, “firibgarlikda gumon qilingan” va hatto ish haqi bilan bog‘liq bahsli eslatmalar ham mavjud bo‘lgan. “Move all cheating taskers” nomli jadvalda yuzlab shaxslar shubhali harakatlari uchun alohida ko‘rsatilgan.
Ba’zi ishchilar ishlarini allaqachon yakunlagan bo‘lsa-da, hali ham eski fayllarga kirish imkoniga ega bo‘lganini, hatto hujjatlar yangilanib turganini bildirgan.
Keng tarqalgan va uzoq yillik amaliyot
Scale AI’ning ommaviy Google Docs’lardan foydalanishi bir martalik xatolik emasligi ayon bo‘ldi. Bir nechta ishchilar ta’kidlashicha, bu kompaniyada odatiy hol bo‘lib, bunga sabab – Scale AI’ning taxminan 240 ming kishilik ulkan frilans (vaqtinchalik) ishchilar bazasi.
Ochiq havola orqali ko‘rsatmalarni mustaqil ishchilar orasida tez tarqatish qulay bo‘lgan bo‘lsa-da, bu yondashuv ichki ma’lumotlarning yomon niyatli shaxslarga oshkor bo‘lish xavfini kuchaytirgan.
Kompaniyaning ichki platformasida ishchilar uchun shaxsni tasdiqlash bosqichlari mavjud bo‘lsa-da, muhim o‘quv hujjatlariga havolalar faqat URL orqali kirish mumkin bo‘lgan holda, hech qanday tasdiqlashsiz erkin qolgan.
“Umuman olganda, butun Google Docs tizimi doim g‘irt nosamimiy va ishonchsizdek tuyulardi,” dedi sobiq ishchilardan biri.
Ba’zi frilanserlar hatto ishlarini tugatganlaridan ancha vaqt o‘tib ham eski loyihalarga kirish imkoniyatiga ega bo‘lishganini, hatto ulardagi hujjatlar yangi mijoz ko‘rsatmalari bilan yangilanib turganini aytishdi.
Kiberxavfsizlik bo‘yicha mutaxassis ogohlantirishlari
Kiberxavfsizlik bo‘yicha mutaxassislar bunday amaliyotlarning xavflari aniq va jiddiy ekanini ta’kidlamoqda. Kolumbiya Universiteti kiberxavfsizlik o‘qituvchisi Jozef Staynberg vaziyatni ochiqchasiga baholab: “Albatta, bu xavfli,” dedi. Uning fikricha, pudratchilar ro‘yxatlarining ommaga ochiq bo‘lishi xakerlarga hujumlarini boshlash uchun qulay imkon yaratadi – ular xodim sifatida o‘zlarini ko‘rsatib, Scale AI tizimlariga chuqur kirish huquqini qo‘lga kiritishi mumkin.
Yana bir xavf esa – xakerlar tahrirlanadigan hujjatlarga zararli havolalar joylashtirishi ehtimoli. Trace3 kiberxavfsizlik kompaniyasi direktori Stefani Kurtz bunday fayllarni ommaga tahrirlash uchun ochiq qoldirish ayniqsa xavfli ekanini ta’kidladi. “Faylni shunchaki internetga qo‘yib, hech kim havolani ulashmaydi deb umid qilish – bu yaxshi strategiya emas,” dedi u.
Scale AI’ning javobi
Mazkur holatlar yuzasidan Scale AI allaqachon to‘liq surishtiruv boshlaganini va foydalanuvchilarning Scale tomonidan boshqariladigan tizimlardan hujjatlarni ommaga ulash imkoniyatini o‘chirib qo‘yganini ma’lum qildi.
“Maxfiy ma’lumotlarni himoya qilish uchun kuchli texnik va siyosiy choralarni ko‘rishga sodiqmiz hamda amaliyotlarimizni yanada takomillashtirish ustida doimiy ishlayapmiz,” dedi Scale AI vakili.
Meta izoh berishdan bosh tortdi, Google va xAI esa so‘rovnomalarga javob bermadi.
Bu voqea Scale AI uchun nozik bir vaqtda sodir bo‘ldi. Yaqinda kompaniya Meta’dan 14,3 milliard dollarlik sarmoya oldi va hozirda yirik texnologik mijozlariga neytral, xavfsiz va mustaqil hamkor ekanligini isbotlashga harakat qilmoqda. O‘tgan hafta Scale o‘z blogida mijozlarga “ishonchni ta’minlash” eng ustuvor vazifa ekanini va’da qilgan edi.
Biroq ushbu holatlar jiddiy xavotirlarni yuzaga keltirar ekan, endilikda Scale AI uchun asosiy sinov – bu kamchiliklarni keyingi zarar sodir bo‘lishidan oldin qanday tez va ochiq bartaraf eta olishidadir.
Tayyorladi: Navro‘zaxon Bo‘riyeva
Fikr bildirish