Press ESC to close

Meta maxfiy AI tajribalari

Meta’ning Llama kabi ilg‘or til modellari bilan bog‘liq yutuqlari ortida ko‘pchilikka ma’lum bo‘lmagan murakkab voqeliklar yashiringan. Kompaniya sun’iy intellektni yanada kuchliroq qilish borasida OpenAI, Google va Anthropic bilan raqobatlashayotgan bir paytda, so‘nggi surishtiruvlar Meta AI’ni rivojlantirish yo‘lida yuritilgan shubhali tajribalarni ochib berdi – bu tajribalar axloqiy va huquqiy jihatdan jiddiy savollarni yuzaga keltirmoqda.

Meta AI’ni yaxshilagan yashirin tajribalar

Sizib chiqqan ichki hujjatlar va tergov natijalariga ko‘ra, Meta o‘zining Llama modellarini takomillashtirish uchun bir qator maxfiy eksperimentlarni o‘tkazgan. Foydalaniladigan usullardan biri “ablyatsiya” deb ataluvchi usul bo‘lib, bunda modelni o‘rgatishda ba’zi ma’lumotlar ataylab olib tashlanadi yoki almashtiriladi. Bu usul yordamida tadqiqotchilar model sifati va samaradorligiga qaysi tarkibiy qismlar ta’sir qilishini aniqlashga urinadi.

Meta olib borgan tajribalarda ajablanarli holat kuzatildi: trening ma’lumotlariga LibGen kabi saytlardan olingan pirat kitoblar qo‘shilgach, model asosiy ko‘rsatkichlar bo‘yicha sezilarli darajada yaxshilangani aniqlangan. Bularga BooIQ va SIQA kabi og‘ir mulohaza testlari kiradi – ularning ikkalasi ham sun’iy intellektning murakkab savollar va ijtimoiy vaziyatlarni qanchalik yaxshi tushuna olishini o‘lchaydi.

Ya’ni, o‘g‘irlangan ilmiy fantastika, akademik darsliklar va badiiy asarlar Meta AI’ni “aqlliroq” qilishda muhim rol o‘ynagan.  

Meta nima uchun qaroqchilik kitoblaridan foydalangan?

AI modellarini rivojlantirishda aniq tarkibga ega, izchil hikoya yoki tushunchalarni o‘z ichiga olgan uzun matnlar nihoyatda muhim. Bunday matnlar modellarga ijtimoiy tarmoqlardagi qisqa postlar yoki Vikipediyadagi maqolalardan ko‘ra yaxshiroq mulohaza yuritish, hikoya qilish va muammolarni hal qilishni o‘rganishga yordam beradi.

Lekin bir muammo bor: mualliflik huquqi bilan himoyalangan kitoblarni litsenziyalash qimmat va yuridik jihatdan murakkab. Shuning uchun Meta tadqiqotchilari LibGen kabi ochiq qaroqchilik ma’lumotlar bazalaridan kontentni jimgina tortib olishdi, platformada yuz minglab mualliflik huquqiga ega skanerlangan kitoblar mavjud.

Ichki yozishmalarda Meta jamoasi bu materiallar model natijalari uchun juda zarur deb o‘ylaganini, shu bilan birga huquqiy va axloqiy muammolarni ham tan olganini ko‘rish mumkin. Biroq ular bu haqida jamoatchilikka yoki mualliflarga xabar bermaslikka qilmaslikka qaror qilgan. Bunga sabab sifatida “fair use” huquqiy asosi va alohida har bir kitob yakuniy mahsulotga katta ta’sir qilmaydi degan fikr keltirilgan.

Axloqiy janjallar va huquqiy oqibatlar

Meta bu qarorlar bilan jamiyatda jiddiy tanqidlarga duch keldi. Yozuvchilar, noshirlar va huquqshunoslarning ta’kidlashicha, sun’iy intellekt kompaniyalari o‘zlari yaratmagan va haq to‘lamagan ishlardan foyda ko‘rmoqda. Hozirda bir nechta da’vo arizalari ko‘rib chiqilmoqda, jumladan Kadrey v. Meta, bu yerda mualliflar ularning kitoblaridan roziliksiz foydalanilganini da’vo qiladi.

Bu yerda muammo faqat qonuniy huquqlar haqida emas. Bu masala shaffoflik va ma’suliyat haqida. Meta, OpenAI va Google kabi sun’iy intellekt kompaniyalari ko‘pincha o‘z modellari qanday o‘qitilganini to‘liq ochiqlamaydi. Ammo bu modellarning sifati va ularning potensial xavf-xatarlari ko‘p jihatdan ular o‘rgangan narsalarga bog‘liq.

Bir savol tug‘iladi: agar milliardlab dollar sarflanayotgan tizimlar mualliflik huquqiga ega asarlardan foydalangan holda shakllansa, bu asar mualliflari bunga ta’sir qilish yoki kamida haq olish huquqiga ega emasmi?

Taraqqiyot va tamoyillar

Meta’ning maxfiy tajribalari kompaniyalar yuqori natijalarga erishish uchun qanchalik uzoqqa borishga tayyorligini ko‘rsatadi. Shu bilan birga, bu hodisa sun’iy intellekt sohasida axloqiy me’yorlarning qanchalik e’tiborsiz qoldirilayotganidan ham darak beradi. Bu yerda qimmatli kontent roziliksiz olinadi va innovatsiyalar ko‘pincha javobgarlikdan ustun bo‘ladi.

Albatta, ilg‘or sun’iy intellekt – bu hayajonli istiqbol. Ammo agar uni o‘g‘irlangan bilimlar ustiga qurayotgan bo‘lsak, bu qanday kelajak bo‘ladi?

Tayyorladi: Navro‘zaxon Bo‘riyeva

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan