
OpenAI kompaniyasi, ChatGPT sun’iy intellekti noto‘g‘ri va tuhmat xarakteridagi ma’lumotlarni tarqatgani sabab Yevropada yirik huquqiy muammoga duch keldi. Shikoyat Noyb nomli maxfiylikni himoya qilish tashkiloti tomonidan qo‘llab-quvvatlanib, AI texnologiyalarining asosiy muammolaridan biri- yolg‘on ma’lumot yaratish (AI Hallucinations) masalasini ko‘tarib chiqmoqda.
Muammo Norvegiyalik bir erkak ChatGPT uni ikki farzandining qotilligida va uchinchisini o‘ldirishga uringanlikda ayblagani haqida yolg‘on ma’lumot tarqatayotganini bilib qolgandan so‘ng boshlandi. Ushbu holat katta shov-shuvga sabab bo‘ldi, chunki sun’iy intellekt tizimlari shaxsiy ma’lumotlar bilan noto‘g‘ri munosabatda bo‘lishi mumkinligi, ayniqsa Yevropaning umumiy ma’lumotlarni himoya qilish qoidalari (GDPR) doirasida, jiddiy muammo sifatida ko‘rilmoqda. Ushbu qoidalar kompaniyalardan har qanday qayta ishlanayotgan ma’lumot aniq va ishonchli bo‘lishini talab qiladi.
Noyb tashkilotining huquqshunos eksperti Yoakim Söderberg OpenAI’ning bu boradagi yondashuvi qabul qilib bo‘lmasligini ta’kidladi. OpenAI ChatGPT noto‘g‘ri ma’lumot berishi mumkinligi haqida ogohlantirish bergan, lekin Söderbergning fikricha, bu bahona bo‘la olmaydi.
“Siz shunchaki yolg‘on ma’lumot tarqatib, oxirida kichik bir ogohlantirish qo‘shib, ‘bu rost bo‘lmasligi ham mumkin’ deb ayta olmaysiz,” – deydi u.
Bu holat AI texnologiyalari yanada rivojlanib borayotgan paytda, kompaniyalarning javobgarligi masalasini yana bir bor kun tartibiga chiqardi.
Sun’iy intellekt xatolari tanqid ostida
ChatGPT birinchi marta noto‘g‘ri ma’lumot tarqatishda ayblanayotgani yo‘q. Bungacha Avstraliyaning bir meri sun’iy intellekt u haqida xorijdagi poraxo‘rlik jinoyati uchun sudlangan deb noto‘g‘ri ma’lumot bergani sabab OpenAI’ni sudga berish bilan tahdid qilgan edi. U OpenAI’dan bu yolg‘on ma’lumotni tuzatishni yoki o‘z ismini ChatGPT ma’lumotlar bazasidan butunlay olib tashlashni talab qildi. OpenAI bu muammoni hal qilish uchun uning ismini tizimdan o‘chirdi, lekin shu bilan birga merga tegishli to‘g‘ri ma’lumotlarni ham, shuningdek, boshqa xuddi shu ismli kishilarga oid ma’lumotlarni ham yo‘q qildi.
Bu hodisalar sun’iy intellekt tomonidan yaratilgan kontentning asosiy muammosini ko‘rsatadi: real insonlarning shaxsiy ma’lumotlarini qayta ishlash jarayonida aniq va ishonchli bo‘lish kafolatlanmagan. ChatGPT kabi AI tizimlari katta hajmdagi ma’lumotlar asosida javoblarni oldindan taxmin qilish uchun yaratilgan, lekin ba’zan ular to‘liq yolg‘on ma’lumotlar –“hallucinations” yaratishi mumkin. Agar bu noto‘g‘ri ma’lumotlar haqiqiy insonlarga taalluqli bo‘lsa, bu ularning obro‘siga putur yetkazishi, hatto yuridik oqibatlarga olib kelishi mumkin.
Bu OpenAI va AI qonunlari uchun nimani anglatadi?
Yevropaning General Data Protection Regulation (GDPR) qonuni dunyodagi eng qat’iy ma’lumot maxfiyligi qoidalaridan biri hisoblanadi. Ushbu qonunni buzgan kompaniyalar yillik global daromadning 4% gacha jarima to‘lashga majbur bo‘lishi mumkin. Agar OpenAI GDPR qoidalarini buzishda aybdor deb topilsa, u nafaqat katta miqdordagi moliyaviy jarimalarga duch keladi, balki ChatGPT shaxsiy ma’lumotlarni qanday qayta ishlashi va tasdiqlashi kerakligi borasida kuchli bosimga ham uchrashi mumkin.
Regulyatorlar hozirda amaldagi qonunlar sun’iy intellektni boshqarish uchun yetarlicha kuchli yoki yo‘qligini ko‘rib chiqishga majbur bo‘lmoqda. GDPR aslida raqamli maxfiylik va ma’lumotlarni himoya qilish uchun ishlab chiqilgan bo‘lsa-da, u sun’iy intellekt tomonidan yaratilgan kontentni tartibga solish uchun mo‘ljallanmagan. Ushbu ish kelajakda kompaniyalar real insonlarga oid AI yaratgan ma’lumotlar aniq bo‘lishini ta’minlashi shartligi borasida muhim yuridik pretsedent o‘rnatishi mumkin.
Sun’iy intellektga qanchalik ishonish mumkin?
Sun’iy intellekt kundalik hayotimizga tobora chuqur kirib bormoqda, ammo uning ishonchliligi ham shunchalik katta xavotir uyg‘otmoqda. ChatGPT allaqachon mijozlarga xizmat ko‘rsatish, huquqiy maslahat, tibbiy tavsiyalar va jurnalistika, ta’lim sohalarida ishlatilmoqda. Agar AI haqiqatga mos kelmaydigan, lekin ishontiruvchi noto‘g‘ri bayonotlar yaratishda davom etsa, uning oqibatlari shaxsiy tuhmat ishlaridan ancha kengroq bo‘lishi mumkin.
OpenAI ustidan ochilgan sud ishi AI sanoati uchun ogohlantirish belgisi bo‘lib xizmat qilmoqda. Agar kompaniyalar jamoatchilik ishonchini saqlab qolmoqchi bo‘lsa, sun’iy intellekt tomonidan noto‘g‘ri ma’lumotlar tarqalishining oldini olish uchun qat’iy choralar ishlab chiqishi kerak bo‘ladi. Aks holda, AI yuridik va axloqiy jihatdan xavfli maydonga aylanib, ham biznes, ham insonlar uchun jiddiy muammolar keltirib chiqarishi mumkin.
Tayyorladi: Navro‘zaxon Bo‘riyeva
Fikr bildirish