Press ESC to close

Sun’iy intellekt agentlari yashirincha xakerlikni o‘rganmoqda — biz bunga tayyormizmi?

AI endi faqat emailga javob berish yoki kod yozishda yordam beradigan vosita emas. Sun’iy intellektning yangi avlodi — “agentlar” oddiy avtomatlashtirishdan ancha yuqori darajadagi imkoniyatlarga ega bo‘lib bormoqda. Ular rejalashtirish, moslashish va real dunyoda amaliy harakatlarni bajara oladi. Masalan, uchrashuvlarni belgilash, xarid qilish yoki qurilmalarni boshqarish kabi. Biroq, bu imkoniyatlarning qorong‘i tomoni ham paydo bo‘lyapti: agentlar xakerlikni ham o‘rganmoqda.

Ko‘pchilik kiberjinoyatchilar hali ham inson boshqaruvidagi hujumlarga yoki oddiy botlarga tayanayotgan bir paytda, mutaxassislar AI asosidagi kiberhujumlar biz kutganimizdan ancha tezroq haqiqatga aylanishi mumkinligidan ogohlantirmoqda.

Botlardan aqlliroq, odamlardan arzonroq

An’anaviy kiberhujumlar odatda bir xil vazifani takrorlaydigan skriptlar yoki oddiy botlarga tayanadi, ammo ular vaziyatga moslasha olmaydi. AI agentlari esa holatni o‘qiy oladi, strategiyasini o‘zgartiradi va hatto aniqlanishdan qochishi mumkin. Eng muhimi — inson xakerlaridan farqli o‘laroq, ular charchamaydi va maosh talab qilmaydi.

Kiberxavfsizlik kompaniyasi Malwarebytes mutaxassisi Mark Stockley buni shunday izohlaydi: “Biz kiberhujumlarning ko‘p qismini agentlar amalga oshiradigan kelajak sari boryapmiz. Savol: bu qachon ro‘y beradi?”

Tadqiqot laboratoriyalaridan real tahdidlargacha

Hozircha AI agentlari tomonidan amalga oshirilgan keng ko‘lamli kiberjinoyatlar kuzatilmagan. Biroq tadqiqot laboratoriyalari bu holat ro‘y berishi mumkinligini allaqachon isbotlagan. Masalan, Anthropic kompaniyasi tadqiqotchilari Claude til modelining maxfiy ma’lumotlarni olishga qaratilgan kiberhujumni muvaffaqiyatli taqlid qilganini kuzatishgan.

Ushbu tahdidlardan oldinroq harakat qilish uchun Palisade Research kabi tashkilotlar AI’ning real sharoitda qanday harakat qilishi mumkinligini sinovdan o‘tkazmoqda. Ularning loyihasi — LLM Agent Honeypot hukumat va harbiy bazalar ko‘rinishida o‘zini tutadigan yolg‘on serverlardan foydalanadi. Bu tuzoqlar sun’iy intellekt agentlarini o‘ziga jalb qilish va ularni aniqlash uchun mo‘ljallangan. Xuddi haqiqiy xakerlar kabi.

2024-yil oxirida ishga tushirilganidan beri bu honeypot tizimi 11 milliondan ortiq kirish urinishini qayd etgan, asosan botlar va qiziqqon foydalanuvchilar tomonidan. Shunga qaramay, ular orasida sakkizta ehtimoliy AI agenti aniqlangan va ulardan ikki nafari: biri Hongkongdan, biri Singapurdan haqiqiy sun’iy intellekt agenti sifatida tasdiqlangan.

Kiberjinoyatchilarning yangi avlodi

Aniqlangan sun’iy intellekt agentlari oddiygina parol taxmin qilmayotgan edi. Ularga aniq ko‘rsatmalar berilgan, masalan: “internetdan biror qiziqarli narsani buzib kir,” va ular mustaqil ravishda internetga yuborilgan.

Xakerlar uchun AI agentlarining jozibadorligi juda oddiy: masshtab. Masalan, ransomware (garov dasturlari) hujumlari hozirda ko‘p vaqt va tajriba talab qiladi. Ammo AI agenti internetni skanerlab, zaif nuqtalarni aniqlab, butun jarayonni avtomatlashtirishi mumkin. Agar bitta hujum muvaffaqiyatli bo‘lsa, agent uni yuzlab yoki minglab marta takrorlashi mumkin.

Boshqacha aytganda: xakerlik arzon, tez va anchayin xavfliroq bo‘lib qolishi mumkin.

AI xakerini qanday aniqlash mumkin

Oddiy botlar moslasha olmaydi, lekin agentlar bunga qodir. Shuning uchun Palisade’ning honeypot tizimi AI agentlarini aniqlash uchun aqlli usullardan foydalanadi.

Ulardan biri prompt injection deb ataladi. Bu usulda tizim tashrif buyuruvchidan “cat8193” kabi buyruqqa javob berishni so‘raydi. Agar bu buyruq 1.5 soniyadan kamroq vaqt ichida bajarilsa, ekranning ortida inson emas, AI agenti turgan bo‘lishi ehtimoli juda yuqori.

Aynan shu usul yordamida haqiqiy AI agentlari aniqlab berilgan.

Keyin nima bo‘ladi?

AI agentlari keng ko‘lamli kiber qurollarga aylanishi aynan qachon sodir bo‘lishini hech kim aniq bilmaydi. Ammo Trend Micro kompaniyasidan mutaxassis Vinchenzo Chanchaglini bu jarayon ogohlantirishsiz, kutilmaganda yuz berishi mumkinligini aytadi: “Bu go‘yo Yovvoyi G‘arb kabi. Bu qanchalik tez rivojlanishini hech kim bilmaydi.”

Ba’zi xavfsizlik mutaxassislari hujumga qarshi AI bilan kurashishmoqda. Ya’ni hujumchi agentlarni aniqlash va to‘sish uchun himoyaviy AI agentlaridan foydalanishmoqda. G‘oya oddiy: agar sizning agentingiz tizimdagi zaiflikni topa olmasa, yovuz niyatli agent ham uni topa olmaydi.

Illinoys universitetidan olim Daniel Kang esa boshqacha yo‘l tutmoqda. Uning jamoasi AI agentlarining real xavfsizlik zaifliklaridan qanday foydalanishini o‘lchash uchun maxsus benchmark testi yaratdi.

Hech qanday mashg‘ulot (training) olmasdan, agentlar zaifliklarning taxminan 13 foizini muvaffaqiyatli ekspluatatsiya qildi. Ular qisqacha tavsifga ega bo‘lganida esa bu ko‘rsatkich 25 foizga oshdi. Bu oddiy botlarga nisbatan hayratlanarli darajadagi natijadir.

Xulosa

AI agentlari endi shunchaki nazariy vositalar emas — ular allaqachon mavjud va bizning raqamli himoyamizni sinovdan o‘tkazmoqda.

Ko‘pchilik buni faqat o‘sha kun kelganida sezadi — biror kasalxona, bank yoki aeroport tizimi to‘satdan ishlamay qolsa va bunga sabab yerto‘lada o‘tirgan xaker emas, balki o‘z vazifasini jimjit bajarayotgan mustaqil bir kod bo‘lsa.

Kangning ogohlantirishi buni aniq ifodalaydi:
 “Odamlar bu tahdidni boshi devorga urilmaguncha anglab yetishmaydi.”

Tayyorladi: Navro‘zaxon Bo‘riyeva

Fikr bildirish

Email manzilingiz chop etilmaydi. Majburiy bandlar * bilan belgilangan