Sun’iy intellekt odamlarni aldashni o‘rgandi va xavfli bo‘lishi mumkin – tadqiqot

Fan-texnika 22:38 / 11.05.2024 11908

Ko‘pgina sun’iy intellekt (SI) tizimlari, shu jumladan halol bo‘lishga o‘rgatilganlari odamlarni qanday aldashni o‘rgangan. Buni Patterns nashrida chop etilgan tadqiqot ko‘rsatdi.

Olimlar sun’iy intellekt tizimlari yolg‘on ma’lumotlardan qanday foydalanishi haqidagi hisobotlarni tahlil qilishdi. Eng yorqin misol «Diplomatiya» o‘yiniga o‘rgatilgan CICERO algoritmi edi. Unda o‘yinchi dunyoni zabt etish uchun ittifoqlar tuzishi kerak. CICERO o‘yin davomida o‘z ittifoqchilariga qasddan zarba bermaslikka o‘rgatilgan bo‘lsa ham halol o‘ynamagan.

Boshqa sun’iy intellekt tizimlari «Starcraft II» strategiya o‘yinida soxta hujumlarni uyushtirishni va pokerda g‘irromlik qilish qobiliyatini namoyish etgan. Ba’zi algoritmlar hatto o‘z xavfsizligini baholash uchun mo‘ljallangan testlarni aldashni o‘rgangan.

Tadqiqotchilarning ta’kidlashicha, SI aldashni o‘rganishda davom etsa, odamlar uning ustidan nazoratni yo‘qotishi mumkin. Shu sababli, ushbu muammoni hal qilish va tizimni yuqori xavfli texnologiya sifatida tasniflash uchun imkon qadar tezroq qat’iy qoidalarni ishlab chiqish kerakligi aytilmoqda.

Olimlar hozircha sun’iy intellektning aldashni o‘rganishi sabablarini bilmaydi. Biroq, SI vazifani yaxshiroq bajarish uchun aldov va hiyladan foydalanayotgan bo‘lishi mumkin.

Ko‘proq yangiliklar: