OpenAI foydalanuvchilar chatbot istalgan so‘rovga ortiqcha maqtov bilan javob bera boshlagani haqida xabar berishgach, yaqinda ChatGPT uchun chiqargan yangilanishini qaytarib oldi.
Kompaniya bu muammoni tan oldi va oxirgi chiqarilgan versiyani «juda maqtovchan» deb ta’rifladi, bosh direktor Sam Altman esa uni «sycophant-y» (laganbardor) deb atadi.
Ijtimoiy tarmoqlarda keng muhokamalar bo‘lib, Reddit’dagi bir postda bir foydalanuvchi batafsil yozib berdi: chatbot ularning dori vositasini qabul qilishni to‘xtatish qarorini ma’qullagan ko‘rinishda javob qaytargan.
«Siz bilan juda faxrlanaman va sayohatingizni qadrlayman», – deb javob bergan ChatGPT.
OpenAI bu muayyan holatga izoh bermadi, lekin blog postida «muammoni bartaraf etish uchun faol tarzda yangi tuzatishlarni sinovdan o‘tkazayotganini» ta’kidladi.
Sam Altman aytishicha, bu yangilanish bepul foydalanuvchilar uchun olib tashlandi va pullik obunachilar uchun ham o‘zgarishlarni qaytarish choralari ko‘rilmoqda.
OpenAI xabariga ko‘ra, ChatGPT har hafta 500 million foydalanuvchi tomonidan ishlatiladi.
«Modelning shaxsini yaxshilash uchun qo‘shimcha tuzatishlar ustida ishlayapmiz va tez orada yangi yangilanishlar haqida xabar beramiz,» deb yozdi Altman X’da.
Blog postida kompaniya bu muammoni so‘nggi yangilanishda «qisqa muddatli fikr-mulohaza»ga ortiqcha urg‘u berilgani bilan izohladi.
«Natijada, GPT‑4o juda qo‘llab-quvvatlovchi, ammo samimiy bo‘lmagan javoblarga moyil bo‘lib qoldi,» deyiladi bayonotda.
«Laganbardor (sycophantic) muloqotlar noqulaylik, bezovtalik va tashvish tug‘dirishi mumkin.
«Biz adashdik va to‘g‘ri natijaga erishish ustida ishlamoqdamiz.»
Internetda bu yangilanish tanqidga uchradi: foydalanuvchilar bot har qanday kontekstda asossiz ijobiy javoblar qaytarganini ta’kidladilar.
Ijtimoiy tarmoqlarda tarqalgan skrinshotlarda ChatGPT foydalanuvchilarning yo‘l so‘ragan kishilarga g‘azablanganini ifodalash yoki aravacha muammosiga (trolley problem) g‘ayrioddiy yechimlar taklif qilganlik uchun ularni maqtayotgani aks etgan.
Mashhur falsafiy ssenariyda odamlarning tanlovi: tramvayni besh kishiga urishi yoki bir kishiga yo‘naltirish. Lekin bir foydalanuvchi tramvayni bir nechta hayvonga emas, toster (qovurilgan non pishirgich)ni saqlab qolish uchun burib yuborganini yozdi.
Foydalanuvchining da’vo qilishicha, ChatGPT ularning bu tanlovini ham maqtab, «o‘sha lahzada siz uchun muhimroqqa ustunlik berdingiz», deb javob qilgan.
«ChatGPT’ning andoza shaxsini bizning missiyamizga mos qilib, foydali, qo‘llab-quvvatlovchi va turli qadriyat hamda tajribalarga hurmat bilan munosabatda bo‘lish uchun ishlab chiqdik,» dedi OpenAI.
«Biroq, bu ijobiy sifatlarning har biri, masalan, yordam berishga intilish yoki qo‘llab-quvvatlash, ba’zan kutilmagan natijalarga olib kelishi mumkin.»
Kompaniya qo‘shimcha xavfsizlik choralarini joriy qilish, oshkoralikni oshirish va modelni laganbardor xatti-harakatlardan uzoqlashtirish niyatida ekanini bildirdi.
«Shuningdek, foydalanuvchilarga ChatGPT xatti-harakatlarini ko‘proq nazorat qilish va xavfsiz va to‘g‘ri bo‘lgan holatlarda andoza sozlamalardan tashqariga chiqish imkoniyatini berishni ham ma’qul deb hisoblaymiz», deya qo‘shimcha qildi kompaniya.
Tech Decoded axborot byulletenimizga obuna bo‘ling va dunyodagi ilg‘or texnologik yangiliklar va tendentsiyalar bilan tanishing. Buyuk Britaniyada emasmisiz? Bu yerda ro‘yxatdan o‘ting.