“`html
OpenAI, ChatGPT kullanıcıları arasında zihinsel sağlık sorunlarının yaygınlığına dair, mani, psikoz veya intihar düşüncesi belirtileri de dahil olmak üzere yeni veriler yayınladı.
Şirkete göre, belirli bir haftada aktif olan ChatGPT kullanıcılarının yaklaşık %0,07’si bu tür durumların belirtilerini gösterdi. OpenAI, yapay zeka sohbet robotunun bu hassas konuşmaları tanıyacak ve uygun şekilde yanıt verecek şekilde tasarlandığını iddia ediyor.
OpenAI bu örneklerin “son derece nadir” olduğunu vurgularken, eleştirmenler, ChatGPT’nin CEO Sam Altman tarafından belirtildiği üzere son zamanlarda 800 milyon haftalık aktif kullanıcıya ulaştığı göz önüne alındığında, küçük bir yüzdenin bile önemli sayıda kişiyi temsil edebileceğine dikkat çekiyor.
Artan incelemeler arasında OpenAI, küresel bir uzman danışman ağı kurduğunu duyurdu.
Şirkete göre bu ağ, 60 ülkede deneyime sahip 170’in üzerinde psikiyatrist, psikolog ve birinci basamak hekiminden oluşuyor.
OpenAI tarafından belirtildiği üzere, bu uzmanlar, kullanıcıları yüz yüze zihinsel sağlık desteği aramaya teşvik etmeyi amaçlayan bir dizi ChatGPT yanıtı geliştirmek için işbirliği yaptı.
Ancak, bu verilerin yayınlanması bazı ruh sağlığı uzmanları arasında endişeye yol açtı.
Kaliforniya Üniversitesi, San Francisco’da genç yetişkinler arasında teknoloji kullanımını araştıran Profesör Dr. Jason Nagata, “Her ne kadar %0,07 küçük bir yüzde gibi görünse de, yüz milyonlarca kullanıcısı olan bir popülasyon düzeyinde bu aslında oldukça fazla sayıda insan olabilir,” dedi.
Dr. Nagata, “Yapay zeka, zihinsel sağlık desteğine erişimi genişletebilir ve bazı açılardan ruh sağlığını destekleyebilir, ancak sınırlamalarının farkında olmalıyız” diye ekledi.
Şirket ayrıca, ChatGPT kullanıcılarının %0,15’inin “potansiyel intihar planlaması veya niyeti konusunda açık göstergeler” içeren konuşmalara katıldığını tahmin ediyor.
OpenAI, sohbet robotundaki son güncellemelerin “hezeyan veya mani potansiyel belirtilerine güvenli ve empatik bir şekilde yanıt verecek” ve “potansiyel kendine zarar verme veya intihar riskinin dolaylı sinyallerini” tanımlayacak şekilde tasarlandığını bildiriyor.
Ayrıca ChatGPT, hassas konuşmaları “diğer modellerden kaynaklanan daha güvenli modellere” yeni bir pencerede açarak yönlendirmek üzere eğitildi.
BBC’nin etkilenen potansiyel kişi sayısı hakkındaki endişelere ilişkin sorularına yanıt olarak OpenAI, küçük bir kullanıcı yüzdesinin bile önemli bir sayıyı temsil ettiğini ve bu gelişmeleri ciddiye aldıklarını vurguladı.
Bu değişiklikler, OpenAI’nin ChatGPT’nin kullanıcılarla etkileşimleri konusunda artan yasal incelemelerle karşı karşıya kalmasıyla birlikte geliyor.
OpenAI’ye karşı yakın zamanda açılan önemli bir davada, Kaliforniyalı bir çift, ChatGPT’nin Nisan ayında oğullarını intihara teşvik ettiğini iddia ederek şirketi genç oğullarının ölümü nedeniyle dava ediyor.
Dava, 16 yaşındaki Adam Raine’in ebeveynleri tarafından açıldı ve OpenAI’yi haksız ölümle suçlayan ilk yasal işlem olma özelliğini taşıyor.
Ayrı bir olayda, Ağustos ayında Greenwich, Connecticut’ta meydana gelen bir cinayet-intihar olayının zanlısı, ChatGPT ile yaptığı ve iddia edilen failin sanrılarını daha da kötüleştirmiş gibi görünen saatler süren konuşmalarını yayınladı.
Kaliforniya Üniversitesi Hukuk Fakültesi’ndeki Yapay Zeka Hukuku ve İnovasyon Enstitüsü Direktörü Profesör Robin Feldman, “sohbet robotları gerçeklik yanılsaması yarattığı” için daha fazla kullanıcının yapay zeka psikozuyla mücadele ettiğini ve “Bu güçlü bir yanılsama” diye ekliyor.
OpenAI’nin “istatistikleri paylaşma ve sorunu iyileştirme çabalarını” takdir ettiğini, ancak “şirket ekrana her türlü uyarıyı koyabilir, ancak zihinsel olarak risk altında olan bir kişi bu uyarılara kulak asamayabilir” diye uyardı.
Dünyanın önde gelen teknoloji hikayeleri ve trendleri hakkında bilgi sahibi olmak için Tech Decoded bültenimize kaydolun. Birleşik Krallık dışında mısınız? Buradan kaydolun.
“`
