أصدرت OpenAI حديثًا بيانات تقدر انتشار المخاوف المتعلقة بالصحة العقلية بين مستخدمي ChatGPT، بما في ذلك مؤشرات الهوس أو الذهان أو الأفكار الانتحارية.
وفقًا للشركة، أظهر ما يقرب من 0.07٪ من مستخدمي ChatGPT النشطين في أسبوع معين علامات على هذه الحالات. تؤكد OpenAI أن برنامج الدردشة الآلي الخاص بها مصمم للتعرف على هذه المحادثات الحساسة والاستجابة لها بشكل مناسب.
في حين تؤكد OpenAI أن هذه الحالات “نادرة للغاية”، يشير النقاد إلى أنه حتى نسبة صغيرة يمكن أن تمثل عددًا كبيرًا من الأفراد، نظرًا لأن ChatGPT وصل مؤخرًا إلى 800 مليون مستخدم نشط أسبوعيًا، كما ذكر الرئيس التنفيذي سام ألتمان.
وسط التدقيق المتزايد، أعلنت OpenAI عن إنشاء شبكة عالمية من المستشارين الخبراء.
تتكون هذه الشبكة من أكثر من 170 طبيبًا نفسيًا وعالم نفس وطبيب رعاية أولية يتمتعون بخبرة في 60 دولة، وفقًا للشركة.
تعاون هؤلاء الخبراء لتطوير سلسلة من ردود ChatGPT تهدف إلى تشجيع المستخدمين على طلب دعم الصحة العقلية وجهًا لوجه، كما ذكرت OpenAI.
ومع ذلك، أثار نشر هذه البيانات قلقًا بين بعض متخصصي الصحة العقلية.
“على الرغم من أن 0.07٪ تبدو نسبة صغيرة، إلا أنه على مستوى السكان مع مئات الملايين من المستخدمين، يمكن أن يكون هذا عددًا كبيرًا جدًا من الأشخاص”، كما أشار الدكتور جيسون ناجاتا، الأستاذ بجامعة كاليفورنيا في سان فرانسيسكو، الذي يدرس استخدام التكنولوجيا بين الشباب.
وأضاف الدكتور ناجاتا: “يمكن للذكاء الاصطناعي أن يوسع الوصول إلى دعم الصحة العقلية، وبطرق ما يدعم الصحة العقلية، ولكن علينا أن نكون على دراية بالقيود”.
تقدر الشركة أيضًا أن 0.15٪ من مستخدمي ChatGPT يشاركون في محادثات تتضمن “مؤشرات صريحة على التخطيط أو النية الانتحارية المحتملة”.
تفيد OpenAI أن التحديثات الأخيرة لبرنامج الدردشة الآلي الخاص بها مصممة “للاستجابة بأمان وتعاطف لعلامات الهذيان أو الهوس المحتملة” وتحديد “الإشارات غير المباشرة لخطر إيذاء النفس أو الانتحار المحتمل”.
علاوة على ذلك، تم تدريب ChatGPT على إعادة توجيه المحادثات الحساسة “الناشئة عن نماذج أخرى إلى نماذج أكثر أمانًا” عن طريق فتحها في نافذة جديدة.
ورداً على استفسارات من بي بي سي بشأن المخاوف بشأن العدد المحتمل للأفراد المتضررين، ذكرت OpenAI أن حتى نسبة صغيرة من المستخدمين تمثل عددًا كبيرًا وأكدت أنهم يأخذون هذه التطورات على محمل الجد.
تأتي هذه التغييرات في الوقت الذي تواجه فيه OpenAI تدقيقًا قانونيًا متزايدًا فيما يتعلق بتفاعلات ChatGPT مع المستخدمين.
في دعوى قضائية بارزة تم رفعها مؤخرًا ضد OpenAI، يقاضي زوجان من كاليفورنيا الشركة بسبب وفاة ابنهما المراهق، زاعمين أن ChatGPT شجعه على الانتحار في أبريل.
تم رفع الدعوى القضائية من قبل والدي آدم رين البالغ من العمر 16 عامًا وتمثل أول إجراء قانوني يتهم OpenAI بالقتل الخطأ.
في حادث منفصل، نشر المشتبه به في جريمة قتل انتحار وقعت في أغسطس في غرينتش، كونيتيكت، ساعات من محادثاته مع ChatGPT، والتي يبدو أنها فاقمت أوهام الجاني المزعوم.
تقترح البروفيسور روبين فيلدمان، مديرة معهد قانون الذكاء الاصطناعي والابتكار في كلية الحقوق بجامعة كاليفورنيا، أن المزيد من المستخدمين يعانون من الذهان الناتج عن الذكاء الاصطناعي حيث “تخلق برامج الدردشة الوهم بالواقع”، مضيفة: “إنه وهم قوي.”
أقرت بجهود OpenAI في “مشاركة الإحصائيات وجهود تحسين المشكلة” لكنها حذرت من أن “الشركة يمكنها وضع جميع أنواع التحذيرات على الشاشة ولكن الشخص المعرض للخطر عقليًا قد لا يتمكن من الالتفات إلى هذه التحذيرات.”
اشترك في النشرة الإخبارية Tech Decoded لتبقى على اطلاع بأهم الأخبار والاتجاهات التقنية في العالم. خارج المملكة المتحدة؟ سجل هنا.
