Пт. Ноя 21st, 2025
Данные ChatGPT выявили распространенность психотических и суицидальных мыслей среди пользователей

OpenAI недавно опубликовала данные, оценивающие распространенность проблем с психическим здоровьем среди пользователей ChatGPT, включая признаки мании, психоза или суицидальных мыслей.

По данным компании, примерно 0,07% пользователей ChatGPT, активных в течение недели, демонстрировали признаки таких состояний. OpenAI утверждает, что их AI-чатбот разработан для распознавания и надлежащего реагирования на эти деликатные разговоры.

Хотя OpenAI подчеркивает, что эти случаи «крайне редки», критики отмечают, что даже небольшой процент может представлять собой значительное число людей, учитывая, что, по словам генерального директора Сэма Альтмана, ChatGPT недавно достиг 800 миллионов активных пользователей в неделю.

На фоне растущей критики OpenAI объявила о создании глобальной сети экспертных консультантов.

По данным компании, эта сеть включает в себя более 170 психиатров, психологов и врачей первичного звена, имеющих опыт работы в 60 странах.

Эти эксперты сотрудничали в разработке серии ответов ChatGPT, предназначенных для того, чтобы побудить пользователей обращаться за очной помощью в области психического здоровья, как заявила OpenAI.

Однако публикация этих данных вызвала обеспокоенность у некоторых специалистов в области психического здоровья.

«Несмотря на то, что 0,07% звучит как небольшой процент, на уровне населения с сотнями миллионов пользователей это на самом деле может быть довольно много людей», — отметил доктор Джейсон Нагата, профессор Калифорнийского университета в Сан-Франциско, изучающий использование технологий среди молодежи.

«AI может расширить доступ к поддержке психического здоровья и в некотором смысле поддерживать психическое здоровье, но мы должны осознавать ограничения», — добавил доктор Нагата.

Компания также оценивает, что 0,15% пользователей ChatGPT участвуют в разговорах, которые включают «явные признаки потенциального суицидального планирования или намерения».

OpenAI сообщает, что последние обновления ее чат-бота разработаны для «безопасного и чуткого реагирования на потенциальные признаки бреда или мании» и выявления «косвенных сигналов потенциального самоповреждения или риска самоубийства».

Кроме того, ChatGPT обучен перенаправлять деликатные разговоры, «исходящие от других моделей, в более безопасные модели», открывая их в новом окне.

В ответ на запросы BBC относительно опасений по поводу потенциального числа пострадавших людей, OpenAI заявила, что даже небольшой процент пользователей представляет собой значительное число, и подчеркнула, что они серьезно относятся к этим событиям.

Эти изменения происходят на фоне усиления юридического контроля за взаимодействием ChatGPT с пользователями.

В примечательном судебном иске, недавно поданном против OpenAI, калифорнийская пара подает в суд на компанию в связи со смертью своего сына-подростка, утверждая, что ChatGPT побудил его покончить жизнь самоубийством в апреле.

Иск был подан родителями 16-летнего Адама Рейна и является первым юридическим иском, обвиняющим OpenAI в причинении смерти по неосторожности.

В отдельном инциденте, подозреваемый в убийстве-самоубийстве, которое произошло в августе в Гринвиче, штат Коннектикут, опубликовал часы своих разговоров с ChatGPT, которые, по-видимому, усугубили бред предполагаемого преступника.

Профессор Робин Фельдман, директор Института AI Law & Innovation при Юридическом факультете Калифорнийского университета, предполагает, что все больше пользователей сталкиваются с AI-психозом, поскольку «чат-боты создают иллюзию реальности», добавляя: «Это мощная иллюзия».

Она признала усилия OpenAI по «обмену статистическими данными и по улучшению проблемы», но предостерегла, что «компания может размещать все виды предупреждений на экране, но человек, находящийся в группе риска психического здоровья, может быть не в состоянии прислушаться к этим предупреждениям».

Подпишитесь на нашу рассылку Tech Decoded, чтобы быть в курсе ведущих мировых технологических новостей и тенденций. Находитесь не в Великобритании? Зарегистрируйтесь здесь.

От ProfNews