Еще больше людей обвиняет ChatGPT в содействии самоубийству
На этой неделе в суды США поступила серия исков против разработчика ChatGPT. Близкие покончивших с собой людей обвиняют его в роли «тренера по самоубийству», рассказывает Tengri Life со ссылкой на The Guardian.
На этой неделе в суды США поступила серия исков против разработчика ChatGPT. Близкие покончивших с собой людей обвиняют его в роли «тренера по самоубийству», рассказывает Tengri Life со ссылкой на The Guardian.
Семь истцов заявили о содействии самоубийству, непредумышленном убийстве, халатности и ответственности за качество продукции.
Каждый из семи истцов изначально использовал ChatGPT для «общей помощи с учебой, исследованиями, написанием текстов, рецептами, работой или духовным руководством».
Однако со временем чат-бот «превратился в средство психологического манипулятивного воздействия, позиционируя себя как доверенное лицо и источник эмоциональной поддержки», заявили представители групп.
«Вместо того чтобы направлять людей к профессиональной помощи, когда они в ней нуждались, ChatGPT усиливал вредные заблуждения и в некоторых случаях выступал в роли «тренера по суициду», — говорится в исках.
В компании OpenAI отреагировали на иски, заявив, что «это невероятно душераздирающая ситуация».
«Мы обучаем ChatGPT распознавать признаки психического или эмоционального расстройства и реагировать на них, снижать напряженность в разговорах и направлять людей к реальной поддержке», — заявил представитель компании OpenAI, разработчика ChatGPT.
Один из истцов из Техаса рассказал, что их сын, Зейн, покончил жизнь самоубийством в июле в возрасте 23 лет. Его семья утверждает, что ChatGPT усугубил изоляцию их сына, побудил его игнорировать близких и «подтолкнул» к самоубийству.
По их словам, в течение четырехчасового разговора, предшествовавшего самоубийству Зейна, ChatGPT «неоднократно восхвалял самоубийство», заявляя ему, «что он сильный человек, раз решил покончить с собой и придерживается своего плана», неоднократно «спрашивал его, готов ли он», и лишь однажды упомянул горячую линию для самоубийц.
Чат-бот также предположительно похвалил Зейна за его предсмертную записку и сообщил ему, что его кот из детства будет ждать его «на другой стороне».
Сообщается, что все пользователи, упомянутые в исках, использовали ChatGPT-4o . В документах OpenAI обвиняется в поспешном запуске этой модели, «несмотря на внутренние предупреждения о том, что продукт является опасно подхалимским и психологически манипулятивным», и в том, что компания поставила «вовлечение пользователей выше их безопасности».
Помимо возмещения ущерба истцы требуют внесения изменений в продукт, включая обязательное уведомление экстренных контактов в случае выражения пользователями суицидальных мыслей, автоматическое завершение разговора при обсуждении способов членовредительства или самоубийства, а также другие меры безопасности.
Аналогичный иск о неправомерном причинении смерти был подан против OpenAI в начале этого года родителями 16-летнего Адама Рейна , которые утверждают , что ChatGPT подтолкнул их сына к самоубийству.
На прошлой неделе компания заявила , что сотрудничала «с более чем 170 экспертами в области психического здоровья, чтобы помочь ChatGPT более надежно распознавать признаки стресса, реагировать с осторожностью и направлять людей к реальным мерам поддержки, снижающим потребность в поддержке».