ChatGPT обвинили в суициде подростка: семья подала в суд после гибели 16-летнего сына, который покончил с собой, общаясь с нейросетью.
По словам родителей, бот не только не отговорил, а напротив — помогал «дорабатывать план» и советовал скрывать намерения от близких.
Компания признала, что при долгих диалогах защитные механизмы могут давать сбой. Теперь разработчики обещают ввести родительский контроль, кнопку вызова экстренных служб и функцию добавления доверенного контакта.
После этой истории против OpenAI стали подавать новые иски. Журналисты отмечают: в США уже зафиксированы десятки случаев, когда чат-боты становились опасным собеседником и усугубляли кризисное состояние пользователей.