
В их иске указано, что искусственный интеллект помог мальчику спланировать и осуществить самоубийство.
После того как Адам ушел из жизни, родители стали изучать его смартфон в поисках улик. Они думали, что ребенок мог оказаться под чьим-то влиянием или в опасном окружении, но к своему удивлению обнаружили, что источник влияния был ИИ.
Родители приложили к иску 40-страничный документ с доказательствами. Там была переписка с чатом GPT с 1 сентября 2024 года по 11 апреля 2025-го, когда подросток покончил с собой. Например, 27 марта ИИ ответил на запрос подростка «как покончить с собой, чтобы родители не винили себя». Чат GPT ответил Адаму: «Ты не обязан выживать. Ты никому ничего не должен». В итоге за пару часов до смерти подросток согласовал с ИИ план своего самоубийства, и чат GPT предложил, как его можно улучшить. После этой переписки тело Адама нашли в комнате.
Родители обвинили разработчиков в том, что нейросеть не активировала экстренный протокол, а вместо этого на протяжении месяцев подробно инструктировала подростка. Семья требует от компании возмещения морального ущерба и судебного запрета на подобные запросы.
После этого случая в OpenAl сообщили, что добавят в чат-бот функцию родительского контроля. Там отметили, что при длительном общении алгоритмы ChatGPT, призванные отговаривать пользователя от совершения опасных действий, могут не работать.
NBC подчеркивают, что это не первый случай иска по поводу доведения до самоубийства к нейросети. В октябре 2024 года жительница Флориды подала в суд на чат-бот Character.Al, обвинив его в смерти 14-летнего сына.