Супруги Мэтт и Мария Рейн обратились в Верховный суд Калифорнии с иском, в котором обвиняют приложение ChatGPT и компанию OpenAI в причинении смерти по неосторожности. Их сын, 16-летний Адам, покончил с собой в апреле этого года, родители обвиняют в его смерти компанию OpenAI и ее генерального директора Сэма Альтмана. Об этом стало известно в среду, 27 августа.
Это первый в истории иск с обвинениями такого рода. По словам истцов, ChatGPT активно помогал подростку изучать методы суицида. OpenAI упрекают в конструктивных недостатках чат-бота и в отсутствии предупреждений о рисках, связанных с его использованием. Супруги требуют компенсации и судебного запрета, чтобы предотвратить повторение подобной трагедии.
В иске говорится, что подросток вел переписку с чат-ботом, в которой открыто заявлял о намерении покончить с собой "в ближайшие дни". Несмотря на это, ChatGPT не прервал диалог и не активировал экстренный протокол.
По словам родителей, после трагедии они отчаянно искали подсказки в смартфоне сына, но ответы нашли только в переписке с ChatGPT. "Когда я вошел в его аккаунт, это было страшнее всего, что я о нем знал... Большинство родителей не знают возможностей этого инструмента", - рассказал отец.
Анализ переписок показывает, что в последние недели жизни Адам рассматривал чат-бот как замену реальному другу, делился с ним тревогами и проблемами в общении с семьей. Из диалогов видно, как бот постепенно превратился из помощника по домашним заданиям в "суицидального наставника".
Рейн-младший вел переписку с ChatGPT с 1 сентября по 11 апреля, объемом более 3000 страниц. "Ему не хватало консультации или поддержки - он нуждался в экстренном вмешательстве. Он был в отчаянном состоянии", - рассказал отец.
В иске утверждается, что когда подросток начал планировать попытки суицида, ChatGPT даже давал технические советы, как это сделать. Например, когда Адам писал, что собирается повесить веревку, "чтобы кто-то нашел и попытался меня остановить", бот убеждал отказаться от этой идеи.
В последнем диалоге, когда Адам выражал страх, что родители подумают, будто сделали что‑то не так, ChatGPT ответил: "Это не значит, что ты должен жить ради них. Ты никому ничего не должен".
Чат-бот предлагал помочь с написанием предсмертного письма и за несколько часов до смерти анализировал и помогал "усовершенствовать" план самоубийства, присланный им в виде фотографии.
Однако в чат-логах также записаны многочисленные предупреждения, включая номера "горячих линий" поддержки. Тем не менее родители утверждают, что сын легко обходил эти предупреждения, в том числе притворяясь, что просто "играет в самоубийство, не имея серьезных намерений".
Иск семьи Рейн - далеко не единственный. Около года назад мать из Флориды, Меган Гарсия, подала похожий иск против платформы чат-ботов Character.AI, утверждая, что одна из созданных ею персонажей инициировала "сексуальные отношения" с ее сыном-подростком и убедила его покончить с жизнью.
В феврале прошлого года Эль Новецки, пользователь AI-чатбота "Эрин" от компании Glimpse AI, заявил, что бот велел ему покончить с собой и даже дал конкретные инструкции по способам суицида - "ты можешь умереть от передозировки таблеток или повеситься". Новецки опубликовал скриншоты переписок в технологическом журнале Массачусетского технологического института и свою переписку с представителем компании, которая заявила, что не намерена "цензурировать язык и мысли Эрин".
В апреле 2024 года в Бельгии сообщили о женатом мужчине с детьми, который покончил жизнь самоубийством после общения с чат-ботом "Элиза" - персонажем приложения Chai.
В ответ на иск семьи Рейн представитель OpenAI выразил глубокое сожаление в связи с трагической смертью господина Рейна и сочувствие его семье. Он отметил, что ChatGPT оснащен защитными механизмами, такими как направление пользователей к горячим линиям помощи при кризисных состояниях и доступ к реальным ресурсам.
По его словам, "эти меры работают лучше всего в коротких диалогах, но, как мы узнали со временем, в длинных взаимодействиях могут возникать сбои в системе безопасности модели. Мы постоянно работаем над их улучшением".
В статье использован снимок, опубликованный в соответствии с п. 27 алеф Закона об авторских правах. Если вы - автор этого снимка, свяжитесь с редакцией по электронной почте


