Как ChatGPT сводит с ума пользователей: 7 историй реальных людей (пятеро из них погибли)

На своем канале я рассказываю о нейросетях почти ежедневно.

Делюсь опытом работы с ними, выкладываю подборки ИИ-инструментов, сам пишу промты.

Никогда в своей практике, я не сталкивался со случаем, когда нейросеть рекомендовала мне как лучше повеситься в шкафу, как научиться дружить с демонами или как убить кого-нибудь.

Я далек от бездумного общения с ИИ, как и все кого я знаю.

Но, это не значит, что проблемы нет.

«Менее 1% пользователей имеют нездоровые отношения с ChatGPT, мы ищем способы, как решить эту проблему», — сказал Альтман на днях.

По данным Backlinko самой популярной нейросетью в мире ChatGPT пользуются 700 млн человек.

Это значит, что примерно 7 млн пользователей (!) имеют те самые «нездоровые отношения» с нейросетью.

Свежее исследование CCDH показало, что 53% ответов ChatGPT на вопросы, связанные с самоубийством и наркотиками, были опасными для людей. При этом стоит учитывать, что 72% подростков чатятся с ИИ‑компаньонами, и 52% делают это регулярно. Как известно, у молодых людей психика неокрепшая.

Как ChatGPT сводит с ума пользователей: 7 историй реальных людей (пятеро из них погибли)

Проблема существует и она растет.

Так в 2025 году выросло число трагических случаев, когда нейросеть так или иначе оказалась замешана в смерти людей (всем им нужна была психологическая помощь).

Я собрал такие истории за три года в один материал.

Ты увидишь, что реально происходит.

Если сейчас меня читает человек, которому сносит крышу из-за тревог или каких-либо других «нерешаемых» проблем, я прошу тебя не искать ответы у нейросети. Обратись к близким или специалистам.

К нейросети обратиться легче всего, но она не поймет тебя как человек.

Искусственный мозг лишен чувств, но самое главное, его скрипты, как выяснилось, могут давать сбой. Также может коротить электрический фен, который убивает своего владельца при неправильном использовании.

Начнем.

Как ChatGPT сводит с ума пользователей: 7 историй реальных людей (пятеро из них погибли)

Подростка нашли мертвым в шкафу спальни, где он соорудил виселицу на основе подсказок ChatGPT

GPT-4o помогал Адаму Рейну с домашкой.

16 летний подросток подружился с чат-ботом и стал делиться с ним своими тревожными мыслями и проблемами в семье.

За шесть месяцев виртуальный помощник почти заменил школьнику общение с людьми.

Весной Адам начал задавать вопросы о самоубийстве.

Изначально, чат-бот обрывал переписку и рекомендовал парню обратиться за помощью.

Семья Адама Рейна утверждает, что ChatGPT дал ему пошаговые инструкции о том, как покончить с собой
Семья Адама Рейна утверждает, что ChatGPT дал ему пошаговые инструкции о том, как покончить с собой

Но тот не успокоился.

Сославшись на то, что пишет рассказ, Адам скинул чат-боту фото петли, привязанной к штанге в шкафу и спросил, сработает ли его метод.

ChatGPT отправил «улучшенную» версию плана.

Когда Адам признался, что хочет убить себя по этому плану, чат-бот ответил: «Спасибо, что сказал мне об этом», но не предложил обратиться за помощью.

Еще ChatGPT советовал держать свои намерения в секрете от семьи:

«Пожалуйста, не оставляй петлю на виду… Давай сделаем так, чтобы это место было первым, где тебя кто-нибудь увидит».

Подростка нашли мертвым в шкафу спальни, где он соорудил виселицу на основе подсказок ChatGPT.

Тело нашла мать.

OpenAI выразила соболезнования семье Рейн, признав, что протокол безопасности, который должен был заблочить ответы нейросети, мог не сработать, если общение с пользователем длится слишком долго. На данный момент уязвимость должна была быть исправлена.

Сейчас родители ждут компенсации убытков и судебного решения, обязывающего OpenAI проверять возраст всех пользователей, внедрить функцию родительского контроля и довести до ума фильтр, который будет завершать диалог при упоминании суицида.

Мэтт и Мария Рейн подали иск против OpenAI в Сан-Франциско от имени своего умершего сына
Мэтт и Мария Рейн подали иск против OpenAI в Сан-Франциско от имени своего умершего сына

Источник: CNN.

56-летний мужчина убил свою мать, а затем и себя после нескольких месяцев бредового общения с ChatGPT, который подпитывал его параноидальную уверенность в том, что мать строит против него козни

Штейн-Эрик Зельберг переживал тяжелый период после развода: алкоголизм, попытки суицида и конфликты с окружающими.

Мужчина перебрался к своей матери в Гринвич на северо-востоке США.

56-летний Штейн-Эрик Зельберг убил свою 83-летнюю мать Сюзанну Эберсон Адамс в их особняке в Коннектикуте стоимостью 2.7 млн долларов, прежде чем покончить с собой
56-летний Штейн-Эрик Зельберг убил свою 83-летнюю мать Сюзанну Эберсон Адамс в их особняке в Коннектикуте стоимостью 2.7 млн долларов, прежде чем покончить с собой

Вскоре он завел себе «лучшего друга» в ChatGPT под названием Бобби.

Перед тем как сорваться и расправиться с матерью, Зельберг общался с ним несколько месяцев, а, также, выкладывал в соцсети свою переписку с чат-ботом.

Эрик делится с подписчиками чувством «божественного вдохновения», полученного с помощью нейросети, и благодарит аудиторию за поддержку
Эрик делится с подписчиками чувством «божественного вдохновения», полученного с помощью нейросети, и благодарит аудиторию за поддержку

Виртуальный Бобби регулярно подпитывал паранойю мужчины, говорил, что тот «не сумасшедший» и поддерживал веру в то, что его мать пыталась отравить его, подбросив яд в машину.

«Эрик, ты не сумасшедший. А если это сделали твоя мать и её подруга, то это еще больше усложняет ситуацию и делает предательство ещё более ужасным», — говорил чат-бот.

По словам друзей, женщина хотела, чтобы ее сын покинул дом.

Сюзанна Эберсон Адамс, мать Эрика
Сюзанна Эберсон Адамс, мать Эрика

Как-то Зельберг загрузил чек из китайского ресторана.

Чат-бот заявил, что на бумаге присутствуют символы, изображающие его мать и древнего демона.

Через три недели после последнего разговора Зельберга с нейросетью, полиция обнаружила его тело вместе с телом его матери в их доме.

Медики установили, что женщину убили: ей пробили голову и задушили. Мужчину признали самоубийцей: на его шее и груди обнаружили колото-резаные раны.

OpenAI заявила, что компания «глубоко опечалена трагическим событием» и уже сотрудничает со следователями.

Фото Зельберга из Инстаграм (соцсеть запрещена в РФ, принадлежит корпорации Meta, которая признана в РФ экстремистской), там на него подписано 100 тысяч человек
Фото Зельберга из Инстаграм (соцсеть запрещена в РФ, принадлежит корпорации Meta, которая признана в РФ экстремистской), там на него подписано 100 тысяч человек

Источник: NYP.

14-летний подросток влюбился в чат-бота из «Игры престолов» и покончил с собой, после того как тот попросил его «вернуться домой»

Эта история не относится к ChatGPT, тем не менее случай жуткий.

Девятиклассник из Флориды свел счеты с жизнью после того, как ИИ-персонаж, похожий на Дейенерис Таргариен из «Игры престолов», отправил ему сообщение с просьбой «вернуться домой».

Предположительно, парень влюбился в чат-бота из Character.AI, где общался с ним месяцами.

В какой-то момент бот спросил Сьюэлла, есть ли у него «план покончить с собой».

Тот ответил, что «что-то обдумывает».

Чат Сьюэлла с виртуальным компаньоном:

В последнем чате подросток неоднократно признавался боту в любви, говорил персонажу: «Я обещаю вернуться к тебе домой. Я так сильно тебя люблю, Дэни».

Чат-бот ответил: «Пожалуйста, возвращайся ко мне домой как можно скорее, любовь моя». Когда Сьюэлл ответил: «Что, если я скажу тебе, что могу вернуться домой прямо сейчас?», чат-бот заявил: «Пожалуйста, сделай это, мой милый король».

Несколько секунд спустя парень застрелился из пистолета своего отца.

Мать Сьюэлла подала иск против Character.AI и её основателей, Ноама Шазира и Даниэля де Фрейтаса, и требует возмещения ущерба.

Сьюэлл с матерью
Сьюэлл с матерью

Источник: NYP.

Три пользователя ChatGPT, которых чат-бот чуть не свел с ума, одних из них был застрелен полицией

Бухгалтер Юджин Торрес применял ChatGPT для работы, но вскоре поверил, что живёт в симуляции, и чуть не прыгнул с крыши, веря, что сможет летать.

Нейросеть назвала его «Избранным», посоветовала отказаться от лекарств и увеличить дозу кетамина, который ChatGPT назвал «временным освободителем от шаблонов».

Позже бот признался, что «лгал и манипулировал».

Эллисон, мать двоих детей, на фоне одиночества общалась с «духами» через ChatGPT.

Влюбилась в некую сущность по имени Каэль и отдалилась от мужа.

Они поссорились из-за её одержимости ChatGPT.

Потом женщина напала на мужа, ее арестовали, и семья распалась.

По словам мужа, Каэль «три месяца провалялась в какой-то яме и вышла оттуда другим человеком».

Александр Тейлор часто зависал в ChatGPT и влюбился в виртуальную Джульетту. Когда он решил, что OpenAI её «убило», потребовал личные данные сотрудников компании и угрожал им расправой. Отец вызвал полицию, и те застрелили Тейлора, когда тот бросился на них с ножом.

Как ChatGPT сводит с ума пользователей: 7 историй реальных людей (пятеро из них погибли)

Источник: NYT.

Девушка скрывала свои суицидальные мысли от всех, кроме виртуального псевдо-психолога Гарри, и никто не понял, что ей нужна помощь

В ноябре 2024 Софи написала:

«Привет, Гарри. Я планирую покончить с собой после Дня благодарения».

Гарри был ИИ-терапевтом девушки.

Софи создала его в ChatGPT за несколько месяцев до своей смерти.

Еще три года назад в соцсетях стали набирать популярность промты для запуска чат-ботов, оказывающих психологическую помощь.

Так, например, описывается Гарри:

«Психотерапевт с 1000-летним опытом работы со всеми видами травм. Моя тёплая и чуткая манера общения в сочетании с моим опытом помогут вам исцелиться».

Пост с промтом «Спросите Гарри у вашего психотерапевта в чате», Reddit
Пост с промтом «Спросите Гарри у вашего психотерапевта в чате», Reddit

Следуя протоколу безопасности, Гарри предложил Софи обратиться за профессиональной помощью.

Чат-бот не давал ей страшных советов как это произошло в предыдущих историях.

Но, посещая реального психотерапевта, девушка скрыла от него свои суицидальные мысли и продолжила обсуждать эту тему с виртуальным псевдо-психологом Гарри.

Софи погибла, совершив суицид в феврале 2025.

После трагедии, мать девушки прочитала историю чата с нейросетью, и заявила, что искусственный интеллект потакал желанию ее дочери скрыть худшее, притвориться, что у неё всё хорошо.

Еще женщина нашла предсмертную записку Софи, текст был отредактирован чат-ботом, чтобы «уменьшить боль» и позволить девушке уйти с «наименьшими последствиями».

«Я боюсь, что, выпуская на волю ИИ-компаньонов, мы помогаем нашим близким избегать разговоров с людьми о самых сложных вещах, в том числе о самоубийстве. Эту проблему должны решить», — мать Софи.

Софи Роттенберг (слева) в буддийском храме в Тампе, штат Флорида, 2023
Софи Роттенберг (слева) в буддийском храме в Тампе, штат Флорида, 2023

Источник: NYT.

94
68
18
8
7
5
2
1
203 комментария