Американец попал в психушку после совета ChatGPT заменить соль на бромид натрия

Сперва мужчина думал, что его травит сосед, но оказалось, что это делает он сам.

Американец попал в психушку после совета ChatGPT заменить соль на бромид натрия

Врачи из Вашингтонского университета описали уникальный случай психоза, вызванного отравлением. Мужчина заболел после того, как в течение трёх месяцев соблюдал диету, которую ему порекомендовал чат-бот ChatGPT. Об этом рассказали в издании Gizmodo.

Согласно отчёту медиков, 60-летний мужчина поступил в отделение неотложной помощи с жалобами на возможное отравление со стороны соседа. У пациента наблюдались паранойя, зрительные и слуховые галлюцинации.

Состояние мужчины быстро ухудшалось, он стал отказываться от воды, пытался сбежать и в конечном итоге пережил полноценный психотический эпизод. Врачи смогли стабилизировать состояние мужчины, а после назначили ему курс принудительного лечения,

Когда пациент смог связно говорить, он рассказал, что начал принимать бромид натрия три месяца назад по совету чат-бота. Мужчина, ранее изучавший нутрициологию в колледже, решил исключить хлорид из своего рациона, посчитав его вредным.

Изучив информацию, он спросил у ChatGPT, чем можно заменить хлорид. ИИ ответил, что его можно безопасно заменить бромидом, после чего мужчина начал принимать бромид натрия, купленный онлайн.

Американец попал в психушку после совета ChatGPT заменить соль на бромид натрия

Мужчина прошёл лечение антипсихотическими препаратами, после чего его состояние пришло в норму. Его выписали из больницы через три недели, а на повторном осмотре спустя ещё две недели врачи подтвердили, что он стабилен.

Врачи, основываясь на хронологии случая, предположили, что пациент, скорее всего, использовал версию ChatGPT 3.5 или 4.0. Хотя у них не было доступа к логам переписки, они сами задали ChatGPT 3.5 аналогичный вопрос о замене хлорида. ИИ предложил несколько вариантов, включая бромид.

Медики отметили, что ответ ИИ содержал упоминание о важности контекста, но при этом не предупреждал о токсичности бромида и не уточнял, для какой цели нужна эта информация.

В заключение врачи написали, что хотя такие инструменты, как ChatGPT, и могут помогать людям знакомиться с научными данными, они несут риск распространения неверной информации, вырванной из контекста. По мнению медиков, ни один квалифицированный специалист не посоветовал бы человеку, который следит за потреблением соли, заменять её бромидом.

595
91
49
20
7
7
6
1
1
1
1
1
1
1
1
734 комментария