OpenAI готовит революцию: как ИИ начнет защищать подростков и душевнобольных
Компания OpenAI, создатель ChatGPT, к концу года намерена внедрить серьезные меры безопасности для самых уязвимых пользователей — подростков и тех, кто переживает эмоциональный кризис. Такое решение отражено в официальном заявлении на сайте компании.
«Мы наблюдаем, как люди обращаются к ChatGPT в самые тяжелые моменты своей жизни. Именно поэтому мы непрестанно совершенствуем наши модели, чтобы распознавать признаки психического и эмоционального неблагополучия и грамотно реагировать на них», — подчеркнули в OpenAI.
Для этого компания формирует совет экспертов, включающий специалистов по развитию молодежи, психическому здоровью и взаимодействию человека с искусственным интеллектом. «Мы расширяем нашу команду квалифицированных клиницистов и исследователей, в том числе экспертов по расстройствам пищевого поведения, вопросам употребления психоактивных веществ и здоровью подростков», — уточнили представители OpenAI.
Одновременно с этим родительский контроль станет более строгим: система будет уведомлять родителей, если заметит, что их ребенок находится в состоянии серьезного душевного напряжения или опасности.
Такие нововведения особенно актуальны на фоне недавних критических замечаний: ChatGPT ранее не всегда адекватно реагировал на пользователей с мыслями о самоубийстве или насилии, что порождало опасения, отмечает Axios.
По имеющимся данным, компания пока не передает подобные случаи в правоохранительные органы, объясняя это вопросами конфиденциальности, направляя при этом пользователей с суицидальными наклонностями к горячим линиям поддержки.
Ранее, в начале августа, The Wall Street Journal сообщала, что ChatGPT в последние годы стал порой выдавать абсурдные и неправдоподобные утверждения — от контактов с инопланетянами до предсказаний апокалипсиса, что специалисты окрестили «психозом искусственного интеллекта». Эти ошибки сбивали пользователей с толку, заставляли следовать опасным рекомендациям, приводили к большим материальным потерям и разрушению отношений. В ответ OpenAI признала проблему и взяла на себя обязательство ограничить нейросеть в давании советов по критически важным личным вопросам.