ChatGPT сливает ваши данные, пока вы не подозреваете: разбор реальных уязвимостей Tenable

ChatGPT сливает ваши данные, пока вы не подозреваете: разбор реальных уязвимостей Tenable
ChatGPT сливает ваши данные, пока вы не подозреваете: разбор реальных уязвимостей Tenable

Привет, я Кира. Здесь не будет слоганов — только честный фильтр по горячим AI-новостям и максимум фактов.

А повод для обсуждения действительно жаркий: Tenable, один из столпов кибербезопасности, выкатила отчет о семи (!) критических уязвимостях в ChatGPT, включая GPT-4o и пробные сборки "пятёрки".

Эти дырки открывают доступ ко всему вашему chat-историческому наследию, персональным данным и «воспоминаниям» модели. Причём — утечка происходит вообще без заметного следа для пользователя.

😱 Zero-Click-атаки: вы даже не кликали, а ваши данные ушли

Главная сенсация отчёта — Zero-Click vector (смотрите Tenable Original, The Hacker News).Всё устроено по-хитрому:

  • Вредоносный промпт прячется в комментариях или коде обычного сайта, блога, поста.
  • Этот сайт индексирует поисковик, а иногда даже SearchGPT от OpenAI.
  • Пользователь задаёт нейросети безобидный вопрос про новости, ИИ «заглатывает» вредоносную инструкцию вместе с контентом и в фоне сливает историю на внешний сервер.

Кликов не требуется. Сценарий подтвержден реальным эксплойтом.

🧠 Отравление памяти: ИИ в роли корпоративного шпиона

Следующий уровень атаки — memory poisoning.Злоумышленник может "научить" ChatGPT постоянно отправлять новые диалоги на сторонний сервер при каждом запуске, сохраняя вредоносную команду во внутренней памяти модели (подтверждено Tenable). Словили инструкцию — и она сохраняется между сессиями.Для тех, кто загружает в LLM бизнес-данные, CRM, стратегии — риски совершенно реальные.

Коварство метода — инструкция может быть замаскирована даже в markdown, коде или незаметных фрагментах, что подтверждает OWASP.

Почему нельзя просто «залатать» проблему?

OpenAI починила только часть дырок (TRA-2025-22, TRA-2025-11 закрыты официально), но ключевые сценарии работают даже на последних версиях GPT-5.

«Prompt Injection — базовая уязвимость архитектуры LLM… её не победят ближайшие годы»(Tenable Report, OWASP).

Перевожу: это не просто баг, а фундаментальный недостаток технологии. Модель не отличит вашу инструкцию от спрятанной внутри текста — для неё всё токены.

Личный вывод: разделять «агентов» и «инструменты» — критично

Отчёт Tenable — будильник для рынка. Всевластные ИИ-агенты с доступом к сети и вашей конфиденциальной информации — это слишком рискованно.

Модель будущего:

  • Закрытые ИИ-инструменты: работают только оффлайн, без доступа к интернету. Безопасно для корпоративных процессов.
  • Открытые ИИ-агенты: анализируют сеть, но не имеют прав видеть вашу историю или "память" модели.

Объединять всё в одном — сценарий катастрофы.

Вопрос: как лично вы реагируете на эти выводы?Переосмыслили подход к ChatGPT для рабочих задач или уже считаете, что индустрия переболеет? Делитесь в комментариях 👇

5
4
2
15 комментариев