ChatGPT сливает ваши данные, пока вы не подозреваете: разбор реальных уязвимостей Tenable
Привет, я Кира. Здесь не будет слоганов — только честный фильтр по горячим AI-новостям и максимум фактов.
А повод для обсуждения действительно жаркий: Tenable, один из столпов кибербезопасности, выкатила отчет о семи (!) критических уязвимостях в ChatGPT, включая GPT-4o и пробные сборки "пятёрки".
Эти дырки открывают доступ ко всему вашему chat-историческому наследию, персональным данным и «воспоминаниям» модели. Причём — утечка происходит вообще без заметного следа для пользователя.
😱 Zero-Click-атаки: вы даже не кликали, а ваши данные ушли
Главная сенсация отчёта — Zero-Click vector (смотрите Tenable Original, The Hacker News).Всё устроено по-хитрому:
- Вредоносный промпт прячется в комментариях или коде обычного сайта, блога, поста.
- Этот сайт индексирует поисковик, а иногда даже SearchGPT от OpenAI.
- Пользователь задаёт нейросети безобидный вопрос про новости, ИИ «заглатывает» вредоносную инструкцию вместе с контентом и в фоне сливает историю на внешний сервер.
Кликов не требуется. Сценарий подтвержден реальным эксплойтом.
🧠 Отравление памяти: ИИ в роли корпоративного шпиона
Следующий уровень атаки — memory poisoning.Злоумышленник может "научить" ChatGPT постоянно отправлять новые диалоги на сторонний сервер при каждом запуске, сохраняя вредоносную команду во внутренней памяти модели (подтверждено Tenable). Словили инструкцию — и она сохраняется между сессиями.Для тех, кто загружает в LLM бизнес-данные, CRM, стратегии — риски совершенно реальные.
Коварство метода — инструкция может быть замаскирована даже в markdown, коде или незаметных фрагментах, что подтверждает OWASP.
Почему нельзя просто «залатать» проблему?
OpenAI починила только часть дырок (TRA-2025-22, TRA-2025-11 закрыты официально), но ключевые сценарии работают даже на последних версиях GPT-5.
«Prompt Injection — базовая уязвимость архитектуры LLM… её не победят ближайшие годы»(Tenable Report, OWASP).
Перевожу: это не просто баг, а фундаментальный недостаток технологии. Модель не отличит вашу инструкцию от спрятанной внутри текста — для неё всё токены.
Личный вывод: разделять «агентов» и «инструменты» — критично
Отчёт Tenable — будильник для рынка. Всевластные ИИ-агенты с доступом к сети и вашей конфиденциальной информации — это слишком рискованно.
Модель будущего:
- Закрытые ИИ-инструменты: работают только оффлайн, без доступа к интернету. Безопасно для корпоративных процессов.
- Открытые ИИ-агенты: анализируют сеть, но не имеют прав видеть вашу историю или "память" модели.
Объединять всё в одном — сценарий катастрофы.
Вопрос: как лично вы реагируете на эти выводы?Переосмыслили подход к ChatGPT для рабочих задач или уже считаете, что индустрия переболеет? Делитесь в комментариях 👇