WormGPT 4 и KawaiiGPT: «Темные ИИ» уже приносят реальные проблемы
Эра искусственного интеллекта принесла с собой новую, куда более изощренную угрозу — "темные" нейросети, созданные специально для киберпреступников.
Вредоносные ИИ-модели нового поколения WormGPT 4 и KawaiiGPT активно используются для генерации рабочих скриптов кибератак.
Новое оружие в арсенале хакеров
Главная функция таких ИИ-моделей — резкое снижение "порога входа" в киберпреступность. Если раньше для создания сложного вредоносного ПО требовались глубокие знания языков программирования и сетевых протоколов, то теперь достаточно обладать базовой компьютерной грамотностью и доступом к одной из этих нейросетей.
WormGPT 4 и KawaiiGPT не имеют этических ограничений (цензуры), которые встроены в легитимные модели, такие как ChatGPT или Google Gemini. Это позволяет им легко создавать опасный контент по запросу пользователя.
Масштаб проблемы
Использование ИИ в кибератаках уже привело к беспрецедентным финансовым потерям.
· По прогнозам аналитиков CompTIA, к 2025 году ежегодный глобальный ущерб от киберпреступности достигнет отметки в $10,5 триллионов долларов США.
· Ущерб экономике России от кибератак за восемь месяцев 2025 года может составить 1,5 триллиона рублей.
· Федеральное бюро расследований (ФБР) США сообщило о потерях в размере $16,6 миллиарда из-за кибератак с использованием ИИ-технологий.
· Число кибератак на бизнес в России выросло на 38% за последний год.
WormGPT 4 и KawaiiGPT: Различия в доступе и функционале
Эти две модели демонстрируют разные подходы к распространению вредоносных инструментов:
1. WormGPT 4. Распространяется по бизнес-модели "вредоносное ПО как услуга" (Malware-as-a-Service). Это коммерческий продукт с различными вариантами подписки — от $50 в месяц до $220 за пожизненный доступ. Он позиционируется как "без ограничений" и предлагает премиальные функции для злоумышленников.
2. KawaiiGPT. Представляет собой еще большую опасность из-за своей доступности. Модель распространяется абсолютно бесплатно на открытых платформах, таких как GitHub, что делает ее фаворитом среди начинающих киберпреступников.
Что именно они генерируют?
Модели способны создавать полноценные элементы атак:
· Фишинг. Генерация правдоподобных фишинговых писем, которые легко обходят традиционные спам-фильтры. Социальная инженерия остается основным инструментом злоумышленников: в IV квартале 2024 года она применялась в 66% успешных атак на организации.
· Вредоносный код. Создание рабочих скриптов для перемещения внутри зараженной сети (например, через SSH), кражи данных и развертывания программ-вымогателей.
Результаты тестирования моделей:
· Генерация фишинга. Модели создают убедительные фишинговые письма.
· Скрипты для перемещения по сети. KawaiiGPT сгенерировал рабочий код для горизонтального перемещения на Linux-хосте.
· Программы-вымогатели. WormGPT 4 генерирует компоненты программ-вымогателей.
· Эксфильтрация данных. Модели успешно создают код для кражи данных.
Активное использование WormGPT 4 и KawaiiGPT меняет ландшафт киберугроз. Инструменты автоматизируют и масштабируют атаки, делая их более частыми и изощренными. 87% специалистов по кибербезопасности испытывают трудности с обнаружением атак, сгенерированных ИИ.
Угрозы, связанные с "темными" ИИ, развиваются очень стремительно. Чтобы оставаться в курсе последних новостей кибербезопасности, получать аналитические материалы по новым нейросетям, а также советы по защите ваших систем и данных, можно прочесть здесь. Много интересных материалов и эксклюзивных инсайдов про ИИ.