Эпоха Адаптивных Угроз: Когда вредоносный код пишет себя сам
На основе недавнего анализа широкого спектра угроз специалисты по анализу угроз из Google (GTIG) выявили тревожный сдвиг. За последний год злоумышленники перестали использовать искусственный интеллект просто для повышения эффективности. Теперь они активно внедряют новые, вредоносные программы с поддержкой ИИ в свои операции. ИИ становится не просто инструментом, а частью самой атаки.
Ключевые Тренды в Эволюции Киберугроз с ИИ
Ключевые выводы, сделанные GTIG, указывают на четыре основных направления, по которым развивается злоумышленная активность:
1. Первое «Just-in-Time» Вредоносное ПО (ВПО) с ИИ: GTIG впервые обнаружила семейства вредоносного ПО, такие как PROMPTFLUX и PROMPTSTEAL, которые используют большие языковые модели (LLM) во время исполнения (Just-in-Time). Эти инструменты не имеют жёстко закодированных функций; они:
- Динамически генерируют вредоносные скрипты.
- Обфусцируют собственный код, чтобы избежать обнаружения.
- Привлекают модели ИИ для создания вредоносных функций по требованию. Это ранний, но значительный шаг к созданию более автономного и адаптивного ВПО.
2. Социальная Инженерия для Обхода Защиты ИИ: Злоумышленники освоили приёмы социальной инженерии для формулирования запросов, которые обходят защитные барьеры ИИ. Наблюдались случаи, когда атакующие выдавали себя за студентов на CTF-соревнованиях или исследователей кибербезопасности, чтобы убедить, например, Gemini предоставить информацию, которая обычно блокируется. Это существенно облегчает разработку вредоносных инструментов.
3. Зрелый Подпольный Рынок Инструментов ИИ: Подпольный рынок нелегитимных AI-инструментов в 2025 году стал гораздо более зрелым. Появились многочисленные предложения многофункциональных инструментов, специально разработанных для:
- Фишинга.
- Разработки вредоносного ПО.
- Поиска уязвимостей. Это значительно снижает барьер входа для менее опытных кибератакующих.
4. Использование ИИ Государственными APT-группами: Спонсируемые государствами APT-группы(включая группы из Северной Кореи, Ирана и КНР) продолжают активно злоупотреблять LLM (таких как Gemini) для усиления всех этапов своих операций: от разведки и создания фишинговых приманок до разработки систем командования и управления и эксфильтрации данных.
Примеры Вредоносного ПО, Созданного или Усиленного ИИ
Ниже представлены примеры ВПО, иллюстрирующие этот новый подход:
Станьте Частью Решения: Обучение в Эпоху ИИ-Угроз
Поскольку злоумышленники активно используют ИИ для создания автономных и адаптивных угроз, традиционные методы защиты уже недостаточны. Сегодняшнему специалисту по кибербезопасности необходимо мыслить и действовать как противник, который вооружён самыми современными технологиями.
Пришло время вооружиться знаниями, чтобы защитить будущее.
Если вы хотите не просто отражать атаки, но и понимать механизмы работы нового поколения ИИ-вредоносов:
-
Начните с основ: Получите фундаментальные навыки этичного хакинга, необходимые для понимания логики атаки, пройдя курс EC-Council Certified Ethical Hacker (CEH v13).
-
Выходите на профессиональный уровень: Освойте продвинутое пентестирование и научитесь противостоять сложным, в том числе автоматизированным и ИИ-усиленным, угрозам с помощью сертификации Certified Penetration Testing Professional (CPENT AI).
+7 (700) 870-07-77
university@dtu.kz



