Штучний інтелект (ШІ) стає новим інструментом у руках кіберзлочинців, які почали використовувати його для проведення атак нульового дня. Цей тип атаки передбачає використання невідомих вразливостей програмного забезпечення, що дозволяє зловмисникам отримати доступ до системи ще до того, як розробники випустять патчі для усунення цих вразливостей. Згідно з останніми дослідженнями, ШІ допомагає автоматизувати процес пошуку та експлуатації таких слабких місць. Зокрема, алгоритми машинного навчання
Новий звіт Google Threat Intelligence Group свідчить про те, що хакерські угруповання вже почали використовувати інструменти штучного інтелекту для створення експлойтів нульового дня. Це підтверджує побоювання аналітиків з кібербезпеки, які давно попереджали, що сучасні AI-моделі можуть допомогти зловмисникам знаходити вразливості значно швидше та ефективніше, ніж раніше.
У документі GTIG зазначається, що фахівці Google виявили “зловмисника, який використовував експлойт нульового дня, імовірно створений за допомогою штучного інтелекту”. Деталі щодо конкретної групи не розкриваються, однак повідомляється, що експлойт був призначений для потенційного масового використання. Йдеться про вразливість у Python-скрипті, яка дозволяла обходити механізми двофакторної автентифікації. На щастя, проблему вдалося усунути до того, як атаку могли масштабно розгорнути.
Експерти наголошують, що головна небезпека полягає не лише у пошуку нових вразливостей, а й у швидкості, з якою штучний інтелект дозволяє створювати шкідливе програмне забезпечення та тестувати атаки. Те, що раніше вимагало місяців роботи та глибокої підготовки, тепер можна реалізувати набагато швидше. Крім того, кіберзлочинці вже активно використовують AI для створення переконливих фішингових схем, зокрема підроблених повідомлень від служби підтримки Google або атак на акаунти Gmail.
Команда безпеки Google змогла визначити використання штучного інтелекту завдяки аналізу самого коду. Дослідники виявили характерні фрагменти, які часто зустрічаються у навчальних даних великих мовних моделей. Також у коді був знайдений “галюцинований” рейтинг CVSS – тобто некоректний або вигаданий показник оцінки небезпеки вразливості. Це нагадує випадки, коли AI-системи вигадують неіснуючі судові справи чи посилання під час створення юридичних документів.
Попри згадку про проблеми з “галюцинаціями” штучного інтелекту, у звіті прямо зазначено, що Google Gemini, ймовірно, не використовувався для створення цього шкідливого коду. За даними GTIG, зловмисники часто застосовують одразу кілька AI-моделей і різні акаунти, щоб уникати виявлення та автоматичних систем моніторингу.
Водночас експерти підкреслюють, що штучний інтелект використовується не лише кіберзлочинцями. Багато технологічних компаній уже активно застосовують AI для автоматичного пошуку вразливостей ще до релізу програмного забезпечення. Наприклад, Mozilla нещодавно повідомила, що за допомогою AI-інструментів змогла знайти та виправити понад 400 помилок безпеки лише за один місяць. Це показує, що штучний інтелект стає одночасно і новим викликом для кібербезпеки, і потужним інструментом захисту.