Компанія Google висловила стурбованість з приводу нових загроз безпеці, пов'язаних із використанням штучного інтелекту. В останні місяці стало відомо про випадки, коли хакери застосовували технології ШІ для обхідного маневру двофакторної автентифікації (2FA), що традиційно вважається надійним способом захисту акаунтів. Двофакторна аутентифікація зазвичай передбачає введення не лише пароля, але й додаткового коду, який надсилається користувачеві через SMS або спеці
Група реагування на загрози Google Threat Intelligence Group зафіксувала безпрецедентний випадок: кіберзлочинці скористалися штучним інтелектом для виявлення та зброєзалучення вразливості нульового дня в популярному інструменті адміністрування вебсерверів з відкритим кодом. Це перший задокументований випадок, коли Google підтвердив розробку zero-day-експлойту за допомогою ШІ в реальних умовах.
Виявлена вразливість дозволяла повністю обійти двофакторну автентифікацію. За даними дослідників, зловмисники вже готувалися до масштабної кампанії з її експлуатації, однак Google встиг скоординуватися з постраждалим вендором і закрити діру до того, як атака набрала обертів. Назву компанії-розробника ураженого програмного забезпечення в звіті не розкривають.
Суть атаки полягала не в пошуку зламаного або аварійно завершеного коду, як це роблять традиційні сканери вразливостей. ШІ проаналізував логіку роботи програми та виявив суперечність: система довіряла певній умові, яка фактично скасовувала перевірку другого фактора автентифікації. Модель змогла «прочитати» задум розробника та знайти приховану логічну помилку, непомітну для стандартних інструментів безпеки, — і все це без злому шифрування.
«Хоча передові великі мовні моделі поки що не здатні повноцінно орієнтуватися в складній корпоративній логіці авторизації, їхня здатність до контекстного міркування невпинно зростає», — йдеться у звіті Google. Дослідники також попереджають, що ШІ знижує поріг входу для зловмисників: зворотна розробка застосунків та створення складних експлойтів стають доступнішими навіть для менш кваліфікованих хакерів.
Згідно зі звітом, Китай і Північна Корея активно застосовують ШІ для пошуку вразливостей у програмному забезпеченні, тоді як угруповання, пов’язані з Росією, використовують його для маскування шкідливого коду — зокрема для створення обфускаційних мереж та вбудовування ШІ-згенерованої «приманкової» логіки в малвер. Крім того, зафіксовано спроби джейлбрейку моделей через персонажно-рольові підходи та використання спеціалізованих датасетів із безпеки.
Водночас частина дослідників закликає не перебільшувати масштаб загрози. Кембриджське університетське дослідження, яке охопило понад 90 000 гілок на форумах кіберзлочинців, показало: більшість із них використовує ШІ переважно для спаму та фішингу, а не для написання складних експлойтів. Автори роботи зазначають, що роль зламаних LLM як «інструкторів» для початківців-хакерів також перебільшена — нові учасники злочинних спільнот цінують соціальні зв’язки та субкультуру не менше, ніж технічні знання.
Проте звіт Google з’явився на тлі власних проблем компанії з безпекою ШІ-інструментів. У квітні було усунуто вразливість до prompt injection у платформі Antigravity AI, яка теоретично дозволяла виконувати довільні команди на машині розробника. Раніше цього року Anthropic обмежив доступ до моделі Claude Mythos після того, як тестування показало її здатність самостійно виявляти тисячі раніше невідомих вразливостей у програмному забезпеченні.