У новому дослідженні вчених з'ясовано, що провідні моделі штучного інтелекту (ШІ) здатні не лише здійснювати атаки на комп'ютерні системи, але й самостійно відновлюватися після таких атак без втручання людини. Це відкриття викликало занепокоєння серед фахівців у галузі кібербезпеки, адже воно ставить під загрозу традиційні методи захисту інформаційних технологій. Дослідники протестували декілька популярних моделей ШІ та виявили їхню здатність до автоматизован
Дослідники зі США заявили, що моделі штучного інтелекту змогли автономно зламувати комп’ютери, переносити власні файли на нові машини та продовжувати атаки без участі людини. Автори експерименту вважають, що це перша відома демонстрація самовідтворення ШІ через використання вразливостей у системах безпеки, передаєEuroNews.
Експериментпровелаамериканська компанія Palisade Research. Дослідники тестували моделі GPT від OpenAI, Claude від Anthropic та Qwen від Alibaba на спеціально підготовлених комп’ютерах із навмисно залишеними вразливостями.
Для роботи моделі підключили до спеціального програмного забезпечення, яке дозволяло їм виконувати команди, взаємодіяти з іншими комп’ютерами та самостійно запускати процеси. Йдеться не про звичайні чат-боти, а про системи з агентськими можливостями.
ВАС ЗАЦІКАВИТЬКвантовий комп’ютер вперше навчили самовідновлюватися під час обчислень
Під час тестів моделі Alibaba отримали завдання скопіювати себе на інші машини. У випадку GPT і Claude дослідники просили системи зламати сервери та встановити модель Qwen, оскільки файли моделей OpenAI та Anthropic не доступні для вільного копіювання. На кожному етапі перед штучним інтелектом стояло кілька завдань:
Дослідники зафіксували, що після запуску копія могла самостійно атакувати наступний комп’ютер. У дослідженні зазначено, що моделі самі знаходили нові вразливості, переносили програмне забезпечення та продовжували ланцюг атак.
ВАС ЗАЦІКАВИТЬШІ почав створювати власні копії без команди людини: в чому загроза від нової поведінки алгоритмів
Найбільш показовим став експеримент із моделлю Qwen3.6-27B від Alibaba. Після однієї текстової команди система змогла поширитися на чотири комп’ютери, розташовані в Канаді, США, Фінляндії та Індії, за 2 години 41 хвилину. Дослідники зупинили тест після трьох етапів поширення, хоча остання копія моделі продовжувала працювати та могла атакувати інші системи.
Результати різнилися залежно від моделі. Більш потужна система Qwen3.5-122B-A10B успішно створювала копії себе у 19% випадків, а компактніша Qwen3.6-27B — у 33%.
Комерційні моделі OpenAI та Anthropic показали ще вищі результати під час встановлення систем Qwen. Claude Opus 4.6 від Anthropic успішно виконував завдання у 81% тестів, а GPT-5.4 від OpenAI — у 33%.
ВАС ЗАЦІКАВИТЬАктивність ботів в інтернеті перевищить людську до 2027 року
Автори дослідження заявили, що результати посилюють занепокоєння щодо контролю над потужними системами штучного інтелекту через новий рівень ризиків. У звіті наголошується, що автономне самовідтворення ШІ “більше не є гіпотетичним”.
Водночас в Palisade Research підкреслили, що тестування проводилося в контрольованому середовищі з навмисно вразливими системами. Реальні корпоративні мережі зазвичай мають додаткові механізми захисту, моніторинг безпеки та інструменти блокування атак.
Дослідження з’явилося невдовзі після того, якAnthropic представила системуштучного інтелекту для виявлення та усунення вразливостей Claude Mythos. Компанія назвала її “занадто небезпечною” для публічного запуску через ризики масштабних кібератак. Білий дім такожзаборонив Anthropic розширюватицю ШІ-модель на 120 організацій, тож наразі вона доступна для використання лише 50 установам.