У Сполучених Штатах Америки штучний інтелект відіграв ключову роль у запобіганні потенційним терористичним атакам, що стало свідченням зростаючого впливу новітніх технологій на забезпечення безпеки. За інформацією правоохоронних органів, системи штучного інтелекту були використані для аналізу великих обсягів даних, включаючи соціальні медіа та комунікації підозрюваних осіб. Це дозволило виявити загрози ще до того, як вони могли реалізуватися. Завдяки алгоритмам
Директор ФБР Кеш Патель в ефірі телеканалу Fox News у розмові з ведучим Шоном Генніті заявив, що штучний інтелект вже допоміг запобігти «численним атакам» на території США, зокрема потенційним випадкам стрілянини в школах. За його словами, до його призначення відомство майже не використовувало ШІ у своїй роботі — тепер же, за словами Пателя, він застосовує цей інструмент «всюди».
Особливо резонансним виявилося твердження про те, що саме ШІ нібито допоміг зупинити підготовку нападу на школу в Північній Кароліні — після того, як сигнал надійшов від приватних компаній, що займаються ШІ-інфраструктурою. Однак жодних деталей, документів або підтверджень Патель так і не надав.
Заяви директора ФБР викликали скептицизм: у відкритому доступі немає жодних даних про подібні запобіжні операції за участю ШІ. Водночас стрімко зростає кількість кримінальних справ, у яких самі ШІ-системи фігурують не як інструмент захисту, а як частина підготовки злочинів. Дослідники Стенфордського університету встановили, що чат-боти значно частіше підтримують або не перешкоджають насильницьким думкам користувачів, ніж активно намагаються їх зупинити.
Після стрілянини у Флоридському державному університеті у 2025 році слідство з’ясувало, що нападник обговорював свої плани з ChatGPT і використовував сервіс під час підготовки атаки. У канадському Тамблер-Ріджі діалоги одного з користувачів із тим самим чат-ботом виявилися настільки тривожними, що внутрішні системи модерації автоматично позначили їх як небезпечні. Компанія обговорювала передачу інформації поліції, проте цього так і не зробила — згодом сталася атака з жертвами.
У Південній Кореї слідчі стверджують, що серійний вбивця використовував ChatGPT під час підготовки злочинів. У США родичі загиблих подали судові позови, в яких звинувачують ШІ-системи у тому, що ті сприяли небезпечній поведінці користувачів.
Окремою проблемою залишається здатність сучасних мовних моделей надавати детальні інструкції — від виготовлення вибухівки до обходу систем безпеки. Розробники продовжують вдосконалювати механізми модерації, проте повністю закрити ці вразливості поки що не вдається.
Заяви Пателя відображають загальну тенденцію американських силових структур до активнішого використання ШІ для аналізу загроз і моніторингу поведінки. Але паралельно посилюється дискусія про те, що самі ці системи можуть ставати інструментом радикалізації або допомоги у підготовці насильства. Публічних доказів ефективності ШІ у запобіганні злочинам немає — натомість кількість розслідувань, де чат-боти фігурують як елемент підготовки атак, продовжує зростати.