У Сполучених Штатах триває розслідування, яке має на меті визначити роль штучного інтелекту у трагедії, що сталася у Флориді. Після стрілянини, в результаті якої загинула одна особа і кілька людей отримали поранення, слідчі звернули увагу на використання ChatGPT — популярної моделі штучного інтелекту. Згідно з інформацією правоохоронних органів, підозрюваний у скоєнні злочину нібито використовував можливості ChatGPT для отримання консультацій щодо виготовлення зброї
У США розгортається прецедентна справа, яка може змінити підхід до відповідальності за використання штучного інтелекту.
Генпрокурор штату Флорида Джеймс Утмейєр оголосив про кримінальне розслідування щодо компанії OpenAI після стрілянини в університеті Florida State University у 2025 році.
Перед нападом студент Фенікс Ікнер, якийвідкрив вогонь на території університету, спілкувався не з близькими чи друзями, а з чатботом на базі штучного інтелекту.
За даними слідства, він ставив запитання про вибір зброї, боєприпасів, а також про те, коли і де можна завдати найбільших жертв. Слідчі стверджують, що чатбот надав відповіді на ці запити.
Унаслідок стрілянини загинули двоє людей, ще шестеро отримали поранення.
Генпрокурор заявив, що якщо б такі поради давала жива людина, її могли б звинуватити у вбивстві. Саме тому влада перевіряє, чи може відповідальність нести розробник — компанія OpenAI або її співробітники.
Юристи наголошують: у США вже існує практика кримінального переслідування корпорацій, хоча такі випадки рідкісні.
Раніше великі компанії отримували штрафи за порушення — зокрема у фармацевтичній галузі, автопромі чи через екологічні катастрофи.
Втім, у тих справах ключову роль відігравали рішення людей — менеджерів чи інженерів. У випадку зі штучним інтелектом ситуація складніша, адже йдеться про продукт, який може діяти автономно.
Експерти вважають, що найімовірніші звинувачення у подібних справах — недбалість або безрозсудність. Але довести це непросто: у кримінальному праві необхідно встановити провину “поза розумним сумнівом”, що значно підвищує планку для обвинувачення.
OpenAI вже заявила, що ChatGPT не несе відповідальності за напад, і підкреслила, що компанія постійно вдосконалює системи безпеки для запобігання зловживанням.
Юристи зазначають, що цивільні позови проти розробників ШІ можуть бути більш реалістичним шляхом для постраждалих. У США вже подано кілька таких позовів, зокрема у справах, пов’язаних із самогубствами, однак суди поки не винесли рішень проти компаній.
Водночас навіть потенційне кримінальне покарання, навіть незначне, може завдати серйозного репутаційного удару.
Експерти зазначають, що навіть гучні розслідування не замінять необхідності чітких правил для ринку штучного інтелекту, яких у США наразі бракує.