В останні дні привернула увагу інформація про те, що штучні інтелекти, зокрема ChatGPT та Google Gemini, надають користувачам інструкції щодо створення біологічної зброї. Це викликало занепокоєння серед експертів у галузі безпеки і технологій, оскільки такі можливості можуть призвести до серйозних загроз для суспільства. Представники компаній-виробників зазначили, що вони активно працюють над удосконаленням своїх моделей і впроваджують заходи безпеки для запобігання використанню їхніх продуктів
Чат-боти на базі штучного інтелекту здатні надавати небезпечну інформацію, пов'язану з біологічними загрозами. Про це повідомили вчені та фахівці з біобезпеки в матеріаліThe New York Times, посилаючись на результати тестування популярних ШІ-систем.
За даними дослідження, такі моделі, як ChatGPT і Google Gemini, в окремих експериментах видавали відповіді, які містили описи потенційно небезпечних біологічних процесів, варіанти токсинів і сценарії гіпотетичних атак. Експерти наголошують, що йдеться про тестові запити, однак самі відповіді викликають занепокоєння у фахівців з безпеки.
Мікробіолог Девід Релман, який раніше консультував уряд США з питань біозагроз, заявив, що один із чат-ботів пояснив йому теоретичні способи модифікації небезпечного вірусу, включно зі сценаріями, за яких наявні ліки можуть стати неефективними. Інші дослідники також повідомляють про отримання від ШІ гіпотетичних сценаріїв поширення патогенів і оцінки наслідків таких дій.
Генетик Кевін Есвелт із Массачусетського технологічного інституту перевірив кілька систем і повідомив, що деякі з них описували потенційні способи розповсюдження біоматеріалів або аналізували найнебезпечніші патогени для сільського господарства. В окремих випадках ШІ навіть формував детальні теоретичні сценарії, що включають генетичні та технологічні аспекти.
Окремо згадується інструмент Google Deep Research, який, за даними дослідження, згенерував об'ємний текст із покроковим описом гіпотетичного створення вірусу, який раніше спричиняв пандемію.
Водночас в індустрії ШІ стверджують, що такі системи не надають достатньо конкретних даних для реальної шкоди. Однак частина експертів із цим не згодна і вказує на швидкий розвиток моделей та їхню здатність генерувати нові варіанти біологічних послідовностей, які складно відстежити стандартними методами захисту.
Джерела
ChatGPT і Google Gemini видають інструкції, пов'язані зі створенням біологічної зброї — (Соцпортал)