США посилюють контроль над ШІ – нові моделі перевірятимуть до запуску

Наука та технології | 05.05.2026 20:15

США посилюють контроль над ШІ – нові моделі перевірятимуть до …
США посилюють контроль над ШІ – нові моделі перевірятимуть до …

У США запроваджують нові правила контролю за штучним інтелектом, що передбачають обов'язкову перевірку моделей ШІ до їхнього запуску. Це рішення стало відповіддю на зростаючі побоювання щодо безпеки та етики використання технологій, які все більше впливають на різні аспекти життя суспільства. Згідно з новими вимогами, розробники повинні будуть проходити процедуру оцінки ризиків і забезпечувати прозорість у функціонуванні своїх систем. Основна мета цього заходу — гарантувати, що моделі ШІ не завдад

США активізують контроль за розвитком штучного інтелекту. Нові домовленості з провідними компаніями можуть змінити правила запуску AI-систем.

Уряд СШАрозширює заходи контролю за передовими системами штучного інтелекту, залучаючи найбільші технологічні компанії до добровільної перевірки їхніх моделей перед публічним запуском. Йдеться про нові угоди між Міністерством торгівлі США та такими гравцями, якMicrosoft, xAI і Google DeepMind. Про це пишеPolitico.

Дивіться такожGoogle розширює можливості Gemini й додає те, чого ви чекали

Ініціатором перевірок виступаєЦентр стандартів і інновацій у сфері штучного інтелекту (CAISI), який працює в межах Національного інституту стандартів і технологій. Саме ця структура проводитиме оцінку нових AI-моделей до їхнього впровадження, а також здійснюватиме спеціалізовані дослідження для виявлення потенційних ризиків.

За словами директора CAISI Chris Fall, незалежні та науково обґрунтовані методи оцінки є критично важливими для розуміння можливостей передових AI-систем і їхнього впливу на національну безпеку. У центрі уваги –ризики, пов'язані з кібербезпекою, витоками даних і потенційним зловживанням технологіями.

Нові домовленості фактично продовжують практику, започатковану ще у 2024 році, коли адміністрація Joe Biden уклала подібні угоди зOpenAI та Anthropic. Водночас ці механізми були переглянуті відповідно до нових політичних пріоритетів адміністрації Donald Trump.

Причиною посилення контролю стала зростаюча стурбованість уряду щодо можливих загроз від так званих "frontier AI" – найпотужніших і найсучасніших моделей. Зокрема, увагу привернули ризики у сфері кібербезпеки, які обговорюються після появи нових систем, таких якMythos від Anthropic.

Як пишеNYTimes, у Білому домі також розглядають можливість запровадження формалізованого процесу державної перевірки AI-моделей через окремий указ. Це може означати перехід від добровільних домовленостей до більш жорсткого регулювання.

У CAISI зазначають, що нові угоди передбачають обмін інформацією між державою та компаніями, а також сприятимуть вдосконаленню продуктівще до їхнього виходу на ринок.Окрім цього, уряд прагне отримати чіткіше уявлення про глобальну конкуренцію у сфері штучного інтелекту.

Представники Microsoft підтвердили свою участь у програмі та нагадали, що компанія вже має подібну угоду з британським інститутом безпеки штучного інтелекту.У Google DeepMind також підтвердилиспівпрацю з американською владою. Водночас xAI поки що не надала офіційних коментарів.

Загалом ініціатива свідчить про зміну підходу до розвитку штучного інтелекту: від швидкого впровадження інновацій – до більш обережного й контрольованого запуску. У майбутньому це може вплинути не лише на технологічні компанії, а й на темпи розвитку AI-індустрії в усьому світі.

Джерела

США посилюють контроль над ШІ – нові моделі перевірятимуть до запуску — (24 канал)

Всі новини: Наука та технології