BETA — Сайт у режимі бета-тестування. Можливі помилки та зміни.
UK | EN |
LIVE
Технології 🇺🇦 Україна

США посилюють контроль над ШІ – нові моделі перевірятимуть до запуску

Технології 24 24 Канал 0 переглядів 3 хв читання
США посилюють контроль над ШІ – нові моделі перевірятимуть до запуску
Техно Інновації США посилюють контроль над ШІ – нові моделі перевірятимуть до запуску 5 травня, 20:00view counttime for reading3 хвЗберегтиСША посилюють контроль над ШІ – нові моделі перевірятимуть до запуску Артур ЗайонцОсновні тези
  • США посилюють контроль над системами штучного інтелекту, запроваджуючи добровільну перевірку моделей перед їх запуском за участі компаній, таких як Microsoft, xAI і Google DeepMind.
  • Центр стандартів і інновацій у сфері штучного інтелекту (CAISI) оцінюватиме нові AI-моделі для виявлення потенційних ризиків, зокрема у сфері кібербезпеки та зловживання технологіями.
Нові правила для штучного інтелекту – Вашингтон бере під контроль передові моделіНові правила для штучного інтелекту – Вашингтон бере під контроль передові моделі / Esa Automation

США активізують контроль за розвитком штучного інтелекту. Нові домовленості з провідними компаніями можуть змінити правила запуску AI-систем.

Уряд США розширює заходи контролю за передовими системами штучного інтелекту, залучаючи найбільші технологічні компанії до добровільної перевірки їхніх моделей перед публічним запуском. Йдеться про нові угоди між Міністерством торгівлі США та такими гравцями, як Microsoft, xAI і Google DeepMind. Про це пише Politico.

Дивіться також Google розширює можливості Gemini й додає те, чого ви чекали

Навіщо уряд США перевіряє AI до запуску?

Ініціатором перевірок виступає Центр стандартів і інновацій у сфері штучного інтелекту (CAISI), який працює в межах Національного інституту стандартів і технологій. Саме ця структура проводитиме оцінку нових AI-моделей до їхнього впровадження, а також здійснюватиме спеціалізовані дослідження для виявлення потенційних ризиків.

За словами директора CAISI Chris Fall, незалежні та науково обґрунтовані методи оцінки є критично важливими для розуміння можливостей передових AI-систем і їхнього впливу на національну безпеку. У центрі уваги – ризики, пов'язані з кібербезпекою, витоками даних і потенційним зловживанням технологіями.

Нові домовленості фактично продовжують практику, започатковану ще у 2024 році, коли адміністрація Joe Biden уклала подібні угоди з OpenAI та Anthropic. Водночас ці механізми були переглянуті відповідно до нових політичних пріоритетів адміністрації Donald Trump.

Причиною посилення контролю стала зростаюча стурбованість уряду щодо можливих загроз від так званих "frontier AI" – найпотужніших і найсучасніших моделей. Зокрема, увагу привернули ризики у сфері кібербезпеки, які обговорюються після появи нових систем, таких як Mythos від Anthropic.

Як пише NYTimes, у Білому домі також розглядають можливість запровадження формалізованого процесу державної перевірки AI-моделей через окремий указ. Це може означати перехід від добровільних домовленостей до більш жорсткого регулювання.

У CAISI зазначають, що нові угоди передбачають обмін інформацією між державою та компаніями, а також сприятимуть вдосконаленню продуктів ще до їхнього виходу на ринок. Окрім цього, уряд прагне отримати чіткіше уявлення про глобальну конкуренцію у сфері штучного інтелекту.

Представники Microsoft підтвердили свою участь у програмі та нагадали, що компанія вже має подібну угоду з британським інститутом безпеки штучного інтелекту. У Google DeepMind також підтвердили співпрацю з американською владою. Водночас xAI поки що не надала офіційних коментарів.

Загалом ініціатива свідчить про зміну підходу до розвитку штучного інтелекту: від швидкого впровадження інновацій – до більш обережного й контрольованого запуску. У майбутньому це може вплинути не лише на технологічні компанії, а й на темпи розвитку AI-індустрії в усьому світі.

Поділитися

Схожі новини