Google веде переговори з Пентагоном про використання ШІ Gemini в секретних проєктах
Google обговорює з Міністерство оборони США можливу угоду, яка дозволить використовувати моделі штучного інтелекту Gemini у засекречених середовищах.
Про це повідомляє Reuters із посиланням Information.
Йдеться про контракт, який дозволить Пентагону застосовувати ШІ Google для «всіх законних цілей», зокрема в оборонних і адміністративних процесах.
За даними джерел, сторони наразі обговорюють деталі використання технологій у середовищах із обмеженим доступом — тобто там, де обробляються секретні дані.
Під час переговорів Alphabet запропонувала додаткові умови до контракту. Вони мають обмежити використання ШІ у чутливих сферах, зокрема:
- заборона застосування для масового стеження всередині США;
- обмеження на використання в автономній зброї без людського контролю.
Такі запобіжники відповідають попереднім публічним позиціям Google щодо етичного використання ШІ.
Офіційно ані Google, ані Міністерство оборони США наразі не коментували переговори.
Більше про угоди Пентагону із ШІ-компаніями
Раніше Міністерство оборони США для своїх потреб використовувало штучний інтелект від компанії Anthropic. Однак у лютому 2026 року міністр оборони Піт Гегсет викликав CEO Anthropic Даріо Амодея до Пентагону для розмови.
За інформацією Axios, відомство вимагало повного доступу до моделі для «будь-якого законного застосування» без винятків. Anthropic від цього відмовився.
У заяві 26 лютого Амодей наголосив: компанія підтримує законні потреби нацбезпеки, але вважає, що сучасні моделі «недостатньо надійні» для автономної летальної зброї, а масове внутрішнє спостереження суперечить демократичним принципам.
На тлі конфлікту Anthropic і Пентагону, 28 лютого розробник ChatGPT, компанія OpenAI, оголосила про угоду з Пентагоном щодо розгортання моделей у засекречених мережах.
Очільник OpenAI наголосив: угода з урядом містить гарантії того, що її не використовуватимуть для стеження та розробки автономних систем зброї.
Уже 1 березня Альтман заявив, що поспішив із домовленостями з урядом США. Однак за кілька днів після цього він опублікував допис, у якому окреслив основні правила співпраці з американським урядом.
Після оголошення про співпрацю OpenAI з Міністерством оборони США користувачі масово почали видаляти застосунок ChatGPT. Крім того, керівниця апаратного забезпечення OpenAI Кейтлін Каліновскі заявила, що йде у відставку через угоду компанії з Пентагоном.
Вже 10 березня Міністерство оборони США надало компанії Anthropic статус «ризику для ланцюга постачання». Рішення забороняло підрядникам уряду використовувати технології компанії в роботі для Пентагону, але не поширювалось на інші проєкти.
Це означало, що урядові підрядники не могли застосовувати моделі компанії, зокрема Claude, у контрактах із військовим відомством США. Водночас використання цих інструментів у проєктах, не пов’язаних із Пентагоном, залишалося дозволеним.
У відповідь на це, Anthropic подала позов до суду проти адміністрації президента США Дональда Трампа, оскаржуючи рішення уряду визнати компанію ризиком для ланцюга постачання та розірвати федеральні контракти.
У позові компанія заявила, що дії уряду США перевищують його повноваження та є реакцією на відмову Anthropic погодити використання своїх технологій штучного інтелекту з Міністерством оборони США.
Наприкінця березня Федеральний суд у США заборонив адміністрації Трампа застосувати заборону на використання моделей Anthropic. Йдеться про те, що Міністерство оборони США надало компанії статус «ризику для ланцюга постачання».
У квітні 2026 року на тлі конфлікту Anthropic із Пентагоном уряд Великої Британії запропонував, щоб ШІ-компанія розширила свою присутність у Лондоні.
Читайте також: Виторг українського офісу Google впав майже на чверть. Яка причина?
Схожі новини
Germany's crime figures: Comparing apples to oranges?
Germany's crime figures: Comparing apples to oranges?
This UK Nation Has Britain’s 3 Most Gorgeous Beaches