OpenAI заключил сделку с Пентагоном спустя несколько часов после того, как Anthropic был внесён в черный список.

Сэм Альтман, генеральный директор OpenAI Inc., на саммите AI Impact Summit в Нью-Дели, Индия, 19 февраля 2026 года.

Генеральный директор OpenAI, Сэм Альтман, заявил поздно вечером 27 февраля, что его компания достигла соглашения с Министерством обороны об использовании своих моделей искусственного интеллекта, вскоре после того, как президент Дональд Трамп заявил, что правительство не будет сотрудничать с её конкурентом в области ИИ, компанией Anthropic.

«Сегодня вечером мы достигли соглашения с Министерством обороны о развертывании наших моделей в их секретной сети», — написал Альтман в посте на X. В ходе всех наших переговоров Министерство обороны продемонстрировало глубокое уважение к вопросам безопасности и желание сотрудничать для достижения наилучших результатов».

Сообщение Альтмана появилось в конце драматической недели для индустрии ИИ, которая оказалась в центре политических дебатов о том, как можно использовать ее модели. Ранее в тот же день министр обороны Пет Хегсет присвоил компании Anthropic статус «угрозы национальной безопасности в цепочке поставок» после нескольких недель напряженных переговоров. Этот статус обычно присваивается иностранным противникам, и он обязывает поставщиков и подрядчиков Министерства обороны подтверждать, что они не используют модели Anthropic.

Президент Трамп также распорядился, чтобы все федеральные агентства США «немедленно прекратили» любое использование технологий Anthropic.

Anthropic была первой лабораторией, которая развернула свои модели в секретной сети Министерства обороны США, и пыталась договориться об условиях своего контракта с ведомством до того, как переговоры сорвались. Компания хотела получить гарантии, что ее модели не будут использоваться для создания полностью автономного оружия или массовой слежки за американцами, в то время как Министерство обороны хотело, чтобы Anthropic согласилась разрешить военным использовать модели во всех законных случаях.

26 февраля Альтман сообщил сотрудникам в меморандуме, что OpenAI разделяет те же «красные линии», что и Anthropic. 27 февраля, в своем посте он написал, что Министерство обороны согласилось с этими ограничениями.

«Двумя из наших важнейших принципов безопасности являются запрет на массовую слежку внутри страны и ответственность человека за применение силы, в том числе за автономные системы вооружения», — написал Альтман. Министерство обороны соглашается с этими принципами, отражает их в законах и политике, и мы включили их в наше соглашение.

Не сразу понятно, почему Министерство обороны согласилось пойти навстречу OpenAI, а не Anthropic, хотя правительственные чиновники в течение нескольких месяцев критиковали Anthropic за то, что он, якобы, чрезмерно озабочен безопасностью ИИ.

Альтман сказал, что OpenAI создаст «технические меры безопасности, чтобы гарантировать, что ее модели ведут себя так, как должны», и что компания направит персонал, чтобы «помочь с нашими моделями и обеспечить их безопасность».

«Мы просим Министерство обороны предложить такие же условия всем компаниям, занимающимся искусственным интеллектом, которые, по нашему мнению, должны быть приемлемы для всех», — написал Альтман. «Мы выразили наше сильное желание, чтобы ситуация деэскалировалась, уйдя от юридических и правительственных действий и перейдя к разумным соглашениям».

27 февраля, Anthropic заявил, что «глубоко опечален» решением Пентагона классифицировать компанию как риск для цепочки поставок. Он заявил, что намерен оспорить это решение в суде.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *