Компания Anthropic добилась судебного постановления, приостанавливающего действие запрета администрации Трампа на использование её инструментов ИИ.

Anthropic добился судебного решения о приостановке запрета Трампа на использование его инструмента искусственного интеллекта.

Компания Anthropic PBC добилась судебного постановления, блокирующего запрет администрации Трампа на использование технологий искусственного интеллекта компании государственными органами, после того как разработчик чат-бота Claude доказал, что этот шаг может стоить ему миллиарды долларов упущенной выручки.

26 марта, окружной судья США, Рита Ф. Лин, вынесла предварительное судебное распоряжение, приостановив план администрации по разрыву всех связей с Anthropic на время судебного разбирательства в федеральном суде Сан-Франциско. Она приостановила действие распоряжения на семь дней, чтобы дать правительству возможность подать апелляцию.

Ранее в этом месяце компания подала иск, чтобы заблокировать заявление Министерства обороны о том, что Anthropic представляет угрозу для цепочки поставок США, что привело к обострению серьезного спора о мерах безопасности в отношении технологий искусственного интеллекта, используемых военными.

Стартап хотел получить гарантии, что его ИИ не будет использоваться для массовой слежки за американцами или развертывания автономного оружия, в то время как правительство сослалось на национальную безопасность, утверждая, что не может принять никаких ограничений.

Лин поставила под сомнение обоснование запрета, заявив, что он, по-видимому, не направлен на защиту интересов национальной безопасности.

«Если проблема заключается в целостности оперативной цепочки командования, Министерство обороны могло бы просто перестать использовать Claude», — написала судья. «Вместо этого эти меры, похоже, призваны наказать Anthropic». Такой шаг, «является классическим незаконным возмездием в нарушение Первой поправки», — сказала она.

Представитель Пентагона не ответил сразу на запрос о комментарии, отправленный после окончания рабочего дня.

В своем заявлении компания Anthropic приветствовала решение судьи. «Хотя это дело было необходимо для защиты Anthropic, наших клиентов и партнеров, мы по-прежнему нацелены на плодотворное сотрудничество с правительством, чтобы обеспечить всем американцам возможность пользоваться безопасным и надежным ИИ», — заявила компания.

Anthropic утверждает, что его лишают государственных контрактов за несогласие с администрацией, и заявляет, что правовые принципы, о которых идет речь, затрагивают всех федеральных подрядчиков, чьи взгляды не нравятся правительству. Администрация Трампа пообещала вести юридическую борьбу, чтобы исключить Anthropic из всех государственных учреждений США.

В ходе слушания, перед судьей Лин в начале этой недели, правительственный юрист заявил, что доверие является ключевым компонентом любых отношений между военными и компаниями, предоставляющими им услуги, и что Anthropic разрушил это доверие во время переговоров по контракту, пытаясь диктовать Пентагону политику в отношении использования технологий ИИ.

Юрист утверждал, что правительство обеспокоено риском «будущего саботажа» со стороны Anthropic, включая изменения в программном обеспечении ИИ, которое правительство закупает у компании.

Однако в своем решении судья Лин заявила, что у Министерства юстиции США нет «законных оснований» для того, чтобы считать, что твердая позиция Anthropic в отношении ограничений на использование его технологий искусственного интеллекта может привести к тому, что компания «станет саботажником».

На слушании представитель компании Anthropic указал, что Пентагон имеет возможность проверять любую модель ИИ перед её внедрением, а у Anthropic нет возможности остановить работу модели, изменить её алгоритм, отключить её или отслеживать, как она используется военными.

В рамках судебной тяжбы по поводу запрета компания Anthropic также подала иск в апелляционный суд в Вашингтоне, округ Колумбия, сославшись на закон, регулирующий процедуры снижения рисков в цепочке поставок при закупках. В этом иске компания утверждала, что Министерство обороны превысило свои полномочия, совершив действия, которые были «произвольными, капризными и представляли собой злоупотребление дискреционными полномочиями».

Дело Anthropic против Министерства обороны США, 26-cv-01996, Окружной суд США, Северный округ Калифорнии (Сан-Франциско).

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *