В конце февраля — начале марта 2026 года в США произошел, возможно, самый важный политико-технологический конфликт года. Компания Anthropic, один из ведущих подрядчиков Пентагона, отказалась снимать ограничения для применения своих продуктов военным ведомством, из-за чего Белый дом не просто разорвал все связи с компанией, но и ограничил ее доступ к государственным контрактам, углубив сотрудничество с ее главным конкурентом — OpenAI.
Красные линии
Конфликт обострился, когда компания Anthropic, созданная в 2021 году выходцами из OpenAI, выступавшими за внедрение более жестких ограничений в области ИИ, потребовала от Пентагона юридических гарантий того, что их технологии не будут применяться вразрез с этическим кодексом компании: запретом на слежку за гражданами США и на использование ИИ для работы полностью автономных боевых систем.
Пентагон категорически отверг эти требования, заявив, что действует строго в рамках закона, и обязал корпорацию предоставить ведомству доступ ко всем возможностям ИИ. Не достигнув компромисса, администрация Трампа перешла к жестким мерам. Военный министр Пит Хегсет объявил Anthropic "национальной угрозой системе производства и поставок" (national security supply-chain risk) — юридический статус, используемый для ограничения технических компаний из враждебных государств.
Одновременно с этим президентским указом всем федеральным ведомствам было предписано в течение полугода полностью отказаться от использования нейросетей семейства Claude — одного из главных продуктов компании.
В ответ Anthropic подала иск против Белого дома и руководства Пентагона, утверждая, что государство вышло за рамки своих полномочий и осуществляет политическое давление на частную компанию путем обрушения ее капитализации.
В свою очередь, представители Белого дома заявили, что попытки частной структуры диктовать армии условия использования технологий несут угрозу национальной безопасности, т.к. в критический момент разработчик способен самовольно отключить свои системы или изменить их настройки.
Цена конформизма
Пока Anthropic теряла государственные подряды ради сохранения собственных принципов, ее главный конкурент — OpenAI — оперативно занял освободившуюся нишу, подписав новое соглашение с Пентагоном о широком применении ИИ в военных целях. И хотя генеральный директор OpenAI Сэм Альтман попытался сгладить углы, заявив, что в новом контракте будут прописаны этические барьеры, индустрия восприняла этот шаг в штыки.
Сначала ситуация спровоцировала публичную перепалку: глава Anthropic Дарио Амодей в утекшем в сеть внутреннем меморандуме обвинил конкурентов во лжи и заигрывании с властями ради получения многомиллионных бюджетов.
После этого ряд старших исследователей и топ-менеджеров, включая вице-президента по исследованиям Макса Шварцера и главу отдела робототехники Кейтлин Калиновски, демонстративно покинули OpenAI, сославшись на "предательство корпоративных ценностей", причем значительная их часть перешла в Anthropic, а группа из 37 сотрудников OpenAI и Google DeepMind направила коллективное заявление в суд, поддержав позицию Anthropic.
Кроме того, общественное мнение также сместилось на сторону Anthropic. На фоне конфликта жители Сан-Франциско оставляли благодарственные надписи мелом у штаб-квартиры компании, поп-звезда Кэти Перри опубликовала в соцсети X скриншот своей платной подписки на LLM компании, а приложение Claude впервые обошло ChatGPT по скачиваниям в американском App Store.
Конец консенсуса?
Текущий конфликт наглядно показал: прагматичный подход к национальной безопасности столкнулся с идеализмом нуворишей из технологического сектора, однако исход данного конфликта, без сомнения, будет решен в пользу государства, вмешательство которого в отрасль будет лишь расти.
В конце концов, технологическим гигантам придется делать однозначный и болезненный выбор между собственными этическими манифестами и доступом к федеральным средствам, который будет невозможен без полной интеграции в военную машину США.