Компания Anthropic, разработчик ИИ-модели Claude, подала иск против администрации США после того, как была признана угрозой национальной безопасности и внесена в список рисков для цепочек поставок Министерства обороны. Теперь все подрядчики Пентагона обязаны подтвердить, что не используют Claude в своих проектах, а федеральные агентства должны прекратить сотрудничество с Anthropic.
Причиной конфликта стали разногласия по условиям использования ИИ: Пентагон требовал полного доступа к моделям для любых законных целей, включая автономное оружие и массовое наблюдение, тогда как Anthropic настаивала на этических ограничениях. Несмотря на попытки договориться, компания оказалась в беспрецедентной ситуации — подобные меры ранее применялись только к иностранным компаниям.