Anthropic подала иск против Министерства обороны США из-за ограничения использования ИИ-модели Claude
Компания Anthropic, специализирующаяся на разработке систем искусственного интеллекта, подала два судебных иска против Министерства обороны США, оспаривая решение Пентагона признать её «риском для цепочки поставок». Это решение фактически запрещает Anthropic участвовать в оборонных проектах. Согласно информации, опубликованной Associated Press 9 марта 2026 года, данное обозначение стало первым известным случаем применения такого статуса к американской компании. Причиной конфликта послужил отказ Anthropic предоставить военным неограниченный доступ к своей ИИ-модели Claude, особенно для использования в массовой слежке и полностью автономном оружии. Пентагон настаивал на разрешении «всех законных применений» Claude, а президент Дональд Трамп распорядился о поэтапном отказе от использования этой модели в течение шести месяцев.
Anthropic утверждает, что такое решение незаконно и нарушает конституционные права компании, заявляя об отсутствии правовых оснований для наказания за позицию, связанную с защищённой свободой слова. Иски были поданы в федеральные суды Калифорнии и Вашингтона, округ Колумбия, и также затрагивают другие федеральные агентства, включая Министерства финансов и иностранных дел, которые запретили своим сотрудникам использовать Claude. Несмотря на судебные разбирательства, Anthropic стремится заверить своих клиентов в том, что действия правительства касаются только военного использования. С прогнозируемой выручкой в $14 миллиардов в 2026 году и более чем 500 клиентами, каждый из которых тратит $1 миллион ежегодно, ставки для компании высоки. Anthropic продолжает продвигать свою приверженность этичному использованию ИИ и национальной безопасности.
Ранее, как сообщает Associated Press 7 марта 2026 года, заместитель министра обороны по исследованиям и технике Эмиль Майкл раскрыл напряжённость в отношениях с Anthropic из-за этических ограничений компании на использование ИИ в полностью автономном оружии. Майкл критиковал ограничения Anthropic, утверждая, что они мешают усилиям по обеспечению национальной безопасности в противостоянии с такими соперниками, как Китай, и что военные требуют безусловной поддержки ИИ для автономных систем, таких как рои дронов и противоракетная оборона.
Мнение автора
Конфликт между Anthropic и Министерством обороны США подчёркивает сложность интеграции этических принципов в военные технологии. Отказ компании предоставить неограниченный доступ к своей ИИ-модели для военных целей свидетельствует о растущем внимании к вопросам этичного использования искусственного интеллекта. В будущем ожидается усиление дискуссий и возможных регуляторных мер, направленных на балансирование между национальной безопасностью и этическими стандартами в сфере ИИ.
Использованные источники
Читайте также
- США и Япония планируют совместный завод по производству дисплеев с Japan Display
- Apple представила новые MacBook Pro с чипами M5 Pro и M5 Max
- Генеральный директор Polymarket предупреждает о растущих рисках в ставках на военные события
- Китай предупреждает о глобальном дефиците чипов из-за конфликта с Nexperia
- Oracle и OpenAI отменили планы по расширению центра обработки данных в Техасе
- Kalshi столкнулась с судебным иском после удаления рынка прогнозов об отставке лидера Ирана
Подписывайтесь на наши Telegram-канал и WhatsApp-канал, чтобы получать оперативную информацию и эксклюзивные материалы.
Автор статьи — Мадина Ахметова.