Опубликовано 28 февраля 2026, 14:33
1 мин.

Несмотря на угрозы, Anthropic отказалась выдавать свой ИИ для применения в оружии

Пентагон негодует
Anthropic заявила, что не позволит использовать свой ИИ в принятии решений о применении оружия или для массового слежения за гражданами США. Об этом сообщил глава.
Несмотря на угрозы, Anthropic отказалась выдавать свой ИИ для применения в оружии

© Anthropic

По его словам, ИИ-модель Claude уже применяется государственными структурами США для анализа данных, киберопераций и планирования. Однако власти, включая Минобороны, настаивали на “расширении возможностей системы” — в том числе для внутреннего наблюдения и полностью автономного управления оружием без участия человека.

CEO компании подчеркнул, что компания не выступает против сотрудничества с военными в целом. Но она проводит “чёткую границу”. Он также заявил, что Anthropic отклоняла крупные контракты из Китая, опасаясь военного применения своих технологий.

Власти, как пишут СМИ, ранее угрожали признать Anthropic «риском для цепочки поставок» и лишить её контрактов, если она не снимет ограничения. Несмотря на это, компания отказалась менять свою позицию.