Главная/Новости/Anthropic рискует контрактом Пентагона из‑за запрета на автономное оружие и слежку
    Anthropic рискует контрактом Пентагона из‑за запрета на автономное оружие и слежку

    Anthropic рискует контрактом Пентагона из‑за запрета на автономное оружие и слежку

    Алишер Абдулин·22 февраля 2026 г.

    Что произошло

    WIRED пишет о нарастающем конфликте между Anthropic и Министерством обороны США: лаборатория с репутацией «safety-first» не хочет, чтобы ее ИИ использовали для автономного оружия или госнаблюдения. Эти ограничения, по данным издания, могут поставить под угрозу крупное военное сотрудничество, включая обсуждаемый контракт примерно на $200 млн.

    В чем суть спора

    «Оговорки» Anthropic

    Anthropic публично заявляет, что готова работать с государственными заказчиками в области нацбезопасности, но при этом запрещает применение Claude для разработки, производства или поддержки оружия и выступает против сценариев, связанных с автономным поражением целей и массовой слежкой.

    Реакция Пентагона

    По версии WIRED, внутри оборонного ведомства обсуждается пересмотр отношения к компании. Один из самых чувствительных вариантов — трактовка Anthropic как «риска для цепочки поставок», что на практике может:

    • охладить интерес подрядчиков к моделям компании;
    • усложнить или заблокировать интеграции в оборонные проекты;
    • создать прецедент давления на разработчиков ИИ по теме ограничений использования.

    Почему это важно для рынка ИИ

    WIRED подчеркивает системную дилемму: чем глубже ИИ входит в оборонный контур, тем сильнее запрос на снятие ограничений, а значит — тем выше риск размывания принципов безопасного применения. История вокруг Anthropic становится показательной для всей отрасли: компании придется балансировать между доступом к крупнейшим бюджетам и собственными «красными линиями».

    Что будет дальше

    Публичных решений пока нет, но ситуация уже сигнализирует рынку: условия использования ИИ (policy carve-outs) становятся фактором конкурентоспособности — особенно там, где заказчик ожидает максимально широких прав на применение технологий.


    Источник: WIRED

    Читайте также

    Burger King внедряет ИИ в гарнитуры сотрудников: мониторинг «дружелюбия» и новая этика на драйв‑тру

    Burger King внедряет ИИ в гарнитуры сотрудников: мониторинг «дружелюбия» и новая этика на драйв‑тру

    Сеть быстрого питания Burger King разворачивает корпоративную платформу BK Assistant и чат бота под именем «Пэтти» на базе технологий OpenAI. Система…

    28 февраля 2026 г.

    Пентагон против Anthropic: как оборонное ведомство пытается поставить ИИ-компанию на место

    Пентагон против Anthropic: как оборонное ведомство пытается поставить ИИ-компанию на место

    Министерство обороны США при главе Пите Хегсете инициировало процедуру присвоения Anthropic статуса «риска для цепочки поставок» ярлыка, который тради…

    28 февраля 2026 г.

    Когда автоматизация становится уязвимостью: цепочки поставок в эпоху AI

    Когда автоматизация становится уязвимостью: цепочки поставок в эпоху AI

    Продуктовый ритейл и фуд логистика активно внедряют алгоритмы, планирование поставок, управление складом и транспортом, риск скоринг. Параллельно цепо…

    24 февраля 2026 г.