
Армия Соединенных Штатов применила искусственный интеллект Claude, разработанный компанией Anthropic, в ходе спецоперации по задержанию венесуэльского лидера Николаса Мадуро. Об этом сообщают источники, знакомые с ситуацией.
В рамках миссии были нанесены авиаудары по ряду целей в столице Венесуэлы Каракасе.
Подобное использование нейросети идет вразрез с публичными принципами Anthropic. Внутренняя политика разработчика прямо запрещает применять его технологии для совершения насилия, создания вооружений или организации слежки.
Представитель Anthropic отказался комментировать участие Claude в конкретных операциях, подчеркнув, что любое использование больших языковых моделей должно строго соответствовать правилам компании. Он также отметил тесное взаимодействие с партнерами для контроля за соблюдением этих норм.
Интеграция Claude в систему Министерства обороны США стала возможной благодаря сотрудничеству Anthropic с Palantir Technologies, чье программное обеспечение активно применяется американскими военными и федеральными агентствами.
После проведения рейда сотрудник Anthropic запросил у контакта из Palantir детали о роли нейросети в операции против Мадуро. В стартапе заявили, что не обсуждают применение своих моделей в конкретных миссиях с партнерами, включая Palantir, фокусируясь исключительно на технической поддержке.
Представитель фирмы добавил, что Anthropic стремится использовать передовой ИИ для укрепления национальной безопасности США.
Anthropic против Пентагона?
Официальный представитель Пентагона Шон Парнелл сообщил о пересмотре отношений с ИИ-лабораторией. Он заявил, что стране необходимы партнеры, готовые помогать военным побеждать в любых конфликтах.
Летом 2025 года Министерство обороны США заключило контракты на сумму до 200 миллионов долларов с Anthropic, Google, OpenAI и xAI для разработки решений в сфере безопасности. Ведомство планировало задействовать их технологии для создания агентных систем.
Однако уже в начале 2026 года появилась информация о риске расторжения соглашения с Anthropic. Причиной разногласий стала жесткая этическая политика стартапа, которая запрещает использование Claude для массовой слежки и полностью автономных летальных операций. Это ограничивает возможности спецслужб.
Недовольство властей усугубилось на фоне интеграции чат-бота Grok от xAI в сеть Пентагона. Министр обороны Пит Хегсет тогда подчеркнул, что ведомство не станет применять модели, которые препятствуют ведению боевых действий.
Давление на разработчиков
По данным информированных источников, Пентагон оказывает давление на четыре ведущие ИИ-компании, требуя разрешить военным использовать их технологии для всех законных целей, включая разработку оружия, сбор разведданных и проведение операций.
Anthropic отказывается снимать ограничения на слежку за гражданами США и создание полностью автономных вооружений. Переговоры зашли в тупик, однако быстро найти замену Claude сложно из-за технологического превосходства модели в специфических государственных задачах.
Помимо Claude, Пентагон применяет ChatGPT от OpenAI, Gemini от Google и Grok от xAI для решения несекретных задач. Все три компании согласились ослабить ограничения, действующие для рядовых пользователей.
Сейчас обсуждается возможность переноса больших языковых моделей в секретный контур и их использование для всех законных целей. Одна из трех компаний уже дала на это согласие, а две другие проявляют большую гибкость по сравнению с позицией Anthropic.
Милитаризация ИИ
Соединенные Штаты не одиноки в стремлении внедрить искусственный интеллект в оборонную сферу.
*Китай*
В середине 2024 года в Китае представили ИИ-командующего для масштабных военных симуляций с участием всех родов войск Народно-освободительной армии. Виртуальный стратег обладает широкими полномочиями, быстро обучается и совершенствует тактику в ходе цифровых учений.
Позднее появилась информация, что китайские исследователи адаптировали модель Llama от Meta для создания инструмента ChatBIT. Нейросеть оптимизировали для сбора и анализа разведданных, а также поддержки принятия оперативных решений.
*Индия*
Правительство Индии также сделало ставку на искусственный интеллект как на драйвер национальной безопасности. На национальном уровне были выработаны стратегии, созданы специальные институты и запущены проекты по применению технологии в различных отраслях, включая оборону.
*Великобритания*
Лондон закрепил за искусственным интеллектом статус приоритетного направления. В оборонной стратегии ИИ рассматривается как ключевой компонент будущих вооруженных сил, а в стратегическом оборонном обзоре технология названа фундаментальным элементом современной войны.
Если ранее ИИ в военном контексте воспринимался как вспомогательный инструмент, то теперь британские Вооруженные силы планируют трансформацию в технологически интегрированные подразделения, где системы искусственного интеллекта будут применяться на всех уровнях — от штабной аналитики до поля боя.
Напомним, что весной 2025 года Пентагон анонсировал использование ИИ-агентов для моделирования потенциальных столкновений с иностранными противниками.
Популярные новости:
Больше не нужно искать — необходимые
обучающие материалы и подсказки всегда под рукой