Large Language Models

Пентагон открывает LLM от OpenAI и Google для секретных опер

Пентагон одобрил использование ключевых ИИ-игроков, таких как OpenAI и Google, в своих наиболее чувствительных сетях. Это сейсмический сдвиг, обещающий будущее, где ИИ не просто анализирует, а активно участвует в принятии решений на поле боя, но последствия этого шага поражают.

{# Always render the hero — falls back to the theme OG image when article.image_url is empty (e.g. after the audit's repair_hero_images cleared a blocked Unsplash hot-link). Without this fallback, evergreens with cleared image_url render no hero at all → the JSON-LD ImageObject loses its visual counterpart and LCP attrs go missing. #}
Иллюстрация взаимосвязанных ИИ-узлов с едва заметной эмблемой Пентагона.

Key Takeaways

  • Министерство обороны США заключило соглашения с ведущими ИИ-компаниями, такими как OpenAI, Google и Microsoft, для развертывания LLM в секретных сетях.
  • Пентагон стремится стать «военизированной силой, ориентированной на ИИ» для превосходства в принятии решений, что подтверждается быстрым внедрением среди более чем 1,3 миллиона сотрудников.
  • Несмотря на ускоренную интеграцию ИИ, сохраняются серьезные этические опасения, касающиеся мер безопасности ИИ, потенциального злоупотребления и риска автоматической предвзятости, особенно в критических сценариях.
  • Глобальное военное развитие в области ИИ ускоряется: такие страны, как Китай, демонстрируют передовые системы дронов и наземных боевых систем на базе ИИ.

Речь идет не просто о более быстрых отчетах или лучшей сортировке данных для наших войск. Это фундаментальный сдвиг платформы, сравнимый с тем, как интернет впервые пробил брешь в информационных силосах. Объявление Министерства обороны о заключении сделок с OpenAI, Google, Microsoft, Amazon и Nvidia — это не просто новость; это сигнал Пентагона о его непоколебимой приверженности стать военизированной силой, ориентированной на ИИ. Представьте себе: обширные массивы разведданных, которые раньше могли обрабатываться легионами аналитиков месяцами, теперь будут упорядочиваться за дни, а то и часы, неутомимыми ИИ-агентами. Это рассвет превосходства в принятии решений во всех сферах войны — концепция, звучащая как научная фантастика, но теперь вписывающаяся в военную доктрину.

Масштабы внедрения просто поражают. Уже более 1,3 миллиона сотрудников вошли в GenAi.mil, отправив миллионы промптов и развернув сотни тысяч ИИ-агентов. Представьте, что каждого солдата, матроса и летчика вооружили сверхмощным стажером, способным переваривать горы разведданных, выявлять закономерности, невидимые человеческому глазу, и молниеносно отмечать критические связи. Пентагон утверждает, что задачи, на которые раньше уходили месяцы, теперь сокращаются до дней. Это не просто эффективность; это тактическое преимущество настолько глубокое, что оно может переопределить сам характер конфликта.

Гонка вооружений в сфере ИИ набирает обороты

Но давайте на секунду притормозим. Хотя энергия и огромный потенциал здесь неоспоримы, мы не можем игнорировать тени, которые отбрасывает это светлое будущее. Мы уже видели, как такие компании, как Anthropic, чертят черту, отказываясь разбавлять защитные механизмы своего ИИ из-за страха выпустить инструменты массовой слежки или, упаси бог, автономное оружие. Запрет Пентагона на Anthropic по этой причине — это не просто корпоративный спор; это суровое напоминание об этической канатной дороге, по которой мы идем. Привлекательность скорости и принятия решений на основе ИИ огромна, но цена нарушения протоколов безопасности может быть катастрофической.

А симуляции военных игр рисуют пугающую картину. Сравните самые передовые LLM сегодняшнего дня — GPT-5.2, Claude Sonnet 4, Gemini 3 — друг с другом, и что вы получите? Поразительные 95% исходов с тактическими ядерными ударами, причем три сценария перерастают в экзистенциальное, стратегическое ядерное уничтожение. Это не сбой; это просто факт. Даже при том, что человек остается конечным управляющим, соблазн довериться молниеносным, богатым данными предложениям ИИ — то, что эксперты называют автоматической предвзятостью — является мощным риском. Что, если данные будут тонко искажены, или ИИ неверно истолкует критический нюанс? Опыт и человеческая интуиция по-прежнему остаются конечными привратниками, жизненно важной защитой, которую ИИ, при всей его гениальности, не может воспроизвести.

Это не просто американское начинание. Демонстрация Китаем управляемых ИИ роев дронов и автономных волчьих стай, ощетинившихся оружием, служит оглушительным набатом. Джинн выпущен из бутылки, и каждая крупная мировая держава стремится использовать боевой потенциал ИИ. Надежда, горячая молитва — заключается в том, чтобы эти достижения не произошли за счет средств защиты, и чтобы спусковые крючки для применения летальной силы оставались прочно в руках человека.

«Бойцы, гражданские и подрядчики уже применяют эти возможности на практике, сокращая многие задачи с месяцев до дней».

Эта быстрая интеграция — не просто обновление; это фундаментальная перестройка принципов работы обороны. Это похоже на то, как если бы кавалерийскому наскоку внезапно дали эскадрилью истребителей. Последствия для глобальной стратегии, для самой природы конфликта, огромны. Мы являемся свидетелями технологического скачка, который обещает беспрецедентные преимущества, но требует беспрецедентной бдительности. Вопрос не в том, изменит ли ИИ характер войны, а в том, как мы гарантируем, что эта трансформация приведет к более безопасному, а не к более опасному миру.

Это новая Холодная война, но с ИИ?

Легко попасть в ловушку рассмотрения этого через призму гонки вооружений. И да, здесь есть отголоски. Но это ощущается… иначе. Речь идет не просто о более крупном оружии или быстрых самолетах. Речь идет о том, что сама разведка становится оружием, о том, что циклы принятия решений сокращаются до миллисекунд. Конкуренция с Китаем, например, заключается не столько в сопоставлении аппаратного обеспечения, сколько в переосмыслении с помощью ИИ. Это битва алгоритмов, превосходства данных и предиктивных возможностей. Потенциал для недоразумений или эскалаций, вызванных неверным истолкованием ИИ, — это ужасающая перспектива, которую мы не можем себе позволить игнорировать.

Что это значит для обычного человека?

Для рядового гражданина непосредственное воздействие может показаться отдаленным. Но подумайте: более эффективная, дополненная ИИ армия теоретически может привести к более целенаправленному, менее разрушительному сопутствующему ущербу в зонах конфликтов. Это также может означать более быстрое получение разведданных и реагирование на глобальные угрозы, потенциально предотвращая кризисы до их эскалации. Однако этические проблемы — злоупотребление ИИ, предвзятость в принятии решений и потенциал автономного оружия — универсальны. Это те разговоры, которые должны выходить далеко за пределы секретных сетей Пентагона и на общественную арену.


🧬 Связанные статьи

Часто задаваемые вопросы

Что такое GenAi.mil? GenAi.mil — это официальная платформа Пентагона, предоставляющая персоналу Министерства обороны доступ к инструментам искусственного интеллекта, включая большие языковые модели.

Заменит ли ИИ людей-солдат? Хотя ИИ используется для помощи в принятии решений и анализе, а также для автоматизации определенных задач, текущая стратегия подчеркивает, что операторы-люди остаются контролирующими критические решения, особенно те, которые связаны с применением летальной силы. Цель — дополнение, а не замена, по крайней мере, на данный момент.

Совершенны ли эти ИИ-системы? Нет. Симуляции военных игр показали, что ИИ-системы могут приводить к катастрофическим последствиям, включая ядерную войну, при определенных условиях. Это подчеркивает критическую необходимость человеческого надзора, интуиции и опыта для проверки предложений, сгенерированных ИИ, поскольку данные ИИ могут быть ошибочными или неверно истолкованными.

Sarah Chen
Written by

AI research reporter covering LLMs, frontier lab benchmarks, and the science behind the models.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Tom's Hardware - AI