OpenAI заключила соглашение с Министерством обороны США о применении ИИ после конфликта вокруг Anthropic

nickname

Команда Aivizor

3/1/2026, 1:40:48 AM

AI Новости / OpenAi
0c3f440c-60f0-4942-8d3f-19c74b0b6112_w960_r1.5_fpx75_fpy47.webp

Американская компания OpenAI, разработчик ChatGPT, официально заявила о договорённости с Министерством обороны США (Пентагоном) о совместном использовании её ИИ-технологий в защищённых военных сетях. Об этом сообщил генеральный директор OpenAI Сэм Альтман в своём заявлении в социальной сети X и ряде пресс-сообщений международных СМИ. 🔗

Соглашение предполагает, что ИИ-модели OpenAI будут внедрены в классифицированные системы Министерства обороны, при этом стороны согласовали строгие меры безопасности:
📌 запрет массовой внутренней слежки;
📌 исключение автономного управления оружием без участия человека;
📌 технические и контрактные гарантии безопасности. 🔗

Альтман подчеркнул, что OpenAI готова работать с военными, соблюдая эти ключевые принципы, что, по его словам, также отражено в самой договорённости. 🔗


Почему соглашение появилось на фоне скандала с Anthropic 🔗

Решение OpenAI о сотрудничестве с Пентагоном последовало в тот же день, когда администрация президента Дональда Трампа потребовала, чтобы все федеральные агентства США прекратили использование ИИ-технологий компании Anthropic, считая её ограничения угрозой для национальной безопасности. 🔗

Anthropic, разработчик модели Claude, настаивал на том, что его ИИ не должен применяться для массового наблюдения или полностью автономных вооружённых систем. В ответ Пентагон объявил компанию «риском для цепочки поставок» и ограничил её участие в госконтрактах. 🔗

Anthropic уже заявил о намерении оспорить это решение в суде, назвав его юридически необоснованным — компания подчёркивает приверженность вопросам безопасности и этических ограничений ИИ. 🔗


Что это значит для рынка ИИ и обороны 🔗

✔️ Для OpenAI это стратегический шаг: согласие с Пентагоном укрепляет её позиции как поставщика ИИ для государственных структур.
✔️ Это также сигнал остальным компаниям — участие в государственных и военных ИИ-проектах требует не только технологических возможностей, но и готовности согласовать условия использования.
✔️ С другой стороны, конфликт с Anthropic демонстрирует, как этические ограничения могут вступать в противоречие с требованиями оборонных заказчиков. 🔗


Ключевые факты 🔗

  • OpenAI договорилась с Пентагоном об использовании ИИ-моделей в классифицированных военных сетях. 🔗

  • Соглашение включает ограничения по внутренней слежке и автономным системам.

  • Такое решение появилось на фоне разрыва контрактов Anthropic с правительством США. 🔗

  • Anthropic планирует оспорить запрет в суде.

82
0
3/1/2026, 1:40:48 AM
0

Ответы (0)

Пока нет ответов в этой теме.