ИИ от OpenAI интегрирован в систему безопасности ядерного оружия США после исторического соглашения - New-Science.ru
01 февраля 2025, 00:00
Компания OpenAI подписала соглашение с правительством США об использовании своих новейших моделей ИИ в национальных научно-исследовательских лабораториях и для обеспечения безопасности ядерного оружия. До 15 000 государственных исследователей получат доступ к новейшей серии o1 от OpenAI в таких стратегических центрах, как Лос-Аламосская национальная лаборатория (известная созданием первых трех атомных бомб).

Несмотря на риск ошибок и частые галлюцинации, правительство США часто использует инструменты ИИ. В 2024 году OpenAI заявила, что более 90 000 государственных служащих сгенерировали более 18 миллионов запросов на ChatGPT. Среди запросов — перевод официальных документов, написание аналитических записок и программирование приложений.

Новое партнерство OpenAI следует за рядом мер, принятых Сэмом Альтманом, генеральным директором компании, после инаугурации Дональда Трампа. Альтман, похоже, активизировал свои усилия по сближению с новым президентом. Например, он пожертвовал миллион долларов на его инаугурацию и присутствовал на мероприятии вместе с другими известными представителями технологического сектора.

Он также открыто выразил свое восхищение новым президентом, сказав, что его мнение о нем изменилось и что он будет "невероятно полезен для страны во многих отношениях". OpenAI является частью правительственного инвестиционного проекта Stargate, в рамках которого выделяется 500 миллиардов долларов на развитие инфраструктуры искусственного интеллекта.

Альтман объявил о новой сделке на корпоративном мероприятии Building to Win: AI Economics, прошедшем недавно в Вашингтоне. Как сообщается, его цель — стимулировать государственные научные исследования с использованием ИИ. " Делиться нашими технологиями с ведущими учеными страны — это часть нашей миссии, направленной на то, чтобы ИИ приносил пользу человечеству, и мы считаем, что правительство США является важнейшим партнером в достижении этой цели", — говорится в заявлении компании.

Развертывание серии o1 для 15 000 ученых

По словам OpenAI, новое соглашение позволит правительственным исследователям использовать лучшие в своем классе модели ИИ для повышения кибербезопасности энергосистемы США, определения новых подходов к профилактике и лечению заболеваний, улучшения понимания фундаментальной физики и многого другого.

" Сотрудничество OpenAI с национальными лабораториями США опирается на давнюю традицию американского правительства работать с частным сектором, чтобы технологические инновации приводили к улучшениям в здравоохранении, энергетике и других критически важных областях", — заявили официальные лица.

Соглашение предоставит около 15 000 государственных ученых доступ к моделям OpenAI серии o1. В рамках сотрудничества с Microsoft планируется развернуть одну из моделей в Venado, суперкомпьютере Лос-Аламосской национальной лаборатории, одного из крупнейших в мире многопрофильных институтов.

Venado предназначен для ускорения прогресса в материаловедении, возобновляемых источниках энергии, астрофизике, оружейных технологиях и многом другом. Ранее OpenAI уже сотрудничала с Лос-Аламосской национальной лабораторией для оценки рисков, которые могут представлять собой передовые модели ИИ при создании биологического оружия.

Проект также будет включать программу, специально посвященную ядерной безопасности. " Этот вариант использования очень важен, и мы считаем необходимым, чтобы OpenAI поддерживал его в рамках наших обязательств по обеспечению национальной безопасности", — говорят в компании. В этой части проекта будут задействованы некоторые исследователи OpenAI, имеющие допуск к безопасности ИИ.

Ранее на этой неделе OpenAI также запустила ChatGPT Gov, платформу ИИ, разработанную специально для правительства. Она позволит правительственным агентствам снабжать модели ИИ конфиденциальными и секретными данными. Модели будут работать в их системах безопасного хостинга.

Риск разглашения секретных ядерных секретов?

Это сотрудничество вызывает опасения, учитывая деликатность областей, в которых будет применяться ИИ. В настоящее время даже самые мощные модели ИИ не застрахованы от ошибок и галлюцинаций. Некоторые из моделей OpenAI также известны утечкой конфиденциальных пользовательских данных. Возможно, модели, развернутые в правительстве, рискуют раскрыть конфиденциальную информацию, например, данные, связанные с ядерными кодами?

Кроме того, администрация Трампа планирует отменить правила безопасности, касающиеся ИИ. Наблюдатели опасаются, что в ответ на это произойдет повсеместное распространение предвзятых (или даже вредных) инструментов ИИ. Время для массового развертывания ИИ в чувствительных стратегических секторах, в том числе связанных с ядерным оружием, кажется неподходящим.

Тем не менее, " поскольку передовой ИИ продолжает менять глобальную геополитику, это партнерство дает OpenAI ключевую возможность помочь направить эту трансформацию", — говорят представители компании. " Мы ожидаем, что это сотрудничество приведет к более широкому сотрудничеству в области безопасности по целому ряду химических, биологических, радиологических и ядерных рисков", — заключают они.

Что касается риска разглашения кодов ядерной атаки, то следует отметить, что они подлежат самым строгим протоколам безопасности в мире, с разделенными системами и дублирующим человеческим контролем для предотвращения любой компрометации.

Даже если ИИ OpenAI (или других компаний) будет интегрирован в секретные исследования, доступ к этим кодам будет чрезвычайно конфиденциален, что намного превышает текущие возможности любой модели ИИ. Технически коды запуска хранятся в сверхсекретных инфраструктурах, часто в автономном режиме, защищенных строгой архитектурой разделения. Для доступа к ним требуются многоуровневые процедуры аутентификации, включающие такие протоколы, как двойное подтверждение отдельными сотрудниками и физические устройства, которые не могут быть сопряжены с внешними системами.

Кроме того, для связи, связанной с выдачей разрешений на запуск, используются зашифрованные сети передачи данных, изолированные от любых цифровых соединений, доступных коммерческим ИИ. Это означает, что даже в экстремальном сценарии, когда ИИ интегрирован в управление стратегическими системами, он не сможет технически считывать или генерировать коды оружия без серьезного нарушения существующих процедур безопасности.

Однако растущая автоматизация оборонных систем и использование ИИ для анализа стратегических сценариев поднимает вопрос о косвенных уязвимостях: может ли ИИ в результате ошибок или манипуляций выработать рекомендации, которые поставят под угрозу ядерную безопасность?

Если бы ИИ участвовал, например, в военном планировании или моделировании ответных мер на нападение, недостатки или изменения в обучающих данных могли бы исказить его рассуждения и повлиять на принятие критически важных решений. В то время как кибератаки становятся все более изощренными, а социальная инженерия может обойти даже самые надежные системы, внедрение ИИ в эти сверхчувствительные среды может только подогреть опасения. Читайте все последние новости искусственного интеллекта на New-Science.ru
new-science.ru
© ФГУП «ГосНИИПП», 1989-2025