14 января 2025, 15:13
OpenAI опубликовала "экономический план" по развитию ИИ — документ, в котором изложены предложения по сотрудничеству с правительством США и его союзниками. В плане говорится о необходимости привлечения миллиардных инвестиций в производство чипов, обработку данных, энергетику и подготовку кадров, чтобы США могли "лидировать в сфере ИИ". OpenAI предлагает разработать рекомендации по развертыванию моделей ИИ, упростить взаимодействие с органами национальной безопасности и внедрить систему экспортного контроля, чтобы технологии не попали в руки "стран-противников". OpenAI неоднократно призывала правительство США к более активным действиям в сфере ИИ и созданию необходимой для этой технологии инфраструктуры. Федеральные власти в основном переложили регулирование ИИ на штаты, и OpenAI считает такую ситуацию неприемлемой. Только в 2024 году законодатели штатов предложили около 700 законопроектов, касающихся ИИ, причем некоторые из них противоречат друг другу. Например, техасский закон об ответственном управлении ИИ устанавливает очень жесткие требования к ответственности разработчиков моделей с открытым исходным кодом. Генеральный директор OpenAI Сэм Альтман в недавнем интервью отметил, что "США нужно возглавить ИИ"."Если ИИ — это мозг робота, то RPA — его руки". Что умеют программные роботыЧтобы обеспечить энергией дата-центры, необходимые для разработки и работы ИИ, OpenAI в своем плане рекомендует резко увеличить государственные расходы на электроснабжение и передачу данных, а также активно развивать "новые источники энергии", такие как солнечные, ветряные электростанции и атомную энергетику. OpenAI и другие компании, занимающиеся ИИ, уже поддерживали проекты в области атомной энергетики, считая, что она необходима для обеспечения электроэнергией серверов нового поколения. В ближайшее время OpenAI предлагает правительству "разработать рекомендации" по развертыванию моделей. Это предотвратит их неправомерное использование, упростит взаимодействие компаний, занимающихся ИИ, с органами национальной безопасности и создаст систему экспортного контроля, которая позволит делиться моделями с союзниками, ограничивая их экспорт в страны-противники. Кроме того, правительству рекомендуют делиться с разработчиками определенной информацией, касающейся национальной безопасности. Например, проводить брифинги об угрозах для индустрии ИИ и помогать получать ресурсы для оценки рисков, связанных с моделями. OpenAI предлагает разработать международные стандарты в области ИИ, которые будут "признаны и уважаемы" другими государствами и международными организациями. Компания, однако, не поддерживает обязательное внедрение этих стандартов, предлагая "создать добровольный механизм взаимодействия" между государством и частными компаниями. Администрация Байдена в своем указе о регулировании ИИ предложила добровольные стандарты безопасности и создала Институт безопасности ИИ США (AISI), который изучает риски и сотрудничает с компаниями, включая OpenAI. Однако Трамп и его союзники намерены отменить указ, что ставит под угрозу AISI и закрепленные в документе меры.В плане OpenAI рассматривается вопрос авторского права в сфере ИИ. Компания считает, что разработчики ИИ должны иметь возможность использовать "общедоступную информацию", включая защищенную авторским правом, для обучения моделей. OpenAI, как и другие компании, обучает модели на данных из открытых источников. У компании есть лицензионные соглашения и возможность для авторов "отказаться" от использования их материалов. При этом OpenAI заявляла, что обучение ИИ без таких материалов "невозможно". У OpenAI уже есть несколько партнеров среди правительственных ведомств США. Компания сотрудничает с Пентагоном в сфере кибербезопасности, а также работает с оборонным стартапом Anduril, поставляя свои ИИ-технологии для систем, которые американские военные используют для борьбы с дронами. В первой половине прошлого года OpenAI потратила на лоббирование в три раза больше, чем за весь 2023 год: $800 тысяч против $260 тысяч. Компания также наняла на работу бывших чиновников, например, Сашу Бейкер из Минобороны. OpenAI стала активнее высказываться о том, какие законы и правила в сфере ИИ она поддерживает. Например, компания выступает за законопроекты Сената о создании федерального органа по регулированию ИИ и о федеральных стипендиях для исследований в этой области. В то же время OpenAI выступает против калифорнийского SB 1047, считая, что он помешает развитию ИИ и приведет к утечке специалистов.