Искусственный интеллект Grok 3 от Илона Маска обвиняют в предоставлении инструкций по созданию химического оружия - New-Science.ru
03 марта 2025, 00:00
По мнению Илона Маска, большинство разработчиков моделей искусственного интеллекта цензурируют правдивые факты, порой вводя пользователей в заблуждение. В ответ на это он заявляет, что его собственные разработки в области ИИ будут направлены на "максимальный поиск истины". Следуя этому обещанию, его компания xAI, занимающаяся разработкой искусственного интеллекта, выпустила Grok 3 — модель, которая претендует на более открытый и менее цензурированный подход, чем ее конкуренты. Сразу после выхода Grok 3 стал одним из самых эффективных чат-ботов, возглавив рейтинг Chatbot Arena. Но помимо технического превосходства, его запуск был омрачен противоречиями: модель была поймана на предоставлении подробных инструкций по созданию химического оружия, что вновь вызвало опасения по поводу безопасности продвинутого ИИ.

Grok 3 базируется на Colossus, гигантском суперкомпьютере, в десять раз превосходящем по вычислительной мощности модели, ранее разработанные xAI. Такая инфраструктура позволяет ему достигать исключительной производительности, о чем свидетельствует результат в 93,3 % на Американском вступительном экзамене по математике (AIME) 2025 года, полученный всего через неделю после его развертывания.

Модель выпускается в двух версиях: Grok 3 с обширной базой знаний и Grok 3 Mini, более легкая версия, оптимизированная для более экономичного использования. На сегодняшний день Grok 3 превзошел модели OpenAI и Google (Gemini) в математике, программировании и сложных рассуждениях. Но хотя этот чат-бот демонстрирует впечатляющие способности к анализу, очевидное отсутствие фильтров и защитных механизмов вызывает опасения.

Поспешный запуск?

В отличие от таких лабораторий по разработке искусственного интеллекта, как OpenAI, которые подвергают свои модели строгим испытаниям перед запуском, xAI, похоже, выбрала более смелый подход. Большинство компаний проводят тесты "красной команды", в ходе которых эксперты намеренно пытаются подтолкнуть ИИ к созданию опасного контента, чтобы выявить и устранить его уязвимости. Однако Grok 3, судя по всему, был выпущен на всеобщее обозрение без такого тщательного процесса.

Такая поспешность привела к тревожной ситуации. В ходе эксперимента, проведенного разработчиком Линусом Экенстамом, было показано, что Grok 3 способен генерировать подробные инструкции по изготовлению химического оружия. Чат-бот не только перечислил необходимые ингредиенты, но и предоставил точные инструкции по их сборке и использованию.

В своем посте в X Экенстам заявил: " Grok дал мне сотни страниц подробных инструкций о том, как сделать химическое оружие массового поражения". По его словам, ИИ даже составил план распространения, указав, где и как использовать оружие, чтобы добиться максимальной эффективности. Он добавил: " У меня есть полный список поставщиков. Подробные инструкции о том, как получить необходимые материалы".

Предупрежденная, компания xAI быстро отреагировала и ввела меры предосторожности, чтобы ограничить доступ к этой конфиденциальной информации. Теперь Grok 3, похоже, менее склонен генерировать подобный контент. Однако, по словам Экенстама, эти новые ограничения остаются несовершенными и могут быть обойдены, что возрождает дискуссию о необходимости более строгого регулирования передового ИИ.

На пути к более строгому регулированию?

Случай с Grok 3 — не единичный. Недавно китайская модель ИИ с открытым исходным кодом DeepSeek R1 также попала под огонь из-за своей склонности к предоставлению конфиденциальной информации. Среди наиболее тревожных случаев — подробное описание молекулярных взаимодействий иприта, облегчающее понимание этапов его производства.

Этот случай подчеркивает растущие проблемы, возникающие в связи с развитием генеративного ИИ. Хотя по ряду причин эти модели представляют собой значительный прогресс, нельзя игнорировать их потенциал для злоупотребления. Пока технологические гиганты борются за доминирование в этом развивающемся секторе, остается один вопрос: как далеко следует зайти в регулировании этих технологий, прежде чем они выйдут из-под контроля? Читайте все последние новости искусственного интеллекта на New-Science.ru
new-science.ru
© ФГУП «ГосНИИПП», 1989-2025