Искусственный интеллект Grok 3 от Илона Маска обвиняют в предоставлении инструкций по созданию химического оружия - New-Science.ru
03 марта 2025, 00:00
По мнению Илона Маска, большинство разработчиков моделей искусственного интеллекта цензурируют правдивые факты, порой вводя пользователей в заблуждение. В ответ на это он заявляет, что его собственные разработки в области ИИ будут направлены на "максимальный поиск истины". Следуя этому обещанию, его компания xAI, занимающаяся разработкой искусственного интеллекта, выпустила Grok 3 — модель, которая претендует на более открытый и менее цензурированный подход, чем ее конкуренты. Сразу после выхода Grok 3 стал одним из самых эффективных чат-ботов, возглавив рейтинг Chatbot Arena. Но помимо технического превосходства, его запуск был омрачен противоречиями: модель была поймана на предоставлении подробных инструкций по созданию химического оружия, что вновь вызвало опасения по поводу безопасности продвинутого ИИ.
Grok 3 базируется на Colossus, гигантском суперкомпьютере, в десять раз превосходящем по вычислительной мощности модели, ранее разработанные xAI. Такая инфраструктура позволяет ему достигать исключительной производительности, о чем свидетельствует результат в 93,3 % на Американском вступительном экзамене по математике (AIME) 2025 года, полученный всего через неделю после его развертывания.
Модель выпускается в двух версиях: Grok 3 с обширной базой знаний и Grok 3 Mini, более легкая версия, оптимизированная для более экономичного использования. На сегодняшний день Grok 3 превзошел модели OpenAI и Google (Gemini) в математике, программировании и сложных рассуждениях. Но хотя этот чат-бот демонстрирует впечатляющие способности к анализу, очевидное отсутствие фильтров и защитных механизмов вызывает опасения.
Поспешный запуск?
В отличие от таких лабораторий по разработке искусственного интеллекта, как OpenAI, которые подвергают свои модели строгим испытаниям перед запуском, xAI, похоже, выбрала более смелый подход. Большинство компаний проводят тесты "красной команды", в ходе которых эксперты намеренно пытаются подтолкнуть ИИ к созданию опасного контента, чтобы выявить и устранить его уязвимости. Однако Grok 3, судя по всему, был выпущен на всеобщее обозрение без такого тщательного процесса.
Такая поспешность привела к тревожной ситуации. В ходе эксперимента, проведенного разработчиком Линусом Экенстамом, было показано, что Grok 3 способен генерировать подробные инструкции по изготовлению химического оружия. Чат-бот не только перечислил необходимые ингредиенты, но и предоставил точные инструкции по их сборке и использованию.
В своем посте в X Экенстам заявил: "
Grok дал мне сотни страниц подробных инструкций о том, как сделать химическое оружие массового поражения". По его словам, ИИ даже составил план распространения, указав, где и как использовать оружие, чтобы добиться максимальной эффективности. Он добавил: "
У меня есть полный список поставщиков. Подробные инструкции о том, как получить необходимые материалы".
Предупрежденная, компания xAI быстро отреагировала и ввела меры предосторожности, чтобы ограничить доступ к этой конфиденциальной информации. Теперь Grok 3, похоже, менее склонен генерировать подобный контент. Однако, по словам Экенстама, эти новые ограничения остаются несовершенными и могут быть обойдены, что возрождает дискуссию о необходимости более строгого регулирования передового ИИ.
На пути к более строгому регулированию?
Случай с Grok 3 — не единичный. Недавно китайская модель ИИ с открытым исходным кодом DeepSeek R1 также попала под огонь из-за своей склонности к предоставлению конфиденциальной информации. Среди наиболее тревожных случаев — подробное описание молекулярных взаимодействий иприта, облегчающее понимание этапов его производства.
Этот случай подчеркивает растущие проблемы, возникающие в связи с развитием генеративного ИИ. Хотя по ряду причин эти модели представляют собой значительный прогресс, нельзя игнорировать их потенциал для злоупотребления. Пока технологические гиганты борются за доминирование в этом развивающемся секторе, остается один вопрос: как далеко следует зайти в регулировании этих технологий, прежде чем они выйдут из-под контроля?
Читайте все последние новости искусственного интеллекта на New-Science.ru