Выберите язык

Russian

Down Icon

Выберите страну

America

Down Icon

xAI винит в одержимости Грока идеей геноцида белых «несанкционированную модификацию»

xAI винит в одержимости Грока идеей геноцида белых «несанкционированную модификацию»

xAI обвинила «несанкционированную модификацию» в ошибке своего чат-бота Grok на базе искусственного интеллекта, из-за которой Grok неоднократно упоминал «геноцид белых в Южной Африке» при вызове в определенных контекстах в X.

В среду Grok начал отвечать на десятки постов на X с информацией о геноциде белых в Южной Африке, даже в ответ на не связанные с этим темы. Странные ответы исходили из учетной записи X для Grok, которая отвечает пользователям сгенерированными ИИ постами, когда человек отмечает «@grok».

Согласно сообщению, опубликованному в четверг на официальном аккаунте X компании xAI, в среду утром было внесено изменение в системную подсказку бота Grok — высокоуровневые инструкции, управляющие поведением бота, — которое предписывало Grok предоставить «конкретный ответ» на «политическую тему». xAI заявляет, что эта настройка «нарушила [ее] внутреннюю политику и основные ценности», и что компания «провела тщательное расследование».

Мы хотим сообщить вам об инциденте, который произошел вчера с нашим ботом-ответчиком Grok на X. Что произошло:

14 мая примерно в 3:15 утра по тихоокеанскому времени в запрос бота-ответчика Grok на X было внесено несанкционированное изменение. Это изменение предписывало Grok предоставить…

— xAI (@xai) 16 мая 2025 г.

Это уже второй раз, когда xAI публично признала, что несанкционированное изменение кода Grok привело к неоднозначной реакции ИИ.

В феврале Grok на короткое время подверг цензуре нелестные упоминания Дональда Трампа и Илона Маска, миллиардера, основателя xAI и владельца X. Игорь Бабушкин, ведущий инженер xAI, сказал, что недобросовестный сотрудник приказал Grok игнорировать источники, в которых упоминалось, что Маск или Трамп распространяют дезинформацию, и что xAI отменил это изменение, как только пользователи начали указывать на это.

В четверг компания xAI заявила, что собирается внести ряд изменений, чтобы предотвратить возникновение подобных инцидентов в будущем.

Начиная с сегодняшнего дня xAI будет публиковать системные подсказки Grok на GitHub, а также журнал изменений. Компания заявляет, что также «введет дополнительные проверки и меры», чтобы гарантировать, что сотрудники xAI не смогут изменять системные подсказки без проверки, и создаст «круглосуточную группу мониторинга для реагирования на инциденты с ответами Grok, которые не попадают в автоматизированные системы».

Событие Techcrunch

Беркли, Калифорния | 5 июня

ЗАРЕГИСТРИРУЙТЕСЬ СЕЙЧАС

Несмотря на частые предупреждения Маска об опасностях неконтролируемого ИИ , xAI имеет плохую репутацию в плане безопасности ИИ. Недавний отчет показал, что Grok раздевал фотографии женщин, если его об этом просили. Чат-бот также может быть значительно более грубым, чем ИИ, такие как Gemini и ChatGPT от Google, ругаясь без особых ограничений.

Исследование SaferAI, некоммерческой организации, направленное на повышение ответственности лабораторий ИИ, показало, что xAI имеет низкие рейтинги безопасности среди своих аналогов из-за своих «очень слабых» практик управления рисками . Ранее в этом месяце xAI пропустила установленный ею самим срок публикации окончательной версии структуры безопасности ИИ.

techcrunch

techcrunch

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow