Sélectionner la langue

French

Down Icon

Sélectionnez un pays

England

Down Icon

xAI attribue l'obsession de Grok pour le génocide blanc à une « modification non autorisée »

xAI attribue l'obsession de Grok pour le génocide blanc à une « modification non autorisée »

xAI a imputé à une « modification non autorisée » un bug dans son chatbot Grok alimenté par l'IA qui a amené Grok à faire référence à plusieurs reprises au « génocide blanc en Afrique du Sud » lorsqu'il était invoqué dans certains contextes sur X.

Mercredi, Grok a commencé à répondre à des dizaines de publications sur X contenant des informations sur le génocide des Blancs en Afrique du Sud, même sur des sujets sans rapport. Ces réponses étranges provenaient du compte X de Grok, qui répond aux utilisateurs par des publications générées par l'IA dès qu'une personne tague « @grok ».

Selon un message publié jeudi sur le compte X officiel de xAI, une modification a été apportée mercredi matin à l'invite système du bot Grok - les instructions de haut niveau qui guident le comportement du bot - qui a demandé à Grok de fournir une « réponse spécifique » sur un « sujet politique ». xAI affirme que la modification « a violé [ses] politiques internes et ses valeurs fondamentales » et que l'entreprise a « mené une enquête approfondie ».

Nous souhaitons vous informer d'un incident survenu hier avec notre robot de réponse Grok sur X. Que s'est-il passé :

Le 14 mai vers 3h15 PST, une modification non autorisée a été apportée à l'invite du bot de réponse Grok sur X. Cette modification, qui demandait à Grok de fournir un…

— xAI (@xai) 16 mai 2025

C'est la deuxième fois que xAI reconnaît publiquement qu'une modification non autorisée du code de Grok a amené l'IA à réagir de manière controversée.

En février, Grok a brièvement censuré des mentions peu flatteuses de Donald Trump et d'Elon Musk, le fondateur milliardaire de xAI et propriétaire de X. Igor Babuschkin, un responsable de l'ingénierie de xAI, a déclaré que Grok avait reçu l'ordre d'un employé malveillant d'ignorer les sources qui mentionnaient Musk ou Trump diffusant de la désinformation, et que xAI avait annulé le changement dès que les utilisateurs ont commencé à le signaler.

xAI a déclaré jeudi qu'il allait apporter plusieurs changements pour éviter que des incidents similaires ne se reproduisent à l'avenir.

À compter d'aujourd'hui, xAI publiera les invites système de Grok sur GitHub, ainsi qu'un journal des modifications. L'entreprise annonce également la mise en place de contrôles et de mesures supplémentaires pour garantir que les employés de xAI ne puissent pas modifier l'invite système sans vérification préalable, et la création d'une équipe de surveillance 24h/24 et 7j/7 pour répondre aux incidents liés aux réponses de Grok qui ne sont pas détectés par les systèmes automatisés.

Événement Techcrunch

Berkeley, Californie | 5 juin

INSCRIVEZ-VOUS MAINTENANT

Malgré les fréquents avertissements d'Elon Musk sur les dangers d' une IA non maîtrisée , xAI affiche un bilan médiocre en matière de sécurité. Un rapport récent a révélé que Grok déshabillait des photos de femmes lorsqu'on le lui demandait. Le chatbot peut également être beaucoup plus grossier que des IA comme Gemini et ChatGPT de Google, jurant sans retenue.

Une étude menée par SaferAI, une organisation à but non lucratif visant à améliorer la responsabilisation des laboratoires d'IA, a révélé que xAI se classait mal en matière de sécurité par rapport à ses pairs, en raison de ses pratiques de gestion des risques « très faibles » . Plus tôt ce mois-ci, xAI a manqué le délai qu'elle s'était imposé pour publier un cadre de sécurité finalisé pour l'IA.

techcrunch

techcrunch

Nouvelles similaires

Toutes les actualités
Animated ArrowAnimated ArrowAnimated Arrow