xAI culpa a obsessão de Grok com o genocídio branco por uma 'modificação não autorizada'

A xAI culpou uma "modificação não autorizada" por um bug em seu chatbot Grok com tecnologia de IA que fez com que Grok se referisse repetidamente ao "genocídio branco na África do Sul" quando invocado em certos contextos no X.
Na quarta-feira, Grok começou a responder a dezenas de postagens no X com informações sobre o genocídio branco na África do Sul, mesmo em resposta a assuntos não relacionados. As respostas estranhas vieram da conta X do Grok, que responde aos usuários com postagens geradas por IA sempre que alguém marca "@grok".
De acordo com uma publicação de quinta-feira da conta oficial X da xAI, uma alteração foi feita na quarta-feira de manhã no prompt do sistema do bot Grok — as instruções de alto nível que orientam o comportamento do bot — que instruíam o Grok a fornecer uma "resposta específica" sobre um "tópico político". A xAI diz que o ajuste "violou [suas] políticas internas e valores essenciais" e que a empresa "conduziu uma investigação completa".
Gostaríamos de atualizá-lo sobre um incidente que aconteceu com nosso bot de resposta Grok no X ontem. O que aconteceu:
Em 14 de maio, aproximadamente às 3h15 PST, uma modificação não autorizada foi feita no prompt do bot de resposta do Grok no X. Essa alteração, que instruiu o Grok a fornecer um…
— xAI (@xai) 16 de maio de 2025
É a segunda vez que a xAI reconhece publicamente que uma alteração não autorizada no código do Grok fez com que a IA respondesse de maneiras controversas.
Em fevereiro, a Grok censurou brevemente menções pouco lisonjeiras a Donald Trump e Elon Musk, o bilionário fundador da xAI e dono da X. Igor Babuschkin, um líder de engenharia da xAI, disse que a Grok havia sido instruída por um funcionário desonesto a ignorar fontes que mencionassem Musk ou Trump espalhando informações falsas, e que a xAI reverteu a mudança assim que os usuários começaram a apontá-la.
A xAI disse na quinta-feira que fará várias mudanças para evitar que incidentes semelhantes ocorram no futuro.
A partir de hoje, a xAI publicará os prompts do sistema da Grok no GitHub, bem como um changelog. A empresa afirma que também "implementará verificações e medidas adicionais" para garantir que os funcionários da xAI não possam modificar o prompt do sistema sem revisão e estabelecerá uma "equipe de monitoramento 24 horas por dia, 7 dias por semana, para responder a incidentes com as respostas da Grok que não sejam detectados por sistemas automatizados".
Evento Techcrunch
Berkeley, CA | 5 de junho
REGISTRE-SE AGORAApesar dos frequentes alertas de Musk sobre os perigos da IA não controlada , a xAI tem um histórico ruim de segurança em IA. Um relatório recente descobriu que Grok tirava fotos de mulheres quando solicitado. O chatbot também pode ser consideravelmente mais grosseiro do que IAs como o Gemini e o ChatGPT, do Google, xingando sem muita moderação.
Um estudo da SaferAI, uma organização sem fins lucrativos que visa aprimorar a responsabilização dos laboratórios de IA, constatou que a xAI tem uma classificação ruim em segurança entre seus pares, devido às suas práticas de gestão de risco "muito fracas" . No início deste mês, a xAI não cumpriu o prazo autoimposto para publicar uma estrutura de segurança de IA finalizada.
techcrunch