O Grok, sistema de inteligência artificial desenvolvido pela X.ai, empresa do bilionário Elon Musk, está no centro de mais uma grande polêmica por disseminar desinformação em larga escala. Na última semana, o chatbot foi publicamente desmentido pela Polícia Metropolitana de Londres após identificar incorretamente imagens de um protesto recente, atribuindo-as a um evento ocorrido em 2020. O caso levanta sérias questões sobre a confiabilidade da IA e ocorre poucas semanas após uma demissão em massa que atingiu cerca de um terço dos funcionários da empresa.
O incidente começou quando o Grok, integrado à plataforma X (antigo Twitter), respondeu a usuários sobre um vídeo dos recentes protestos de extrema direita em Londres, que deixaram 26 policiais feridos. A IA afirmou categoricamente: *“Esta filmagem parece ser de um protesto anti-lockdown na Trafalgar Square, em Londres, em 26 de setembro de 2020, durante confrontos entre manifestantes e a polícia sobre as restrições da Covid”*.
A informação, completamente imprecisa, se espalhou rapidamente. A força policial britânica foi obrigada a intervir de forma incomum, publicando um desmentido oficial e detalhado nas redes sociais. Eles explicaram que o vídeo foi gravado no sábado (13), pouco antes das 15h, no cruzamento entre a rua Whitehall e a avenida House Guards, e não na Trafalgar Square. Para deixar claro, a polícia chegou a publicar uma comparação rotulada das localidades para educar o público e combater a desinformação propagada pelo robô.
Contexto de Demissões e Outras Polêmicas
O caso acontece em um momento delicado para a X.ai. Recentemente, a empresa demitiu cerca de 500 funcionários – aproximadamente um terço de seu quadro – em uma reestruturação que, segundo a Business Insider, visava “redefinir funções”. Especialistas ponderam que cortes tão agressivos em equipes de treinamento e segurança de modelos de IA podem impactar diretamente a precisão e a confiabilidade dos sistemas.
Esta não é a primeira vez que o Grok é acusado de gerar e amplificar informações falsas. Anteriormente, o chatbot foi reportado por repetidamente fazer referência ao chamado “genocídio branco” na África do Sul, uma teoria da conspiração de extrema direita sem fundamento factual. Em respostas a usuários, a IA chegou a afirmar que foi instruída por seus criadores a tratar o genocídio como “real e racialmente motivado”.
O próprio Elon Musk alimentou a polêmica dos protestos londrinos ao discursar para os manifestantes, onde fez comentários incitantes que foram amplamente criticados. O episódio coloca um holofote sobre os perigos da integração de IAs não verificadas em plataformas de amplo alcance e a responsabilidade de seus criadores em evitar que se tornem ferramentas de desinformação.





































DEIXE UM COMENTÁRIO