Em 2026, a Inteligência Artificial (IA) consolidou-se como a espinha dorsal do atendimento ao cliente no Brasil. Dos grandes bancos às pequenas lojas de e-commerce, os chatbots generativos são responsáveis por mediar quase todas as interações comerciais. No entanto, o avanço tecnológico trouxe consigo um desafio jurídico sem precedentes: as alucinações algorítmicas.
Quando uma IA gera informações falsas com extrema confiança, prometendo descontos inexistentes ou garantindo características técnicas que um produto não possui, cria-se um conflito de consumo. Surge, então, a questão central: quem é o responsável jurídico pelos erros cometidos por uma entidade não humana?
O Fenômeno da Alucinação e o Erro de Precificação
No contexto técnico, a alucinação ocorre quando o modelo de linguagem processa dados de forma probabilística e gera uma resposta que, embora gramaticalmente perfeita, é factualmente incorreta. Para o consumidor, isso se traduz em promessas de preços irrisórios ou prazos de entrega impossíveis.
Para o Direito do Consumidor brasileiro, a IA é juridicamente classificada como um preposto da empresa. Isso significa que o robô atua em nome do fornecedor, exatamente como um funcionário humano faria. Se o bot afirma que um produto custa uma fração do seu valor real por um erro de processamento, a empresa não pode simplesmente alegar “falha técnica” para se eximir da responsabilidade. O risco de utilizar uma ferramenta automatizada para reduzir custos operacionais deve ser suportado integralmente por quem lucra com ela.
O Direito à Informação Clara e Precisa (Art. 6º do CDC)
O pilar que sustenta a defesa do consumidor diante da IA é o Artigo 6º, inciso III, do CDC. Este artigo estabelece o dever de transparência: o consumidor tem o direito básico à informação adequada sobre produtos e serviços, incluindo preço, qualidade e riscos.
Em 2026, a jurisprudência brasileira amadureceu para entender que a “complexidade do algoritmo” não serve como escusa para a violação desse dever. Se uma empresa decide implementar um sistema de IA, ela deve garantir que a ferramenta seja capaz de fornecer dados 100% precisos antes de torná-la vinculante. Caso o sistema apresente dados contraditórios, a empresa está ferindo o princípio da transparência, e o ônus da prova de que a informação foi prestada corretamente recai sempre sobre o fornecedor.
O Princípio da Vinculação da Oferta (Art. 30 do CDC)
Um dos pontos mais sensíveis é o Artigo 30 do CDC, que trata do princípio da vinculação. Toda informação suficientemente precisa, veiculada por qualquer meio (inclusive um chat de IA), obriga o fornecedor a cumpri-la.
O Limite da Boa-Fé Objetiva
Embora o CDC proteja o consumidor, o Judiciário aplica o Princípio da Boa-Fé Objetiva para evitar o enriquecimento sem causa.
- Erro Grosseiro: Se a IA anunciar um carro de luxo por R$ 1,00, entende-se que houve um erro óbvio e o consumidor, agindo de boa-fé, deveria perceber a impossibilidade do valor. Nesses casos, a empresa geralmente não é obrigada a entregar o produto.
- Valor Plausível: Se o erro resultar em um desconto de 40% ou 50%, valores comuns em liquidações, a oferta é considerada plausível. Nesse cenário, o “bot” vinculou a empresa, que será obrigada a honrar o preço sob pena de descumprimento de oferta.
Responsabilidade Objetiva e o Risco do “Fortuito Interno”
No Brasil, a responsabilidade civil do fornecedor é objetiva. Isso significa que não é necessário provar que o programador teve a intenção de errar ou que a empresa agiu com culpa. Basta a comprovação do defeito no serviço (a informação errada) e o dano causado.
As empresas frequentemente tentam alegar que o erro da IA foi um “fato de terceiro” ou um “evento imprevisível”. Contudo, as diretrizes acadêmicas recentes (como as da UNICAMP e PUC Minas) reforçam que falhas em softwares de IA configuram fortuito interno. Ou seja, são riscos inerentes à atividade econômica da empresa. Se você coloca uma IA para atender o público, você assume o risco de suas falhas técnicas.
Como o Consumidor Deve se Proteger em 2026
Diante de um erro cometido por uma IA, o consumidor deve adotar uma postura estratégica para garantir seus direitos:
- Geração de Provas Digitais: Chatbots podem ser atualizados e conversas podem ser apagadas pela empresa. É vital fazer capturas de tela (prints) que mostrem o erro, a identificação da empresa e o registro de data e hora.
- Exigência do Cumprimento Forçado: Com base no Artigo 35 do CDC, se o fornecedor se recusar a cumprir a oferta da IA, o consumidor pode exigir judicialmente a entrega do produto pelo preço anunciado ou a rescisão do contrato com perdas e danos.
- Uso de Canais de Reclamação: Plataformas como o Consumidor.gov.br são fundamentais para registrar o erro. Muitas vezes, as empresas resolvem o conflito para evitar que a falha do algoritmo chegue ao Judiciário, o que geraria precedentes negativos.
O Futuro da Regulação: Transparência Algorítmica
Conforme discutido no ebook da PUC Minas sobre o Estado de Direito e a IA, o futuro exige uma regulação mais rígida sobre a Transparência Algorítmica. Em breve, as empresas poderão ser obrigadas a informar ao consumidor exatamente quais dados a IA utiliza para tomar decisões de crédito ou preços dinâmicos. A auditoria humana sobre o erro da máquina passará de uma “boa prática” para uma obrigação legal estrita, visando evitar discriminações algorítmicas e abusos de poder econômico.
Referências Consultadas:
- PUC Minas: A Inteligência Artificial a (De)serviço do Estado de Direito
- UNICAMP: Diretrizes para o Uso de Inteligência Artificial e Responsabilidade
- Código de Defesa do Consumidor: Artigos 6º, 30 e 35.
Leia também:






































































