95% dos agentes de IA no Brasil falharam. Os outros 5% não têm tecnologia melhor.
Têm governança. É isso que decide se você vai embora com resultado ou acaba financiando a curva de aprendizado dos fornecedores.
No Agentic Summit 2025, na FAAP em São Paulo, um número apareceu sem cerimônia e mudou o tom da sala inteira: 95% dos agentes de IA implementados no Brasil falharam antes de gerar qualquer impacto financeiro mensurável.
Não por limitação do modelo nem por falta de investimento, pois a tecnologia funciona. A organização por trás dela, não.
Esse dado deveria incomodar qualquer CEO que, nos últimos 18 meses, aprovou orçamentos de IA esperando retorno. Porque o que ele revela não é uma falha técnica, mas sim uma falha de arquitetura decisória.
A armadilha da facilidade
Existe um paradoxo que poucos nomeiam: nunca foi tão fácil criar um agente de IA e nunca foi tão difícil fazê-lo funcionar em uma organização real.
Plataformas no-code permitem que qualquer pessoa monte um agente em minutos. A barreira técnica de entrada praticamente desapareceu. E é exatamente aí que a armadilha se fecha.
A facilidade de criação gera uma falsa sensação de domínio. Líderes assistem a demonstrações impressionantes, aprovam projetos-piloto e acreditam, genuinamente, que o trabalho está feito. Não está. Está apenas começando.
Criar o agente é o equivalente a contratar um executivo brilhante e colocá-lo para trabalhar sem descrição de cargo, sem alçada definida, sem metas claras e sem consequências.
Qualquer conselheiro reconhece que isso é uma receita para o desastre quando se trata de pessoas. Mas quando se trata de agentes autônomos, essa mesma liderança aceita o vazio organizacional como se fosse normal.
O que o caso da Ambev revela (e o que ele esconde)
Em 2018, Jorge Paulo Lemann participou de um debate no Milken Institute, na Califórnia, sobre estratégia e liderança na era da disrupção. Um dos homens mais ricos do mundo, dono de negócios como a própria Ambev e o Burger King, foi direto: “Sou um dinossauro apavorado. Eu tenho vivido neste mundo confortável de marcas antigas e de grandes volumes, nada mudando muito. E, de repente, estamos vivendo disrupções de todas as formas.”
Sete anos depois, a Ambev demonstrou que, em poucos meses, mapeou 6 mil tarefas automatizáveis. Resultado: automatizou 12% das comunicações em vídeo e por e-mail. Com todo o capital, talento e infraestrutura que uma operação desse porte tem.
O dado isolado parece modesto. A lição vai além do que a maioria está disposta a reconhecer.
O erro inicial, que a própria liderança admitiu publicamente, foi focar na ferramenta em vez do processo. O resultado veio quando mudaram a abordagem: letramento das equipes, revisão de fluxos, supervisão contínua. A automação liberou entre 40% e 50% do tempo de TI para atividades estratégicas. O ganho veio da reorganização, não do agente.
Se Lemann, em 2018, já reconhecia estar com medo e lutando para se ajustar, imagine o que acontece quando uma empresa de 500 ou 2.000 pessoas decide “implementar IA” depois de assistir a uma apresentação de 45 minutos. Sem o capital da Ambev. Sem a sofisticação operacional e a disposição para admitir o erro e recomeçar.
Piloto aprovado. Ferramenta instalada. Entusiasmo inicial. Abandono silencioso. E ninguém no conselho faz a pergunta óbvia: por que paramos de falar sobre aquele projeto de IA?
O filtro que 95% das empresas não têm
Entre os casos do Agentic Summit, o da Eurofarma oferece o contraste mais instrutivo.
Enquanto a maioria das empresas corria para implementar, a Eurofarma criou um comitê multidisciplinar, reunindo TI, segurança, jurídico, marketing e gestão de mudanças, com uma função radical na cultura corporativa brasileira: questionar antes de aprovar.
Qual é o problema real? O que esperamos como resultado e como vamos medir? Quem é o dono da iniciativa depois que o piloto termina? Perguntas básicas. E são. O que as torna extraordinárias é que quase ninguém as está fazendo.
O dado que deveria tirar o sono de qualquer conselho
Menos de 1% dos executivos brasileiros têm formação técnica em inteligência artificial. O dado, apresentado pela AI Brasil em um evento recente, tem uma implicação direta: a maioria dos líderes que aprova, financia e supervisiona projetos de IA não consegue distinguir um chatbot de atendimento de um agente autônomo que toma decisões operacionais.
E não é um problema exclusivamente brasileiro. Uma pesquisa publicada em abril de 2026 por pesquisadores da Queensland University of Technology, analisando as 500 maiores empresas listadas na bolsa australiana, encontrou que mais da metade não tem nenhum diretor com formação STEM (Science, Technology, Engineering, and Mathematics) no seu conselho. A representação técnica passou de 8% para 13% em 15 anos. Advogados, contadores e executivos financeiros ainda ocupam 42% dos assentos. Mesmo em empresas de tecnologia e saúde, os contadores superam os especialistas técnicos em número.
O mesmo estudo mostra que empresas com maior representação técnica nos conselhos investem mais em inovação e são valorizadas mais alto pelos investidores. O problema não é a falta de evidência, mas a inércia estrutural.
Quando um CEO não entende a diferença entre esses dois mundos, três coisas acontecem de forma sistemática: investimentos são alocados sem critério claro de priorização, resultados são cobrados com métricas erradas, e fracassos são atribuídos à tecnologia quando a causa real é a gestão.
O IDC FutureScape 2026 é direto: até 2030, até 20% das maiores organizações do mundo enfrentarão processos judiciais, multas e demissões de CIOs devido a controles inadequados sobre agentes de IA. Ao mesmo tempo, projeta que 60% dos CEOs do G2000 usarão IA agêntica para decisões estratégicas e planejamento de conselho.
A diferença entre um destino e outro não está na tecnologia escolhida. Está na governança que sustenta a operação.
O mundo está regulando. O Brasil ainda está instalando.
A Gartner prevê que mais de 40% dos projetos de IA agêntica serão cancelados até o fim de 2027, não por falha técnica, mas por serem experimentos impulsionados pelo hype, sem estratégia por trás. Dos milhares de fornecedores que se apresentam como “agênticos”, apenas cerca de 130 têm capacidade real. O restante rebatiza os chatbots existentes com um vocabulário novo.
A Fundação Linux criou a Agentic AI Foundation para estabelecer padrões de interoperabilidade e de governança. O EU AI Act entra em plena vigência em agosto de 2026, com penalidades de até 6% da receita global. A Forrester projeta que 60% das empresas da Fortune 100 nomearão um líder dedicado à governança de IA.
No Brasil, na maioria, estamos instalando coisas.
A mudança mais importante de 2026 não é técnica. É a passagem de “human-in-the-loop“, em que o humano aprova cada decisão, para “human-on-the-loop“, em que o humano supervisiona e intervém nas exceções.
Essa transição muda fundamentalmente o papel da liderança. E exige uma competência que a maioria das organizações não desenvolveu: saber o que pode ser delegado, em que nível de autonomia, com quais controles e sob a responsabilidade de quem.
O verdadeiro gargalo
Depois de mais de dez anos trabalhando com transformação organizacional, o padrão que vejo é sempre o mesmo.
Empresas instalam a ferramenta e acham que se transformaram. Mas se a cultura, os processos e os modelos de decisão permanecerem idênticos, a ferramenta não muda nada. Vira enfeite caro.
O que os 95% de fracasso revelam não é que os agentes de IA não funcionam. É que as organizações brasileiras não estão estruturadas para operar com agentes. Não têm frameworks de governança. Não têm trilhas de auditoria. Não têm políticas claras sobre o que um agente pode ou não fazer de forma autônoma. Não há um humano nomeado como responsável por cada decisão que um agente toma.
Sem isso, cada agente implantado é uma aposta, não uma estratégia.
A velocidade de adoção impressiona na apresentação. O que gera resultado é a profundidade da mudança. Profundidade exige redesenho de processos, definição de alçadas, construção de competências de supervisão, criação de comitês de governança, e desenvolvimento de métricas de performance para agentes autônomos. Todo o tecido organizacional que sustenta a operação depois que o fornecedor vai embora.
A pergunta que falta nos conselhos brasileiros
Existe uma pergunta que quase nenhum conselho de administração no Brasil está fazendo, e deveria estar:
Para cada agente de IA que opera na nossa organização, existe um humano formalmente responsável pelas decisões que esse agente toma?
Se a resposta for não, e na maioria dos casos é, a organização opera com risco não mapeado. Não há risco técnico. Risco de governança, de compliance, de reputação. O tipo que aparece na ata do conselho, depois que o dano já foi cometido.
Um agente que aprova crédito indevido. Um agente que publica conteúdo inadequado. Um agente que prioriza pacientes de forma enviesada. Em todos esses cenários, a tecnologia funcionou: executou o que foi programada para executar. O erro não foi do modelo. Foi de quem não desenhou a arquitetura de delegação antes de conceder ao agente o poder de decidir.
O que os 5% que funcionam têm em comum
Os casos que geram resultados reais compartilham três características que não têm nada a ver com a sofisticação do modelo ou da plataforma.
Primeiro: clareza sobre o problema. Eles não implantam agentes para “inovar”, mas para resolver um problema específico, com critérios de sucesso definidos antes da implementação.
Segundo: governança como infraestrutura, não como burocracia. Definem quem supervisiona, como se mede e quando se intervém, antes de ligar o agente.
Terceiro: autonomia progressiva. Começam como agentes observadores, evoluem para operadores com revisão humana e só se tornam autônomos quando há evidência suficiente. Cada promoção tem critérios mensuráveis e aprovação formal.
Isso não é gestão de tecnologia. É gestão, ponto. Os mesmos princípios que um conselheiro experiente aplicaria para delegar autoridade a um executivo humano, escopo definido, alçada clara, métricas de performance, supervisão proporcional ao risco, se aplicam integralmente a agentes de IA.
A diferença é que o agente é mais rápido, mais barato e não negocia salário. Mas também não tem julgamento moral, não entende o contexto político, não lê entre as linhas e não sabe quando parar.
2026 é o ano da cobrança
Não é mais aceitável aprovar orçamentos de IA sem critérios claros de sucesso. Não dá mais para ter agentes operando sem que alguém no C-level saiba quantos são, o que fazem e quem responde por eles. Tratar a governança de IA como um problema de TI é um erro de categoria: trata-se, fundamentalmente, de um problema de governança corporativa.
A janela é estreita. Entre 12 e 18 meses, as grandes consultorias globais vão montar práticas estruturadas de governança agêntica no Brasil. Quem já tiver clientes operando, casos documentados e reputação construída terá uma posição que não se replica com investimento em marketing.
A pergunta real não é se a sua empresa vai usar IA. Essa decisão já foi tomada pelo mercado.
As perguntas são: a sua organização está estruturada para governar o que já implantou? E se não está, quem vai pagar o preço quando o primeiro agente errar de verdade?





