A IA não precisa de mais vendedores, mas de mais verdade
Quando empreendedores de moda ensinam a criar agentes de IA e plataformas de "vibe coding" expõem dados de 18 mil pessoas, está na hora de alguém abrir o jogo.
Eu preciso te contar algo que me incomoda há meses.
Abro o Instagram, o YouTube, o LinkedIn ou o TikTok e vejo um rosto conhecido. Um cara que eu acompanhava porque falava bem sobre marketing. Ou sobre finanças pessoais. Ou sobre produtividade. Gente que eu respeitava no território que dominava.
Hoje, esse mesmo rosto está me ensinando a “criar agentes de IA em 10 minutos” e a “faturar 6 dígitos com automação inteligente.” E eu sinto um frio na espinha.
O padrão que ninguém quer enxergar
Você já viu esse filme antes.
Em 2017, eram as criptomoedas. Todo mundo era “especialista em blockchain.” Veio o NFT, mesma turma, nova roupagem. Dropshipping. Marketing de afiliados. Cada onda traz os mesmos rostos, com a mesma urgência fabricada, vendendo a mesma promessa: “Você está ficando para trás.”
Agora é a inteligência artificial.
E, dessa vez, é mais perigoso. A tecnologia é real, a transformação vai acontecer e o impacto nos negócios e nas carreiras é concreto.
Mas não é só por isso. É porque os veículos de distribuição são mais poderosos do que em qualquer onda anterior. Newsletters com milhões de assinantes. Plataformas que constroem software com um prompt. A escala do alcance acompanhou a da tecnologia, e o oportunismo escalou junto.
Quando uma celebridade perdia quase 100% do valor investido num NFT de um desenho de macaco, a lição custava alguns milhares de reais. Quando alguém vende uma competência falsa em IA, o prejuízo pode ser uma carreira, um produto inteiro ou uma decisão estratégica sem volta.
O caso Lovable: quando o “vibe coding” encontra a realidade
Preciso te contar uma história que ilustra exatamente o que me preocupa.
“Vibe coding” foi eleita a palavra do ano de 2025 pelo dicionário Collins. A ideia é sedutora: você descreve o que quer em linguagem natural; a IA constrói o software. Não precisa saber programar, nem entender de banco de dados, nem pensar em segurança. Só vibes.
O Lovable é uma das plataformas mais populares desse movimento. Milhões de usuários. Investidores de peso. Celebrada em newsletters, podcasts e threads, a democratização do desenvolvimento de software.
Em fevereiro de 2026, um pesquisador de segurança chamado Taimur Khan decidiu testar um app educacional que a própria Lovable exibia como um case de sucesso em sua página. O app tinha mais de 100 mil visualizações. Centenas de votos positivos. Usuários reais de universidades como UC Berkeley e UC Davis, além de instituições na Europa, na África e na Ásia. Parecia sólido.
Em poucas horas, Khan identificou 16 vulnerabilidades, das quais 6 eram críticas.
A mais absurda: a lógica de autenticação estava invertida. O sistema bloqueava quem estava logado e liberava o acesso a quem não tinha conta. É o equivalente digital de trancar a porta para os moradores e deixá-la aberta para estranhos. Um revisor humano com conhecimentos básicos de segurança teria pego isso em segundos. Mas a IA otimizou para “código que funciona”, não para “código seguro.” E ninguém revisou.
Resultado: quase 19 mil registros de usuários ficaram expostos. Nomes, e-mails, funções acadêmicas, tudo acessível sem login.
E esse não era um caso isolado. Em uma análise mais ampla, pesquisadores escanearam 1.645 apps desenvolvidos na plataforma. Mais de 170 tinham bancos de dados completamente expostos, sem qualquer política de segurança configurada. Um scan independente de 100 apps feitos com ferramentas de vibe coding encontrou vulnerabilidades em 65% deles. Quase metade recebeu nota D em segurança.
Quando Khan reportou as falhas ao Lovable, o ticket de suporte foi encerrado. Só depois que os posts no Reddit acumularam milhares de votos positivos é que a equipe de segurança entrou em contato.
A questão aqui não é demonizar uma ferramenta. Ferramentas são ferramentas. A questão é o que acontece quando milhões de pessoas recebem a mensagem de que “qualquer um pode construir software com IA” e ninguém acrescenta a segunda metade da frase: “qualquer um pode construir software vulnerável com IA, e quem paga o preço são os usuários, não o criador.”
Quando o empreendedor de moda vira guru de IA
Vou dar um exemplo do padrão que me preocupa. E escolhi esse exemplo de propósito, porque é alguém que eu respeito.
Rony Meisler cofundou a Reserva, construiu um grupo de moda com faturamento superior a R$ 1,8 bilhão, vendeu o negócio e é uma referência legítima em varejo, cultura organizacional e liderança. Isso não está em discussão.
Mas hoje, no perfil dele no X, a descrição diz: “Falo sobre gestão, marketing e inteligência artificial.” A newsletter dele, o “Email do Rony”, conta com mais de 1,2 milhão de assinantes. E, nas edições recentes, ele ensina seus leitores a criar agentes de IA no Google Workspace, a montar robôs que fazem ligações automatizadas para clientes, e recomenda o Claude Code como uma ferramenta que “programa sozinha.” Em uma edição, ele recomendou o Lovable com entusiasmo, chamando de “muito, muito, muito foda.”
Sim, o mesmo Lovable cujas vulnerabilidades expuseram dados de milhares de pessoas.
Eu não estou dizendo que o Rony é desonesto. Acredito que ele está genuinamente empolgado com as possibilidades. E ele tem todo o direito de falar sobre o que quiser. Mas existe uma diferença entre experimentar uma ferramenta no seu próprio negócio e recomendar, para mais de um milhão de pessoas, que elas construam software, agentes e automações com tecnologias que você nunca implementou numa organização, nunca defendeu diante de um conselho pedindo explicações sobre governança de dados, e nunca acompanhou quando algo deu errado em produção.
Quando alguém com a credibilidade do Rony diz “usa essa ferramenta, é muito foda”, 1,2 milhão de pessoas escutam. Algumas vão construir aplicações que coletam dados de clientes, sem revisar a segurança, sem entender o que é Row Level Security, sem saber que a IA gerou uma lógica de autenticação invertida. E quando der problema, o Rony já vai estar na próxima edição da newsletter falando sobre outra coisa.
O próprio Rony já viveu esse roteiro. Na newsletter de março de 2026, ele contou que caiu na onda dos NFTs com o projeto Pistol Birds da Reserva. Nas palavras dele: vendeu, gerou barulho, mas morreu, porque, no fundo, ninguém entendia para que aquilo servia. A autocrítica é honesta, e eu respeito isso. Mas a mesma dinâmica está se repetindo com IA. A diferença é que dessa vez a escala de alcance dele é outra, e as consequências para quem segue o conselho são maiores.
Eu não estou tentando cancelar ninguém. Rony é um exemplo poderoso exatamente porque é alguém respeitado. É isso que torna o efeito mais amplificado. Se fosse um influenciador de quinta categoria, o dano seria menor.
O que eles não te contam
Saber usar o ChatGPT não é saber de IA. Assim como saber dirigir não faz de ninguém engenheiro mecânico.
Construir um agente que funcione numa demo de 3 minutos é outra coisa. Implementar uma estratégia de IA numa organização com pessoas reais, cultura arraigada, governança complexa e consequências concretas é completamente diferente.
A parte mais difícil da transformação por IA nunca foi a tecnologia, mas sim a liderança e o discernimento. Saber olhar para uma ferramenta brilhante e decidir que aquele não é o momento de usá-la. Isso não se aprende num tutorial de 10 minutos.
Eles não dizem isso porque não sabem. Nunca estiveram na sala onde essas decisões são tomadas. Nunca viram a cara de um CFO quando o projeto de IA estoura o orçamento, e não fazem ideia do que significa explicar a um conselho de administração por que os dados de 19 mil usuários foram expostos porque o agente construiu a autenticação ao contrário.
E agora temos números para comprovar: 65% dos apps desenvolvidos com ferramentas de vibe coding apresentavam falhas de segurança em uma análise independente. Código gerado por IA apresenta vulnerabilidades numa taxa entre 1,5 e 2 vezes maior do que o código escrito por humanos. Cada nova recomendação leviana de “usa essa ferramenta, é fácil” alimenta essa estatística.
O preço invisível
Existe um custo que ninguém calcula: o da confiança quebrada.
Quando um profissional compra um curso raso, aplica o que aprendeu, e falha, ele não perde só tempo e dinheiro. Perde a confiança na própria capacidade de aprender. Começa a associar “Inteligência Artificial” à frustração. A algo que “não é pra ele.”
Agora multiplique isso pelas consequências reais. 18.697 estudantes e professores tiveram seus dados expostos porque alguém desenvolveu um app educacional com IA, sem nenhum revisor humano responsável pela segurança. A plataforma tratou isso como um problema do usuário. O criador do app reconheceu as falhas só depois que o caso viralizou.
O Brasil perde mais um profissional que poderia estar se transformando de verdade. E ganha mais um cético que vai resistir à IA quando ela realmente puder ajudá-lo.
Isso me incomoda profundamente.
Porque a IA é, sim, para todos. Mas o caminho até ela precisa ser honesto, ter profundidade, e respeitar a inteligência de quem está aprendendo em vez de tratá-la como commodity de engajamento.
O que eu aprendi sentando na cadeira
Eu trabalho com consultoria e estratégia há anos. Sento com conselhos de administração. Desenho estratégias de IA para C-levels que precisam tomar decisões que afetam milhares de pessoas. Implemento o que outros só demonstram em slides.
E o que eu aprendi nesse caminho é desconfortável de dizer, mas preciso dizer: a maior parte do que está sendo ensinado sobre IA no Brasil é entretenimento disfarçado de educação.
Conteúdo que gera cliques, likes e uma falsa sensação de preparo. Assistir a um vídeo de cirurgia não te qualifica para operar. Mas é exatamente isso que está acontecendo com a IA no Brasil: gente consumindo conteúdo e saindo achando que está pronta.
A diferença entre informação e competência é a mesma que há entre ler uma receita e saber cozinhar para 200 pessoas sob pressão. Uma você absorve em 10 minutos. A outra leva anos e deixa cicatrizes.
Onde eu traço a linha
Não estou aqui para dizer que criadores de conteúdo não podem falar sobre IA. Podem e devem.
Estou aqui para traçar uma linha entre informação e formação, entre entretenimento e competência real. Quem surfa a onda e quem entende o que está debaixo da superfície do oceano são coisas diferentes, e a confusão entre as duas custa caro.
A linha não separa quem sabe tudo de quem não sabe nada. Separa quem assume a responsabilidade pelo que ensina de quem surfa a atenção sem carregar o peso das consequências. Porque o Lovable vai continuar existindo. O Rony vai continuar publicando. Os cursos de “agente de IA em 10 minutos” vão continuar vendendo. O que precisa mudar é a sua capacidade de distinguir quem te prepara de verdade de quem te vende a sensação de estar preparado.
Isso não é uma trend. É o futuro do seu trabalho, da sua empresa e da sua relevância profissional.
O que vem agora
Eu deveria ter feito isso antes. Mas não fiz e agora vou fazer.
É isso que o Radar Mirach existe para fazer: trazer clareza onde existe complexidade. E poucas áreas estão tão cheias de complexidade disfarçada de simplicidade quanto a adoção de IA no Brasil.
Por isso estou lançando Sinal e Ruído, uma série dentro do Radar Mirach dedicada a fazer exatamente o que um radar faz: separar o que importa do que é interferência. A cada edição, vou pegar um vídeo, um curso, uma ferramenta ou uma promessa que está circulando e mostrar, com contexto técnico e sem rodeios, o que está certo, o que está errado e o que é irresponsável.
Se você ainda não assina o Radar, inscreva-se aqui. É de graça.
Não vai ser sempre confortável. Vai incomodar. Mas se você toma decisões sobre IA na sua empresa ou na sua carreira, é melhor ter alguém separando o sinal do ruído do que descobrir a diferença depois que o estrago já está feito.
Me conta nos comentários: qual o pior conselho de IA que você já recebeu? E compartilha esse texto com alguém que precisa ler antes de investir tempo e dinheiro na próxima promessa vazia.




