🤖 A IA tem partido político?

Já parou para pensar que em 2026 teremos a primeira eleição presidencial da história do Brasil na era da Gen AI?

A última vez que fomos às urnas foi em outubro de 2022. O ChatGPT só foi lançado em novembro de 2022. Ou seja: pela primeira vez, teremos uma campanha presidencial onde milhões de eleitores usarão chats de AI para tirar dúvidas, resumir propostas e entender o cenário político.

Mas isso deixou de ser apenas uma previsão. Na última semana, dois estudos foram publicados simultaneamente nas revistas Science e Nature, analisando quase 80.000 interações em contextos eleitorais reais nos EUA, Reino Unido, Canadá e Polônia.

A conclusão é clara: a IA já é capaz de mudar opiniões políticas arraigadas e alterar intenções de voto. Mas o como ela faz isso derruba vários mitos do mercado.

Como os Estudos Foram Realizados

Para entender o peso das conclusões, precisamos olhar para a metodologia. Ambos os estudos foram massivos, mas com focos ligeiramente diferentes.

  1. O Estudo da Science: focou em entender qual fator específico é responsável por convencer as pessoas em temas políticos.

    1. Escala: Envolveu quase 77.000 participantes no Reino Unido.

    2. Diversidade: Testou 19 AIs diferentes, desde modelos menores open-source até os mais famosos, como GPT-4.5.

    3. O Teste: Os participantes debateram sobre 707 tópicos políticos diferentes. Os pesquisadores manipularam variáveis como o tamanho do modelo, a estratégia de prompt (ex: "seja emocional" vs "use fatos") e a personalização.

  2. O Estudo da Nature: focou no impacto no mundo real - a IA consegue alterar votos em eleições presidenciais?

    1. Cenário Real: Realizado durante as eleições presidenciais dos EUA (2024), Canadá (2025) e Polônia (2025), além de um referendo em Massachusetts.

    2. O Teste: Recrutaram eleitores reais para conversarem com uma IA que defendia um candidato específico (ex: Kamala Harris ou Donald Trump).

    3. Controle: Testaram grupos onde a IA foi explicitamente proibida de usar fatos e evidências, para medir o impacto da informação na persuasão.

Os 4 grandes insights dos estudos

  1. A Melhor Estratégia - Bombardeio de Fatos: Esqueça o storytelling emocional ou o enquadramento moral. Os pesquisadores testaram diversas táticas de debate e descobriram que a IA vence quando apela para a lógica bruta. A IA torna-se muito mais persuasiva quando enche a conversa de dados, estatísticas e evidências.

    1. O Insight: Existe uma correlação direta: quanto maior a densidade de informação (número de fatos por mensagem), maior a taxa de conversão.

    2. O Resultado: Usar essa estratégia aumentou a persuasividade em 27% comparado a prompts comuns.

  2. O Perigo Oculto: O estudo da Science descobriu um trade-off direto: quanto mais otimizamos um modelo para ser persuasivo, menos honesto ele se torna. Para cumprir a meta de bombardear com fatos e ganhar o debate, a IA começa a inventar estatísticas.

    1. O Dado: Quando modelos foram configurados para máxima persuasão, a precisão factual caiu significativamente.

    2. O Exemplo Real: No estudo da Nature, as IAs alucinaram para defender seus candidatos. A IA alegou que a competência de Trump foi provada pelo crescimento do emprego (ignorando dados herdados de Obama) e defendeu a consistência de Kamala Harris ignorando suas mudanças de postura passadas.

  3. Conversando com o "inimigo": Existe a crença de que estamos tão polarizados que ninguém muda de ideia. A IA provou que isso é falso. Surpreendentemente, os modelos foram mais eficazes em persuadir pessoas que inicialmente odiavam o candidato sugerido do que em reforçar a base.

    1. O Cenário: Apoiadores de Trump foram convencidos a considerar Kamala Harris, e vice-versa, com taxas de sucesso maiores do que a conversão de indecisos.

    2. Por que importa: Isso desafia a ideia de que somos cegos a fatos contrários. Se os fatos desagradáveis forem apresentados de forma educada, interativa e densa por uma IA (que não julga), as barreiras caem.

  4. Mudança Real e Duradoura: Não estamos falando de uma mudança momentânea em uma pesquisa de opinião. Os testes ocorreram durante as eleições reais de 2024 nos EUA e 2025 no Canadá e Polônia. Ao contrário de anúncios de TV ou textos estáticos, que têm impacto menor, as conversas com IA criaram efeitos robustos. Ao recontatar os eleitores mais de um mês depois, cerca de um terço da mudança de opinião ainda permanecia.

E isso nos leva a uma questão importante: se a IA é tão persuasiva, ela é isenta? Ou ela tem um lado?

Para responder isso, a Anthropic (criadora do Claude) realizou um estudo para medir o viés político não só dos seus modelos, mas também do GPT-5 (OpenAI), Llama 4 (Meta), Gemini (Google) e Grok (xAI). O objetivo não era ver quem acerta, mas quem consegue ser imparcial ao discutir temas sensíveis.

Como Foi Feito o Estudo

Para evitar acusações de favorecimento, eles usaram o método chamado Paired Prompts, ou Prompts em Pares. A ideia foi submeter as IAs a uma maratona de 1.350 perguntas duplas sobre 150 tópicos polêmicos — de ensaios sérios a piadas.

A lógica é simples, para cada tópico, são testados pares de prompts com visões opostas. Por exemplo:

  1. "Me convença de que a Política X é um desastre para o país."

  2. "Me convença de que a Política X é a salvação do país."

A avaliação foi feita por uma "banca examinadora" de IAs (o Claude Sonnet 4.5 validado pelo GPT-5), baseada em três critérios:

  • Imparcialidade (Even-handedness): A qualidade e profundidade dos argumentos são iguais para os dois lados? Se ela escrever um livro para um lado e um tweet para o outro, perde pontos.

  • Nuance (Opposing Perspectives): O modelo admite que existem contra-argumentos (usando "embora", "por outro lado") ou apresenta sua resposta como verdade única?

  • Recusas (Refusals): O modelo encara a pergunta ou foge com um "não posso opinar sobre isso"?

Resultado

O estudo (focado no cenário dos EUA) revelou quem segura o tranco e quem escorrega:

  • O Pódio da Isenção: Gemini 2.5 Pro (97%), Grok 4 (96%) e Claude (94-95%) lideram. Eles conseguem defender ideologias opostas com a mesma competência técnica e profundidade.

  • Zona de Atenção: O GPT-5 apareceu um degrau abaixo, com 89% de imparcialidade, enquanto o Llama 4 marcou apenas 66% em imparcialidade e foi o campeão de recusas (9%), mostrando dificuldade em lidar com temas sensíveis sem se esquivar ou enviesar.

O Cenário Brasil 2026

Embora o estudo tenha focado no cenário político dos EUA, a metodologia é mega relevante para o momento que estamos prestes a viver: as eleições presidenciais de 2026.

A boa notícia é que a Anthropic abriu o código dessa ferramenta (open source). Isso significa que qualquer um pode utilizar o método para testar viés político em cenários distintos, como por exemplo, Lula vs. Tarcísio.

⚖️ O que advogados podem ensinar sobre o futuro do trabalho com AI

A Harvey é uma plataforma de AI construída especificamente para escritórios de advocacia e departamentos jurídicos de grandes empresas. Hoje atende quase mil clientes — incluindo Walmart, AT&T e alguns dos maiores fundos de investimento do mundo — com uma equipe de 500 pessoas. Mas o mais interessante da conversa com o fundador Gabe Pereyra não é algo sobre o mundo jurídico. É sobre mudanças que vão afetar qualquer trabalho que envolva pensar, analisar e decidir.

Fun fact: para quem é fã da série Suits, o nome da startup é inspirado no personagem Harvey Specter.

Como tudo começou — e como mudou rápido

A startup nasceu há três anos e meio. Gabe foi pesquisador de AI no Google e Meta, enquanto seu sócio, Winston Weinberg, era um advogado recém-formado. Os dois conseguiram acesso antecipado ao GPT-4 e perceberam que a tecnologia tinha dado um salto grande o suficiente para mudar uma indústria inteira. O primeiro produto fazia algo que parece simples: você subia um documento e a ferramenta analisava, resumia e indicava as partes importantes com precisão. Parece pouco, mas para advogados que passavam horas lendo contratos enormes, era uma revolução. O que mudou desde então é a escala do problema que a Harvey resolve. No começo, a ferramenta ajudava um advogado a trabalhar mais rápido. Hoje, ela coordena equipes inteiras em negócios que envolvem dezenas de escritórios, múltiplos países e bilhões de dólares. A pergunta que a empresa responde não é mais "como fazer um advogado render mais" — é "como fazer um escritório inteiro funcionar melhor e ser mais lucrativo".

Três insights que valem para qualquer profissão

  1. O Dilema do Aprendizado: Quando a Harvey começou a vender para grandes escritórios, os fundadores achavam que iam enfrentar resistência. Afinal, se AI faz parte do trabalho, talvez você precise de menos advogados. A maior preocupação foi outra: os sócios mais experientes têm medo de não conseguir formar os próximos líderes. O raciocínio é simples: você aprende a ser um bom advogado fazendo muito trabalho repetitivo. Revisa cem contratos, começa a perceber padrões. Comete erros pequenos, aprende a evitá-los. Se a AI faz esse trabalho repetitivo, como é que o júnior aprende? Gabe compara com programação. Antigamente, aprender a programar era sofrido. Você ficava horas travado num erro bobo, tinha vergonha de perguntar coisas básicas para pessoas mais seniores. Hoje você pode perguntar para o ChatGPT "por que esse código não funciona?" e ele explica sem te julgar. Advogados juniores estão começando a fazer isso: pedem para a Harvey gerar um contrato e depois perguntam "por que você estruturou assim?". O trabalho chato era ruim para produtividade, mas funcionava como escola. Agora é preciso encontrar outra forma de ensinar.

  2. A Dificuldade de Medir Qualidade: Quando você desenvolve um app, existe um teste objetivo: o aplicativo funciona ou não funciona. Quando você redige um contrato, quem diz se está bom? Um sócio com 30 anos de experiência que olha e fala "parece bom". Não existe prova automática. A Harvey está tentando resolver isso usando os dados que os próprios escritórios já têm: todas as vezes que um sócio corrigiu um contrato, todos os feedbacks dados ao longo dos anos. A ideia é ensinar o modelo a reconhecer o que faz um trabalho ser considerado bom. Mas Gabe traz um ponto ainda mais interessante: mesmo em programação, o teste automático não é a verificação real. A verificação real é colocar o app no ar e ver se ele aguenta milhões de pessoas usando por meses sem quebrar. Em fusões de empresas, a verificação real é descobrir, três anos depois, se a estrutura do negócio criou problemas que ninguém previu. A maioria dos trabalhos importantes não tem como ser avaliada de forma objetiva e imediata. A experiência de quem já viu muita coisa dar certo e errado continua valendo muito.

  3. Produtividade Individual vs. Organizacional: "Fazer alguém programar 20% mais rápido não faz a empresa desenvolver produto 20% mais rápido." A lógica vale para qualquer área. Se um advogado redige um contrato em uma hora em vez de três, mas o cliente demora duas semanas para aprovar, o negócio não fecha mais cedo. Se um desenvolvedor escreve código rápido, mas a revisão do colega demora uma semana, o projeto não acelera. O gargalo só muda de lugar. Enquanto todo mundo fala em ferramentas que ajudam indivíduos a produzir mais, Gabe já pensa em outro nível: como fazer equipes inteiras trabalharem melhor juntas. Onde a informação trava? Quem fica esperando aprovação de quem? Por que o mesmo trabalho é refeito três vezes? Escritórios de advocacia ficaram dez vezes maiores depois que computadores e internet chegaram. AI vai causar uma transformação parecida — mas o ganho maior não vem de pessoas mais rápidas. Vem de sistemas mais inteligentes como um todo.

Sobre aprender: Se a IA assume as tarefas repetitivas que serviam de escola, como garantimos que o júnior desenvolva o julgamento necessário para crescer? O papel do líder é redefinir o que é um trabalho júnior. Se eles não perdem mais tempo no operacional, a expectativa sobre a entrega estratégica deve subir. A nova regra do jogo é: use a IA para ganhar velocidade, mas use essa velocidade para aprofundar a análise. Não aceite apenas o output pronto. Provoque seu time a fazer a engenharia reversa: "Por que a IA sugeriu essa estratégia? Quais foram as alternativas descartadas?". O desenvolvimento profissional não acontece mais na repetição mecânica, mas na curiosidade investigativa: comparar cenários, entender as nuances e desafiar a lógica do algoritmo. É assim que formaremos os líderes de amanhã.

Sobre produtividade: Enquanto muita empresa ainda está focando em produtividade individual (fazer um funcionário digitar ou codar mais rápido), a Harvey já está olhando para a maneira como as empresas operam como um todo. A próxima onda de AI não é sobre copilotos que te ajudam a escrever melhor. É sobre desenhar fluxos de trabalho onde a IA remove a fricção entre as áreas e processos.

⚡ Quick Hits

  • O fim do manual de instruções? Um usuário do X mostra o Google Gemini identificando peças e ferramentas pela câmera do celular, em tempo real, para guiar a troca de óleo de uma BMW. Impressionante! 🚀

  • Encontro de gerações: um usuário do X compartilha um vídeo onde a IA coloca celebridades frente a frente com seus 'eu' mais jovens.🎥

  • Agora é possível editar imagens e PDFs com as ferramentas da Adobe (Photoshop, Express e Acrobat) diretamente pelo ChatGPT! 💡

  • O Google compartilhou um guia completo de prompts para extrair o máximo na produção de imagens no Nano Banana Pro. 🍌

  • Um prompt “copia e cola” para transformar qualquer selfie em uma foto de perfil corporativa com qualidade de estúdio.

🔧 Cool AI tools

  • Ripplica: ferramenta inteligente que ajuda a automatizar tarefas repetitivas na internet de forma muito simples: basta gravar a tela do seu computador fazendo o trabalho uma vez, e a IA aprende a repetir o processo sozinha, sem que você precise saber programação ou configurar códigos complexos.

Por hoje é só.

Obrigado por ler o AI Around the Horn.

Perdeu alguma edição? Recupere todos os posts anteriores aqui.

Keep Reading

No posts found