Material complementar da apresentação de Thiago Salvador na CUT — 12 de março de 2026
Siga no Instagram: @salvador_thiago
A IA como desculpa para demitir
A narrativa de que a Inteligência Artificial vai substituir os trabalhadores não se sustenta nos dados. Um estudo do MIT (projeto NANDA), publicado em 2025, analisou mais de 300 projetos de IA em empresas e concluiu que 95% deles não entregaram nenhum resultado financeiro mensurável. A tecnologia ainda está longe de cumprir o que promete.
Mesmo assim, grandes corporações como Amazon e Walmart já admitiram publicamente que usam a IA como justificativa para reduzir folha de pagamento e aumentar lucros. O padrão se repete: demitem funcionários experientes alegando automação, e meses depois recontratam terceirizados para a mesma função, com salários menores.
O Caso Itaú: o feitor invisível no home office
Em setembro de 2025, o Itaú Unibanco, que fechou o ano com lucro recorde de R$ 46,8 bilhões, demitiu cerca de mil trabalhadores em home office. A justificativa foi "baixa produtividade", mas a avaliação não foi feita por gestores humanos. O banco usou um software chamado xOne, que rastreia cliques de mouse, toques no teclado, abas abertas e tempo de tela ativa.
Na plenária do Sindicato dos Bancários, 86 dos demitidos relataram que tinham acabado de receber prêmios de alto desempenho do próprio banco. Os trabalhadores entregavam resultados, mas foram descartados porque não "clicaram" o suficiente aos olhos do algoritmo. Ninguém recebeu aviso ou chance de defesa.
A gamificação da morte nas ruas: o caso iFood
O Brasil tem 1,7 milhão de trabalhadores em plataformas de aplicativo. No iFood, a IA não dirige motos, mas manipula quem dirige. A plataforma usa técnicas de gamificação (desafios, promoções relâmpago, conquistas para desbloquear) que ditam o comportamento e o ritmo do entregador, de forma comparável, segundo médicos do Hospital Albert Einstein, ao vício em jogos. Envia notificações de bônus exatamente na hora de um temporal. O entregador acelera, fura sinais e arrisca a vida por valores ridículos. O trabalhador de aplicativo ganha em média R$ 15,40 por hora, menos que o trabalhador comum (R$ 16,80), e precisa trabalhar muito mais para sobreviver.
Racismo algorítmico: o caso Tiago Alves
Tiago Alves dos Santos, entregador negro de 41 anos em Brasília, foi banido do iFood porque deixou o cabelo natural crescer. O sistema de reconhecimento facial não o reconheceu mais e o baniu da plataforma. Sem aviso, sem direito a defesa, sem retorno do aplicativo.
A 22ª Vara do Trabalho de Brasília reconheceu a "falha racista" da ferramenta e condenou o iFood a pagar R$ 60 mil por danos morais. Há relatos documentados de entregadores que passam por dezenas de verificações faciais num único dia, enquanto colegas brancos não enfrentam a mesma exigência. Isso é racismo algorítmico.
Mesmo com tudo isso, no Tribunal Superior do Trabalho, a taxa de sucesso das ações para reconhecimento de vínculo empregatício com plataformas ainda é inferior a 2%.
Deepfakes e as eleições de 2026: a fraude como método
O uso de IA para gerar conteúdos falsos cresceu 308% entre 2024 e 2025, segundo informação do Observatório Lupa. Foram 159 casos identificados em 2025, contra 39 no ano anterior. Quase 45% desse conteúdo tinha viés político direto. Os principais alvos foram Lula (36 ocorrências), Bolsonaro (33) e Alexandre de Moraes (30).
O conceito mais perigoso que emerge dessa realidade é o "Dividendo do Mentiroso": gerar tanta falsificação que a própria noção de verdade seja destruída. O objetivo é que, quando um político for flagrado num vídeo real cometendo um crime, ele possa simplesmente dizer "é deepfake" e usar a dúvida como álibi.
A assimetria política: por que a direita avança nas redes?
Um estudo da Science provou que notícias falsas têm 70% mais chance de serem compartilhadas e circulam muito mais rápido que notícias verdadeiras. Elas exploram emoções como raiva, medo e indignação, que são exatamente as que o algoritmo prioriza.
A direita não é amadora nisso. Em maio de 2025, o PL realizou um evento em Fortaleza voltado a capacitar quadros em ferramentas de IA para campanhas digitais: automação de vídeos, impulsionamento no WhatsApp e geração de podcasts com vozes sintéticas.
Do nosso lado, temos as Brigadas Digitais da CUT e iniciativas como o SindPlay do SindPD, oferecendo cursos gratuitos de IA para trabalhadores. Mas precisamos escalar.
O campo de batalha regulatório
No dia 2 de março de 2026, o TSE aprovou regras inéditas para o uso de IA nas eleições:
- →Proibição de conteúdo sintético novo nas 72 horas antes do pleito
- →Rotulagem obrigatória de qualquer conteúdo gerado ou alterado por IA
- →Responsabilidade solidária das plataformas (Instagram, Facebook, etc.) se não removerem conteúdo falso
- →Proibição de sistemas de IA recomendarem candidaturas, mesmo que o eleitor peça
- →Banimento de perfis falsos ou automatizados com prática lesiva
No Senado, o PL 2338 (Marco Legal da IA) já foi aprovado e garante o direito à revisão humana de decisões automatizadas de alto risco, como demissões.
A LGPD (Lei Geral de Proteção de Dados) já está em vigor e o Artigo 20 garante a todo cidadão o direito de pedir revisão de qualquer decisão tomada unicamente por máquinas.
Autodefesa digital: como se proteger
Ferramentas gratuitas para detectar deepfakes
- →Illuminarty (detector de imagens geradas por IA): app.illuminarty.ai
- →AI or Not (veredito rápido "IA ou não"): aiornot.com
- →Resemble AI no WhatsApp (gratuito, instantâneo): Salve o número +1 (218) 663-2537 (mnemônico: 218-NO-FAKES) e envie qualquer imagem, vídeo ou áudio suspeito
Checklist do Brigadista (5 passos)
- 01PARE — Não encaminhe nada antes de verificar
- 02BUSQUE A FONTE — De onde veio? Quem publicou primeiro?
- 03USE O DETECTOR — Mande pro 218-NO-FAKES no WhatsApp
- 04CONSULTE OS CHECADORES — Agência Lupa ou Aos Fatos
- 05PROCURE FALHAS VISUAIS — Dentes irregulares, mãos com dedos a mais, sombras inconsistentes, bordas borradas
O que fazer agora?
- →Educação digital na base: Cada pessoa que sai sabendo identificar um deepfake se torna multiplicador. Compartilhe esse material.
- →Use a IA a nosso favor: Coloque diretrizes sindicais no ChatGPT e peça os pontos principais. Analise projetos de lei em linguagem simples. Cruze dados públicos de prefeituras para encontrar irregularidades.
- →Conheça seus direitos: O Artigo 20 da LGPD garante revisão humana de decisões automatizadas. A Justiça do Trabalho já reverte demissões e condena plataformas.
- →Ocupe as mesas de decisão: Nos EUA, a AFL-CIO assinou acordo com a Microsoft para líderes sindicais sentarem com programadores antes do lançamento de ferramentas de IA. A CUT pode e deve fazer o mesmo aqui.
A tecnologia não substitui a luta de classes. Ela é só a nova trincheira.
Se o algoritmo é a arma deles, a organização em rede é a nossa.
Thiago Salvador — Diretor de Operações e IA | Comunicador | Militante
Instagram: @salvador_thiago