Por Leila Cangussu
Uma série de vídeos que simulavam agressões entre pessoas identificadas como apoiadores de direita e de esquerda circulou com força nas redes sociais nos últimos dias. As imagens, que pareciam registros reais, foram produzidas com inteligência artificial.
A denúncia foi feita por Leandro Demori, diretor de jornalismo do Instituto Conhecimento Liberta (ICL), durante o ICL Notícias. Os conteúdos chegaram a atingir milhões de visualizações antes de serem questionados.
Após a exposição pública do caso, uma mobilização da comunidade do ICL levou à derrubada de ao menos um dos perfis responsáveis pela disseminação dos vídeos.
Vídeos eram construídos como flagrante
Os vídeos seguiam um padrão. Eram curtos, diretos e com narrativa clara. Mostravam cenas de agressão envolvendo pessoas com símbolos políticos visíveis. A linguagem visual simulava registros espontâneos, como se fossem captados por celular, mas nada daquilo aconteceu.
Os conteúdos foram gerados artificialmente, com uso de ferramentas capazes de reproduzir rostos, movimentos e ambientação com grau de realismo suficiente para passar despercebido em uma primeira visualização.
Após a primeira denúncia, o material continuou chegando. Segundo Leandro Demori, novos vídeos com o mesmo padrão passaram a ser enviados à redação e também à plataforma Denunciei, criada pelo ICL para receber relatos da audiência. “A gente fez a denúncia na semana passada e logo recebemos mais vídeos também pela nossa plataforma”, afirmou .
Demori disse ainda que, a partir daí, o caso ganhou escala. “Isso ganhou as redes sociais”, resumiu
O impacto não está apenas na existência do material, mas na forma como ele circula. Em plataformas orientadas por engajamento, conteúdos com alto potencial de choque tendem a ganhar escala antes que qualquer verificação ocorra. E, quando a checagem chega, o alcance já foi estabelecido.
Resposta partiu da audiência
A remoção dos perfis não aconteceu por iniciativa das plataformas. Depois da denúncia, a derrubada ocorreu a partir de denúncias em massa feitas por usuários. O movimento foi impulsionado por quem acompanhou a cobertura do ICL e passou a reportar os conteúdos diretamente nas plataformas.
Segundo Demori, a repercussão da denúncia levou a uma reação institucional e também à ampliação do problema. “A partir desse momento, a própria coalizão do PT entrou com uma representação contra o TikTok no TSE. O perfil que a gente denunciou foi removido, mas já se identificou vários outros”, disse.
Casos assim não são incomuns, mas raramente ganham visibilidade. A queda de perfis com alto volume de visualizações depende de pressão consistente, e nem sempre ocorre.
Neste caso, ocorreu e expôs um ponto central: a circulação de desinformação não é um processo automático. Ela depende de redes que amplificam, e pode ser interrompida por redes que contestam.
A aparência de evidência mudou
O episódio marca um deslocamento no tipo de conteúdo que passa a circular no debate público. Vídeos sempre tiveram um estatuto de prova. A ideia de que “se está gravado, aconteceu” ainda opera como referência para grande parte do público.
A inteligência artificial altera esse pressuposto. Hoje, é possível produzir cenas com aparência de registro direto sem que haja qualquer correspondência com a realidade. A sofisticação técnica não elimina falhas, mas reduz o nível de suspeita inicial.
Isso cria uma zona de ambiguidade. O conteúdo não precisa ser perfeito. Precisa ser convincente o suficiente para ser compartilhado.
Ano eleitoral amplia o efeito
A circulação desses vídeos ocorre em um momento sensível. Em contextos eleitorais, conteúdos manipulados tendem a surgir em períodos estratégicos e com objetivo claro: provocar reação imediata, gerar circulação e influenciar percepção.
Conteúdos manipulados tendem a surgir em momentos estratégicos:
- antes de votações
- durante crises
- em períodos de alta polarização
E a lógica é mais simples do que se imagina. Primeiro, o material ativa emoções como indignação, medo ou revolta. Em seguida, é compartilhado antes de qualquer verificação. Depois, mesmo quando desmentido, permanece como referência para parte do público.
A diferença agora está na qualidade do material. A inteligência artificial reduz o tempo entre a intenção de manipular e a produção de um conteúdo com aparência de autenticidade. Isso encurta o ciclo da desinformação e amplia seu alcance.
O papel das plataformas segue em disputa
A remoção dos perfis reacende um debate recorrente. As plataformas digitais operam com sistemas que priorizam o engajamento. Conteúdos com alto impacto emocional tendem a ser impulsionados automaticamente, independentemente de sua veracidade.
Ao mesmo tempo, a moderação é reativa. Depende de denúncia, volume e tempo de análise. Nesse intervalo, o conteúdo já circulou.
Esse modelo cria um descompasso. A velocidade da desinformação é maior que a velocidade da resposta.
Entre o impulso e a verificação
O caso também expõe um comportamento recorrente no ambiente digital. Conteúdos que confirmam expectativas ou crenças tendem a ser compartilhados com menos resistência. A verificação costuma vir depois, quando vem.
A inteligência artificial se insere nesse processo como acelerador. Ela não cria o impulso, mas amplia sua capacidade de impacto. O resultado é um ambiente em que a reação precede a análise.
Debate sobre soberania digital ganha novo contexto
O episódio ocorre às vésperas de uma agenda mais ampla proposta pelo ICL. O dia 28 de abril será o “Dia D da Soberania Digital”, um evento voltado à discussão sobre o papel das big techs na circulação de informação e no debate público.
A proposta é analisar como algoritmos, modelos de recomendação e concentração de plataformas influenciam o que circula, o que ganha alcance e o que é silenciado.
Casos como o dos vídeos falsos ajudam a dar dimensão concreta a esse debate. Eles mostram que a disputa não é apenas por atenção, mas por definição de realidade.




