23.8 C
Manaus
quarta-feira, 15 abril, 2026
InícioBrasilVídeos falsos com IA são derrubados após denúncia do ICL

Vídeos falsos com IA são derrubados após denúncia do ICL

Date:


Por Leila Cangussu

Uma série de vídeos que simulavam agressões entre pessoas identificadas como apoiadores de direita e de esquerda circulou com força nas redes sociais nos últimos dias. As imagens, que pareciam registros reais, foram produzidas com inteligência artificial.

A denúncia foi feita por Leandro Demori, diretor de jornalismo do Instituto Conhecimento Liberta (ICL), durante o ICL Notícias. Os conteúdos chegaram a atingir milhões de visualizações antes de serem questionados.

Após a exposição pública do caso, uma mobilização da comunidade do ICL levou à derrubada de ao menos um dos perfis responsáveis pela disseminação dos vídeos.

Vídeos eram construídos como flagrante

Os vídeos seguiam um padrão. Eram curtos, diretos e com narrativa clara. Mostravam cenas de agressão envolvendo pessoas com símbolos políticos visíveis. A linguagem visual simulava registros espontâneos, como se fossem captados por celular, mas nada daquilo aconteceu.

Os conteúdos foram gerados artificialmente, com uso de ferramentas capazes de reproduzir rostos, movimentos e ambientação com grau de realismo suficiente para passar despercebido em uma primeira visualização.

Após a primeira denúncia, o material continuou chegando. Segundo Leandro Demori, novos vídeos com o mesmo padrão passaram a ser enviados à redação e também à plataforma Denunciei, criada pelo ICL para receber relatos da audiência. “A gente fez a denúncia na semana passada e logo recebemos mais vídeos também pela nossa plataforma”, afirmou .

Demori disse ainda que, a partir daí, o caso ganhou escala. “Isso ganhou as redes sociais”, resumiu

O impacto não está apenas na existência do material, mas na forma como ele circula. Em plataformas orientadas por engajamento, conteúdos com alto potencial de choque tendem a ganhar escala antes que qualquer verificação ocorra. E, quando a checagem chega, o alcance já foi estabelecido.

Resposta partiu da audiência

A remoção dos perfis não aconteceu por iniciativa das plataformas. Depois da denúncia, a derrubada ocorreu a partir de denúncias em massa feitas por usuários. O movimento foi impulsionado por quem acompanhou a cobertura do ICL e passou a reportar os conteúdos diretamente nas plataformas.

Segundo Demori, a repercussão da denúncia levou a uma reação institucional e também à ampliação do problema. “A partir desse momento, a própria coalizão do PT entrou com uma representação contra o TikTok no TSE. O perfil que a gente denunciou foi removido, mas já se identificou vários outros”, disse.

Casos assim não são incomuns, mas raramente ganham visibilidade. A queda de perfis com alto volume de visualizações depende de pressão consistente, e nem sempre ocorre.

Neste caso, ocorreu e expôs um ponto central: a circulação de desinformação não é um processo automático. Ela depende de redes que amplificam, e pode ser interrompida por redes que contestam.

Mobilização da comunidade do ICL derruba vídeos de IA que estimulam violência contra mulheres e o PT

A aparência de evidência mudou

O episódio marca um deslocamento no tipo de conteúdo que passa a circular no debate público. Vídeos sempre tiveram um estatuto de prova. A ideia de que “se está gravado, aconteceu” ainda opera como referência para grande parte do público.

A inteligência artificial altera esse pressuposto. Hoje, é possível produzir cenas com aparência de registro direto sem que haja qualquer correspondência com a realidade. A sofisticação técnica não elimina falhas, mas reduz o nível de suspeita inicial.

Isso cria uma zona de ambiguidade. O conteúdo não precisa ser perfeito. Precisa ser convincente o suficiente para ser compartilhado.

Ano eleitoral amplia o efeito

A circulação desses vídeos ocorre em um momento sensível. Em contextos eleitorais, conteúdos manipulados tendem a surgir em períodos estratégicos e com objetivo claro: provocar reação imediata, gerar circulação e influenciar percepção.

Conteúdos manipulados tendem a surgir em momentos estratégicos:

  • antes de votações
  • durante crises
  • em períodos de alta polarização

E a lógica é mais simples do que se imagina. Primeiro, o material ativa emoções como indignação, medo ou revolta. Em seguida, é compartilhado antes de qualquer verificação. Depois, mesmo quando desmentido, permanece como referência para parte do público.

A diferença agora está na qualidade do material. A inteligência artificial reduz o tempo entre a intenção de manipular e a produção de um conteúdo com aparência de autenticidade. Isso encurta o ciclo da desinformação e amplia seu alcance.

O papel das plataformas segue em disputa

A remoção dos perfis reacende um debate recorrente. As plataformas digitais operam com sistemas que priorizam o engajamento. Conteúdos com alto impacto emocional tendem a ser impulsionados automaticamente, independentemente de sua veracidade.

Ao mesmo tempo, a moderação é reativa. Depende de denúncia, volume e tempo de análise. Nesse intervalo, o conteúdo já circulou.

Esse modelo cria um descompasso. A velocidade da desinformação é maior que a velocidade da resposta.

Entre o impulso e a verificação

O caso também expõe um comportamento recorrente no ambiente digital. Conteúdos que confirmam expectativas ou crenças tendem a ser compartilhados com menos resistência. A verificação costuma vir depois, quando vem.

A inteligência artificial se insere nesse processo como acelerador. Ela não cria o impulso, mas amplia sua capacidade de impacto. O resultado é um ambiente em que a reação precede a análise.

Debate sobre soberania digital ganha novo contexto

O episódio ocorre às vésperas de uma agenda mais ampla proposta pelo ICL. O dia 28 de abril será o “Dia D da Soberania Digital”, um evento voltado à discussão sobre o papel das big techs na circulação de informação e no debate público.

A proposta é analisar como algoritmos, modelos de recomendação e concentração de plataformas influenciam o que circula, o que ganha alcance e o que é silenciado.

Casos como o dos vídeos falsos ajudam a dar dimensão concreta a esse debate. Eles mostram que a disputa não é apenas por atenção, mas por definição de realidade.

Participe deste debate junto ao time de jornalistas e apresentadores do ICL. Será histórico e vai mudar a história de tudo o que já foi visto no Instituto. Inscreva-se gratuitamente aqui.





ICL Notícias

spot_img
spot_img
Sair da versão mobile