Chega de fake news: aprenda a identificar vídeos feitos com IA
Envato
Por Joyce Canele
redacao@viva.com.brNo momento em que vídeos e imagens ultrarrealistas produzidos por inteligência artificial (IA) se espalham com rapidez pelas redes sociais no Brasil, saber diferenciar do que é real e do que é fake é extremamente importante para evitar desinformação.
Leia também: Segurança digital de bancos preocupa mais os 55+ do que Geração Z
Ferramentas como Sora (OpenAI) e Veo 3 (Google) conseguem reproduzir expressões faciais, emoções e movimentos com alto nível de precisão, o que aumenta o risco de desinformação.
Segundo a Federação Nacional dos Trabalhadores em Tecnologia da Informação, casos recentes de vídeos falsos viralizados mostram como conteúdos gerados por IA ainda são facilmente confundidos com registros autênticos.
Especialistas de TI, alertam que os chamados deepfakes podem ser usados para manipular opiniões, distorcer fatos e causar danos à reputação de pessoas e instituições.
O problema se agrava quando esses vídeos circulam sem contexto ou identificação clara de que foram criados por inteligência artificial. Para evitar cair em fake news, é fundamental desenvolver senso crítico ao consumir vídeos online.
Leia também: Vazamento de dados: o que fazer quanto as informações acabam na Darkweb?
Conteúdos sintéticos hoje reproduzem rostos, vozes e cenários com alto grau de realismo, dificultando a identificação imediata de manipulações.
Desconfie de conteúdos sem fonte confiável, observe possíveis falhas em expressões faciais ou sincronização de áudio e verifique se o mesmo fato é confirmado por veículos jornalísticos reconhecidos.
Erros que antes denunciavam facilmente uma fraude, como falhas grosseiras em mãos ou expressões faciais, tornaram-se menos comuns. Agora, a análise exige atenção ao contexto, ao movimento, à coerência física da cena e à relação entre áudio e imagem, conforme o Mashable.
Leia também: Empresas usam inteligência artificial para acelerar pesquisa médica em até 50%
O que observar em vídeos suspeitos?
Para não cair em armadilhas digitais, acompanhe as dicas usadas por jornalistas investigativos:
Contexto e coerência
Cenas que parecem espetaculares demais ou fora de lógica merecem desconfiança. Mudanças repentinas em objetos, pessoas ou cenários indicam manipulação.
Movimentos e física
Ações perfeitamente repetidas, movimentos rígidos ou comportamentos impossíveis no mundo real são indícios frequentes de conteúdo sintético.
Vídeo e áudio
Vídeos muito curtos ou montados a partir de vários clipes breves podem ocultar falhas da tecnologia, além de sons excessivamente limpos, ausência total de ruído ambiente ou vozes mal sincronizadas com os lábios são sinais de alerta.
Textos e placas
Letras distorcidas, palavras sem sentido ou símbolos estranhos em roupas, fachadas e objetos costumam denunciar a ação da IA.
Marcas de identificação
A ausência de data, logotipos ou elementos típicos de câmeras de segurança e dispositivos reais deve levantar suspeitas.
Leia também: Grok: Idec pede suspensão da IA no Brasil por violação de direitos humanos
Em um ambiente digital cada vez mais sofisticado, aprender a identificar vídeos feitos por IA, se tornou essencial para não cair em fake news.
Comentários
Política de comentários
Este espaço visa ampliar o debate sobre o assunto abordado na notícia, democrática e respeitosamente. Não são aceitos comentários anônimos nem que firam leis e princípios éticos e morais ou que promovam atividades ilícitas ou criminosas. Assim, comentários caluniosos, difamatórios, preconceituosos, ofensivos, agressivos, que usam palavras de baixo calão, incitam a violência, exprimam discurso de ódio ou contenham links são sumariamente deletados.
