Vídeo Gerado por IA: Saiba Como Identificar Conteúdo Falso

Últimas Notícias

A crescente sofisticação da inteligência artificial (IA) na produção audiovisual torna crucial saber como identificar vídeo gerado por IA. Nos últimos seis meses, o avanço notável das ferramentas de vídeo com IA tem erodido a confiança na veracidade das imagens, transformando a forma como interagimos com o conteúdo online. Enquanto o futuro promete desafios ainda maiores para a distinção entre o real e o artificial, alguns sinais ainda podem alertar os espectadores para a possível falsidade de um vídeo, antes que a capacidade de discernimento se torne mais complexa e subjetiva.

Uma das primeiras e mais importantes pistas reside na qualidade da imagem. Vídeos que apresentam baixa resolução, imagens borradas ou excessivamente granuladas devem acender um “sinal de alerta” para o espectador. Embora não seja uma prova conclusiva, este tipo de material é frequentemente usado para disfarçar as inconsistências típicas de conteúdos gerados por IA, aumentando as chances de enganar o público.

Vídeo Gerado por IA: Saiba Como Identificar Conteúdo Falso

Essa observação é compartilhada por especialistas da área. Segundo o professor Hany Farid, de Ciências da Computação da Universidade da Califórnia em Berkeley e pioneiro em perícia digital, vídeos de baixa qualidade estão entre os primeiros aspectos que sua equipe, na empresa de detecção de deepfakes GetReal Security, verifica. No entanto, é fundamental compreender que essa tática pode ter validade limitada no futuro, à medida que a tecnologia de IA aprimora a qualidade de suas criações, podendo eliminar em meses ou poucos anos essa bandeira vermelha inicial. Como explica o professor Matthew Stamm, que lidera o Laboratório de Segurança da Informação e Multimídia na Universidade Drexel, uma má qualidade de vídeo por si só não significa que ele é artificial, e as ferramentas mais avançadas de IA são capazes de produzir clipes sofisticados e visualmente atraentes.

Apesar disso, os vídeos com IA que possuem características borradas ou pixeladas são, hoje, os mais propensos a enganar. Isso acontece porque a menor qualidade visual permite que falhas sutis da IA passem despercebidas. As inconsistências presentes nos modelos avançados de “texto para vídeo”, como Veo (Google) e Sora (OpenAI), são muitas vezes difíceis de detectar. Não se tratam de erros grosseiros, como mãos com dedos extras ou texto truncado, mas sim de detalhes mais discretos. Estes podem incluir texturas de pele exageradamente suaves, padrões incomuns nos cabelos ou roupas, ou pequenos elementos no plano de fundo que se movem de maneira irrealista ou impossível. Com uma imagem de baixa qualidade, esses “defeitos” de fabricação da IA são muito mais fáceis de serem camuflados, já que a filmagem deteriorada ou simulando uma câmera de segurança já mascara tais anomalias propositalmente.

A estratégia de reduzir a qualidade intencionalmente tem sido empregada com sucesso para iludir milhares de pessoas. Um vídeo fictício de coelhos em um trampolim alcançou mais de 240 milhões de visualizações no TikTok, disfarçado como filmagem noturna de câmera de segurança. Similarmente, um clipe que simulava um romance em um metrô de Nova York e um sermão “progressista” de um pastor foram amplamente disseminados e creditados como verdadeiros, antes de serem desmascarados como produtos da IA. O ponto comum em todos esses exemplos de grande repercussão foi a aparência rudimentar ou de gravação amadora, que mascarou sua origem artificial.

Os Três Pilares da Detecção: Resolução, Qualidade e Duração

Além da percepção da qualidade da imagem, Farid aponta três pilares cruciais na identificação de vídeos de IA: “resolução, qualidade e duração”. O aspecto da duração é frequentemente o mais simples de observar. A grande maioria dos vídeos gerados por IA são extremamente curtos, muitas vezes com duração de 6, 8 ou 10 segundos, um período menor do que os clipes típicos do TikTok ou Instagram, que chegam a 30-60 segundos. Isso se deve ao alto custo computacional da criação de vídeos por IA; clipes mais longos são mais caros e aumentam a probabilidade de falhas e inconsistências no conteúdo. Mesmo que diversos clipes de IA sejam emendados, observa-se frequentemente um corte a cada cerca de oito segundos.

A resolução e a qualidade, embora relacionadas, são conceitos distintos. A resolução diz respeito ao número de pixels em uma imagem, enquanto a compressão, um processo que diminui o tamanho do arquivo de vídeo, muitas vezes degrada sua qualidade, introduzindo padrões de blocos e extremidades borradas. Curiosamente, Hany Farid observa que criadores mal-intencionados degradam propositalmente a qualidade de seus vídeos falsos. “Se eu estou tentando enganar as pessoas, o que faria? Eu geraria meu vídeo fake, reduziria a resolução de forma que você ainda pudesse assistir, mas retirando todos os pequenos detalhes. Depois, eu acrescentaria compressão, que ofuscaria ainda mais os possíveis sinais.” Esta tática é uma técnica comum utilizada para maximizar o engano. Para mais informações sobre como a IA está remodelando nosso cotidiano, veja os artigos recentes sobre inteligência artificial no Canaltech.

O Futuro da Detecção: Olhos Deixam de Ser Confiáveis

No presente momento, enquanto gigantes da tecnologia investem bilhões para tornar a IA ainda mais realista, a má notícia é que as dicas visuais de detecção são transitórias. Stamm prevê que as indicações visuais óbvias nos vídeos desaparecerão em até dois anos, da mesma forma que já evaporaram em grande parte das imagens geradas por IA. A partir daí, a máxima de “confiar nos próprios olhos” será, em grande medida, ultrapassada. No entanto, a verdade não é uma causa perdida. Pesquisadores como Farid e Stamm empregam técnicas forenses digitais muito mais avançadas.

Um vídeo gerado ou modificado digitalmente, conforme Stamm, “deixa para trás pequenos traços estatísticos que os nossos olhos não conseguem ver, como impressões digitais na cena de um crime”. A distribuição de pixels em vídeos falsos pode diferir sutilmente da real, embora esses fatores também não sejam infalíveis. Há também esforços no desenvolvimento de novos padrões de verificação digital, onde câmeras e ferramentas de IA poderão embutir informações diretamente nos arquivos, comprovando sua autenticidade ou sua natureza artificial. Essa nova infraestrutura digital promete um método mais robusto para a comprovação de proveniência.

Mike Caulfield, especialista em alfabetização digital, enfatiza que a solução definitiva exige uma mudança de mentalidade. Em vez de procurar sinais específicos da IA, que são mutáveis, precisamos questionar a proveniência e o contexto de tudo o que vemos online. A premissa de que um vídeo é verdadeiro apenas porque “foi filmado” deve ser abandonada, de forma semelhante à nossa abordagem ao texto: um escrito só é crível após investigar sua fonte e seu contexto. A capacidade de manipulação e falsificação de imagens e vídeos está agora equiparada à do texto, exigindo que priorizemos de onde o conteúdo veio, quem o publicou, qual o contexto e se foi verificado por uma fonte de confiança.

Este é, sem dúvida, um dos maiores desafios de segurança da informação do século XXI, conforme descreve Stamm, um problema que surgiu há poucos anos, mas está atraindo um número crescente de pesquisadores. A solução passará por uma combinação de educação, políticas inteligentes e avanços tecnológicos. A esperança de preservar a integridade da informação ainda não está perdida.

Confira também: Imoveis em Rio das Ostras

Em suma, saber como identificar vídeo gerado por IA requer atenção à qualidade da imagem, duração do clipe e uma mudança de paradigma, priorizando sempre a proveniência e o contexto da informação. Acompanhe a Hora de Começar para mais análises e atualizações sobre os impactos da tecnologia na sociedade. Aprofunde-se nas análises sobre a Inteligência Artificial.

Foto: Getty Images via BBC

Deixe um comentário