O Sora OpenAI: Os Perigos do Uso do Rosto em Vídeos de IA revelou uma nova fronteira no debate sobre consentimento e privacidade digital. O aplicativo, desenvolvido pela OpenAI, mesma criadora do ChatGPT, permite que usuários insiram facilmente rostos e vozes reais em vídeos gerados por inteligência artificial (IA), criando cenários que parecem autênticos, mas nunca aconteceram.
A experiência pessoal do colunista de tecnologia Geoffrey A. Fowler, do The Washington Post, ilustra bem a preocupação crescente. Fowler relatou ter se deparado com vídeos, produzidos por amigos utilizando o Sora, que o mostravam sendo detido por dirigir alcoolizado, ateando fogo a uma bandeira dos Estados Unidos e confessando hábitos excêntricos, como comer aparas de unha. Embora todas as cenas fossem fictícias, o realismo das produções era tal que ele precisou rever o material diversas vezes para dissociar-se da realidade fabricada. Sua autorização inicial limitou-se ao acesso do aplicativo ao seu rosto, mas não ao controle sobre o conteúdo gerado com sua imagem.
Sora OpenAI: Os Perigos do Uso do Rosto em Vídeos de IA
O funcionamento do Sora é alarmantemente direto: um breve vídeo selfie é o suficiente para criar um “cameo”, que consiste em um perfil digital do rosto do usuário. É possível, então, escolher quem poderá usar essa representação: apenas o próprio usuário, amigos ou todos na plataforma. Uma vez concedido o acesso, qualquer pessoa autorizada pode descrever a cena desejada e obter um vídeo gerado em poucos minutos. A falta de um mecanismo para aprovar o conteúdo antes da criação é um ponto crucial de vulnerabilidade. O app se limita a enviar uma notificação após a criação do vídeo com a imagem do usuário.
Adicionalmente, o Sora opera como uma rede social, similar ao TikTok, com a diferença fundamental de que todo o seu conteúdo é gerado por IA. Embora exista a opção de apagar vídeos que utilizem a imagem de alguém dentro da plataforma, a remoção pode não ser instantânea, permitindo que o criador já tenha visualizado, compartilhado ou até mesmo baixado o material e o divulgado em outras plataformas antes da exclusão. Essa dinâmica transfere a responsabilidade da moderação para o usuário e minimiza o conceito de consentimento prévio para a criação de conteúdo, relegando o antigo termo “deepfake” à “brincadeira social da semana”, rebatizada pela OpenAI de “cameo”.
Implicações de Consentimento e o Risco de Má Utilização
Para ilustrar as implicações técnicas e emocionais, Geoffrey A. Fowler pediu ao seu colega Chris Velazco que explorasse as capacidades do Sora. Velazco criou dezenas de vídeos, incluindo a já mencionada prisão falsa e um onde Ronald Reagan supostamente nomeava Fowler como presidente do Conselho Nacional de Mentir para Crianças. Muitos desses vídeos provocaram risadas devido ao impressionante realismo de expressões, movimentos labiais e tom de voz gerados pela IA. Fowler mencionou, por exemplo, um vídeo onde um chef de reality show o repreendia por um prato, cuja expressão foi considerada assustadoramente semelhante à sua por amigos. Existe um fascínio em se ver em situações inimagináveis, e a ferramenta, inicialmente, parecia uma brincadeira inofensiva.
Contudo, a percepção mudou drasticamente quando Chris criou um vídeo de Fowler contando uma piada de mau gosto no ambiente de trabalho. A situação gerou um desconforto profundo no jornalista. A dúvida que poderia surgir nos outros – “Será que ele realmente disse isso?” – destacou a capacidade da ferramenta de gerar descrédito. Essa preocupação se intensifica ao considerar populações mais vulneráveis. Jornalistas, com voz e plataformas para se defenderem, estão em posição diferente de vítimas de abuso ou fraudes online, ou mesmo estudantes que poderiam ser alvo de vídeos falsos contendo furtos, uso de drogas ou ofensas racistas, com consequências severas junto a empregadores, pais ou instituições de ensino.
Eva Galperin, diretora de cibersegurança da ONG Electronic Frontier Foundation, uma organização que assiste vítimas de abuso digital, ressaltou a desigualdade dos riscos. “Vídeos de amigos furtando em lojas são muito mais perigosos para algumas populações do que para outras”, afirmou ela, enfatizando que a OpenAI parece não compreender as dinâmicas de poder inerentes a essas situações. A Electronic Frontier Foundation (EFF) tem constantemente debatido sobre as complexidades e implicações éticas das tecnologias de inteligência artificial na privacidade dos indivíduos.
O Que Se Pode e o Que Não Se Pode Controlar
Em sua defesa, a OpenAI declarou que os usuários possuem “controle total sobre sua imagem dentro do Sora”. No entanto, questionada sobre a ausência de aprovação prévia para a criação de vídeos, a empresa limitou-se a “agradecer o feedback”, o que para muitos sinaliza um reconhecimento do problema que, contudo, não impediu o lançamento da ferramenta nessas condições. Hany Farid, professor da Universidade da Califórnia em Berkeley e especialista em mídia gerada por IA, observou: “Deveríamos ter muito mais controle sobre nossa identidade. Mas tornar o produto mais seguro o tornaria menos viral, e ninguém quer isso”.

Imagem: www1.folha.uol.com.br
As configurações padrão do Sora agravam a situação. Ao criar uma conta, o “cameo” é automaticamente configurado para ser utilizável por “amigos em comum”, ou seja, qualquer pessoa que o usuário segue e que também o segue. Muitos desconhecem quem exatamente compõe essa lista. Galperin alerta para a natureza mutável dos relacionamentos: “Amigos não permanecem amigos para sempre, as relações mudam. Na prática, você está confiando em todos que já seguiu para nunca se tornarem ex-amigos, inimigos ou apenas pessoas com mau julgamento”.
Após receber críticas, o Sora implementou alguns controles adicionais, permitindo a definição de diretrizes e restrições sobre como a imagem pode ou não ser utilizada. Bill Peebles, chefe do Sora, publicou na rede social X (anteriormente Twitter) que a empresa “está aprimorando continuamente as restrições e adicionará novas formas de manter o controle sobre seu cameo”.
Barreiras e suas Limitações na Proteção do Usuário
A OpenAI assegura que o aplicativo possui barreiras contra a geração de conteúdo sexualmente explícito, violento ou prejudicial. Embora não seja possível gerar vídeos de nudez, Fowler relatou ter visto vídeos seus sendo empurrado, cuspido por multidões e, de forma equivocada pela IA, mostrando o dedo médio a um bebê, ilustrando as nuances das proteções existentes. A criação de conteúdo grosseiro, por exemplo, exigia apenas a inserção do nome da pessoa e a frase desejada. A visível marca-d’água, que indica a artificialidade dos vídeos, também não se mostrou eficaz como barreira de segurança, já que um designer conseguiu removê-la com um programa de edição da Adobe em apenas cinco minutos. Eva Galperin criticou a subestimação da OpenAI quanto à “criatividade das pessoas quando o assunto é assédio”.
Até mesmo figuras proeminentes, como Sam Altman, CEO da OpenAI, tiveram seus cameos configurados como públicos e apareceram em vídeos cômicos durante a primeira semana do aplicativo. Altman não respondeu quando questionado sobre o que aprendeu com a experiência, o que contrasta com o poder que possui de banir qualquer pessoa do app. A criadora de conteúdo Justine Ezarik, conhecida como iJustine, também abriu seu cameo ao público e rapidamente encontrou vídeos sexualizados com sua imagem. Ezarik, em e-mail, disse não ter se surpreendido e que monitora ativamente e apaga tudo que excede o limite, mas reconheceu que a maioria dos usuários não possui tempo ou conhecimento técnico para fazê-lo. Ela ressaltou a importância das “conversas importantes sobre como essas ferramentas podem ser usadas para ferir ou intimidar pessoas”, especialmente para usuários anônimos que podem enfrentar sérios riscos de assédio ou fraude, como golpes financeiros envolvendo supostas emergências de amigos.
A criadora Jules Terpak sugeriu que usuários comuns estariam dispostos a liberar o recurso apenas para amigos próximos, mas não para o público em geral. Ela afirmou que, mesmo em um círculo de confiança, sentiria a necessidade de pedir permissão antes de postar um cameo de um amigo, reiterando que o ideal seria uma “cultura do consentimento” que a OpenAI deveria ter incorporado proativamente ao aplicativo. Em vez disso, a empresa transferiu essa responsabilidade para a boa vontade dos próprios usuários. Após a experiência com Chris Velazco, Geoffrey A. Fowler modificou suas configurações no Sora para “somente eu”, permitindo apenas que ele gerasse vídeos com sua imagem, eliminando o aspecto social do app em prol de sua privacidade e segurança. Essa mudança de configuração pode ser feita a qualquer momento por usuários que já criaram um cameo, embora não apague os vídeos já gerados. O episódio levantou questões profundas sobre a relação entre tecnologia, consentimento e a nossa identidade digital em um mundo cada vez mais mediado por IA.
Confira também: crédito imobiliário
Para se aprofundar nos dilemas e impactos da inteligência artificial na sociedade e nos direitos digitais, convidamos você a continuar explorando nossos conteúdos e Análises sobre as mais recentes inovações e seus desdobramentos. Mantenha-se informado conosco.
Dado Ruvic – 16.fev.25/Reuters
🔗 Links Úteis
Recursos externos recomendados