Artigos Relacionados

📚 Continue Lendo

Mais artigos do nosso blog

PUBLICIDADE

Polícia de SP Alerta Sobre Golpe da Voz por IA

A Polícia Civil de São Paulo lançou um alerta crucial sobre um novo e sofisticado método empregado por criminosos para executar fraudes financeiras, envolvendo ligações telefônicas e o uso de inteligência artificial. Este método, batizado informalmente de Golpe da Voz por IA, tem como objetivo principal a clonagem da voz das vítimas para enganar seus […]

A Polícia Civil de São Paulo lançou um alerta crucial sobre um novo e sofisticado método empregado por criminosos para executar fraudes financeiras, envolvendo ligações telefônicas e o uso de inteligência artificial. Este método, batizado informalmente de Golpe da Voz por IA, tem como objetivo principal a clonagem da voz das vítimas para enganar seus familiares e solicitar dinheiro. A atenção redobrada é essencial diante do cenário de crescente sofisticação dos golpes digitais no país.

O funcionamento do golpe inicia-se com uma ação que, à primeira vista, parece inofensiva e cotidiana: um telefonema mudo. As vítimas atendem a uma ligação, que pode durar poucos segundos, sem que haja qualquer interação audível do outro lado. Esse breve contato, no entanto, é o momento em que os criminosos captam amostras da voz da pessoa, que posteriormente serão processadas por avançadas ferramentas de inteligência artificial. Com apenas uma pequena gravação, essas tecnologias são capazes de replicar o timbre, a entonação e até o sotaque, criando uma voz artificial praticamente indistinguível da original.

Polícia de SP Alerta Sobre Golpe da Voz por IA e ligação muda

A etapa seguinte e mais perigosa do Golpe da Voz por IA ocorre quando os golpistas, utilizando a voz clonada da vítima, entram em contato com seus familiares e amigos. Passando-se pela pessoa real, eles inventam situações de emergência ou urgência, geralmente relacionadas a problemas financeiros, pedindo transferências de dinheiro. “Com inteligência artificial, eles clonam seu tom e jeito de falar”, detalhou a Polícia Civil em suas redes sociais, enfatizando a habilidade dos fraudadores em “usar essa voz falsa para aplicar golpes, fingindo ser você e enganando até familiares”.

Este método de fraude é tecnicamente conhecido como “deepfake”, uma técnica avançada que manipula ou gera mídias (sons, imagens ou vídeos) com base em gravações reais, criando conteúdos artificiais extremamente convincentes. A popularização de ferramentas de IA tem facilitado o acesso e a utilização dessas tecnologias por parte de criminosos, que as aplicam em diversos cenários, incluindo a tentativa de acesso a contas bancárias. Daniel Barsotti, diretor de tecnologia da empresa idwall, havia mencionado em uma reportagem para a Folha em junho que apenas três segundos de gravação de voz seriam suficientes para imitar uma pessoa usando ferramentas de IA, ressaltando a facilidade e a rapidez com que a clonagem pode ser efetuada.

A Ascensão da Tecnologia e os Riscos Associados

O desenvolvimento e aprimoramento de tecnologias de inteligência artificial têm permitido avanços significativos, mas também abrem portas para novos tipos de crime. Um exemplo notório é a ferramenta de clonagem de voz desenvolvida pela OpenAI, a mesma empresa responsável pelo ChatGPT. Em março do ano passado, a OpenAI anunciou sua criação, mas ressaltou a intenção de manter o produto sob rigoroso controle. A empresa visava implementar robustas medidas de segurança para evitar seu uso indevido em falsificações mal intencionadas, especialmente em crimes como o que agora alerta a Polícia Civil paulista. Na época do anúncio, a OpenAI informou que a sua tecnologia de voz por IA demandava 15 segundos de gravação para reproduzir a voz artificialmente. A evolução rápida dessas ferramentas levanta preocupações sobre a necessidade contínua de adaptação das estratégias de segurança cibernética e da conscientização pública.

Especialistas em segurança alertam que, para ter acesso a fotos, vídeos ou áudios que ajudem na clonagem de voz ou no perfil da vítima, os golpistas frequentemente vasculham redes sociais. Informações pessoais e de mídia publicadas por usuários desatentos podem ser coletadas e usadas para construir uma identidade falsa ou fortalecer a credibilidade do golpe. Além disso, o uso de fotos de documentos furtados complementa o arsenal dos fraudadores para legitimar seus atos e acessar dados sensíveis ou convencer a família das vítimas.

Cenário Alarmente de Estelionatos no Brasil

A preocupação com o Golpe da Voz por IA se intensifica ao considerarmos o cenário geral de crimes de estelionato no Brasil. Dados do Anuário Brasileiro de Segurança Pública, divulgados em julho do ano passado, revelaram um recorde alarmante de 2,16 milhões de casos de estelionato no país em 2022. Essa estatística representa uma média chocante de 247 golpes registrados a cada hora, um volume sem precedentes que reflete a vulnerabilidade da população brasileira a esse tipo de crime.

Polícia de SP Alerta Sobre Golpe da Voz por IA - Imagem do artigo original

Imagem: www1.folha.uol.com.br

Adicionalmente, uma pesquisa encomendada pelo Fórum Brasileiro de Segurança Pública e conduzida pelo Datafolha evidenciou a amplitude do problema: mais de 32 milhões de brasileiros, o que corresponde a quase uma a cada cinco pessoas (19,1%) com 16 anos ou mais, foram alvo de ameaças ou chantagens por criminosos que usaram seus dados ou de seus familiares para exigir dinheiro, em um período de 12 meses. A pesquisa estimou que esse cenário de criminalidade gerou um prejuízo financeiro colossal, alcançando a marca de R$ 24,2 bilhões. Esses números sublinham a urgência da conscientização e da implementação de medidas de proteção mais eficazes contra o roubo de dados e identidade, especialmente quando se trata de novas técnicas de fraude como o deepfake de voz.

Como se Prevenir Contra o Golpe da Voz por IA

Diante da crescente sofisticação dos golpes, a Polícia Civil de São Paulo reforça a importância de medidas preventivas. Para evitar ser vítima do Golpe da Voz por IA e, especificamente, do telefonema mudo que precede a clonagem, a principal recomendação é cautela extrema ao receber chamadas de números desconhecidos. Em vez de iniciar a conversação com o tradicional “alô” ou “sim”, que fornecem as amostras de voz que os criminosos buscam, a orientação é manter o silêncio. Permanecer mudo ou aguardar que a pessoa do outro lado se identifique pode frustrar a tentativa de captura da voz.

Caso você receba um telefonema suspeito que fica mudo e é desligado rapidamente, a Polícia Civil orienta a bloquear e denunciar o número imediatamente. Além disso, a disseminação dessas informações para amigos e familiares é uma medida crucial. Ao instruir o círculo social sobre esses procedimentos de segurança, a chance de mais pessoas se tornarem vítimas desse tipo de fraude é significativamente reduzida, criando uma rede de proteção comunitária contra esses criminosos. A prevenção coletiva é fundamental para combater essas ameaças digitais que evoluem constantemente. Para aprofundar seu conhecimento sobre segurança online e prevenir golpes digitais, confira mais informações e dicas em portais de tecnologia e segurança, como o g1, que oferece vasto material sobre o tema: Como se proteger dos golpes digitais em 2024.

Confira também: crédito imobiliário

Em síntese, o Golpe da Voz por IA representa uma nova fronteira nas fraudes digitais, utilizando tecnologia avançada para enganar e causar prejuízos financeiros. A Polícia Civil de SP reforça a necessidade de vigilância constante e a adoção de práticas seguras no uso do telefone. Mantenha-se informado sobre as últimas táticas dos criminosos e compartilhe essas dicas de prevenção com seus entes queridos para aumentar a segurança de todos. Continue explorando nossas notícias sobre crimes e segurança urbana para mais insights e recomendações de proteção.

Crédito da imagem: Pau Barrena – 26.fev.24/AFP

Links Externos

🔗 Links Úteis

Recursos externos recomendados

Leia mais

PUBLICIDADE

Plataforma de Gestão de Consentimento by Real Cookie Banner