Carregando agora

Celebridades Brasileiras São Vítimas da IA; Aprenda a Reconhecer Conteúdos Falsos

Compartilhe:

Resumo: Forbes, a mais conceituada revista de negócios e economia do mundo.
Criminosos utilizam réplicas feitas com deepfake para aplicar golpes online
O post Celebridades Brasileiras São Vítimas da IA; Aprenda a Reconhecer Conteúdos Falsos apareceu primeiro em Forbes Brasil. 

Forbes, a mais conceituada revista de negócios e economia do mundo.

Nos primeiros dias de 2025, a cantora Anitta publicou um vídeo em que conversa com uma versão de sua voz feita por IA. “A inteligência artificial rouba nossas características”, disse a carioca. Em casos mais extremos, criminosos utilizam réplicas de especialistas, como o médico Drauzio Varella, para vender medicamentos falsos.

“As deepfakes estão crescendo não apenas no Brasil, mas em todo o mundo, impulsionadas, principalmente, pelo amplo acesso a ferramentas de IA. Hoje, qualquer pessoa com um smartphone pode gerar deepfakes em minutos”, explica Fabrício Carraro, especialista em inteligência artificial e program manager na Alura.

Em julho de 2024, a atriz Paolla Oliveira se pronunciou sobre o assunto: “Estão utilizando a minha voz e o meu rosto sem a minha permissão em diversos conteúdos para disseminar informações falsas. Não confie em tudo que você vê pela internet”

“O Brasil é um dos países com maior número de usuários de redes sociais, que se tornaram espaços ideais para a disseminação de deepfakes”, afirma Carraro. “Esses vídeos podem ser usados tanto para fins satíricos quanto para a manipulação da opinião pública.”

A imagem de William Bonner, editor-chefe do Jornal Nacional, já foi manipulada para a repercussão de notícias falsas sobre diversos assuntos. Em outubro de 2024, cibercriminosos divulgaram um golpe financeiro com um vídeo falso do apresentador.

A lista de personalidades brasileiras que já foram “clonadas” pela IA é extensa e inclui nomes como Neymar, Eliana, Ana Maria Braga, Ivete Sangalo e Jade Picon – além de figuras da política nacional.

No entanto, de acordo com Fabrício Carraro, “adolescentes criam deepfakes de colegas de classe para humilhá-los, criminosos clonam pessoas comuns para enganar familiares e geram conteúdos íntimos falsos para chantagear as vítimas.”

Como Reconhecer Conteúdos Falsos

Para não cair em armadilhas online, o especialista recomenda a adoção de uma postura de “ceticismo crítico”. “Isso significa sempre questionar a autenticidade de vídeos, áudios ou imagens, mesmo quando provêm de fontes conhecidas, como amigos ou familiares.”

Ademais, existem algumas dicas práticas para reconhecer conteúdos feitos por IA. Confira:

  • Observe o movimento dos olhos e da boca: deepfakes têm dificuldade em replicar movimentos naturais dos olhos e na sincronia da fala com os lábios.
  • Preste atenção na iluminação e sombras: inconsistências podem indicar manipulação.
  • Verifique a qualidade da voz e do áudio: conteúdos gerados por deepfake podem parecer artificiais, com entonações ou pausas incomuns.
  • Analise detalhes no rosto: olhe para as bordas do rosto ou para áreas como o cabelo e os óculos.
  • Procure por movimentos corporais anormais: em vídeos, observe se os gestos e os movimentos corporais parecem naturais e consistentes com a pessoa.
  • Questione mensagens sensacionalistas: golpistas costumam usar deepfakes para causar impacto e criar urgência.
  • Observe a resolução do vídeo: os vídeos frequentemente apresentam baixa qualidade.
  • Confirme com fontes confiáveis: se algo parecer suspeito, entre em contato diretamente com a pessoa ou instituição envolvida ou pesquise em fontes confiáveis para confirmar a veracidade.

O post Celebridades Brasileiras São Vítimas da IA; Aprenda a Reconhecer Conteúdos Falsos apareceu primeiro em Forbes Brasil.

URL Original da postagem: Read More

Compartilhe:

Deixe uma resposta

Charles Corrêa Blog