Quem detecta melhor deepfakes: homem ou máquina?

Principais conclusões

  • Deepfakes representam ameaças significativas à sociedade, incluindo a disseminação de desinformação, danos à reputação por meio de falsificação de identidade e instigação de conflitos pela segurança nacional.
  • Embora a tecnologia de IA ofereça ferramentas para detecção de deepfakes, elas não são perfeitas e a discrição humana continua crucial na identificação de deepfakes.
  • As ferramentas de detecção humana e de IA têm diferentes pontos fortes e fracos na identificação de deepfakes, e a combinação de suas habilidades pode melhorar as taxas de sucesso na detecção e mitigação dos perigos da tecnologia deepfake.

Deepfakes ameaçam todos os aspectos da sociedade. A nossa capacidade de identificar conteúdos falsos é crucial para anular a desinformação, mas à medida que a tecnologia de IA melhora, em quem podemos confiar para detectar deepfakes: homem ou máquina?

Os perigos dos deepfakes

À medida que a tecnologia de IA avança, os perigos dos deepfakes representam uma ameaça crescente para todos nós. Aqui está um rápido resumo de algumas das questões mais urgentes que os deepfakes representam:

  • Desinformação: Vídeos e gravações de voz deepfaked podem espalhar desinformação, como notícias falsas.
  • Falsificação de identidade: Ao se passar por indivíduos, os deepfakes podem prejudicar a reputação das pessoas ou enganar qualquer pessoa por quem sejam conhecidas.
  • Segurança nacional: O cenário apocalíptico óbvio com deepfakes são imagens ou áudio fabricados de um líder global instigando conflito.
  • Agitação civil: Imagens e áudio enganosos também podem ser usados ​​pelas partes para atiçar a raiva e a agitação civil entre grupos específicos.
  • Cibersegurança: Os cibercriminosos já estão a utilizar ferramentas de clonagem de voz de IA para atingir indivíduos com mensagens convincentes de pessoas que conhecem.
  • Privacidade e consentimento: O uso malicioso de deepfakes assume a aparência de indivíduos sem o seu consentimento.
  • Confiança e segurança: Se você não consegue distinguir entre verdade e engano, informações precisas tornam-se igualmente indignas de confiança.

Os deepfakes só se tornarão mais convincentes, por isso precisamos de ferramentas e processos robustos para detectá-los. A IA está fornecendo uma dessas ferramentas na forma de modelos de detecção de deepfake. No entanto, assim como os algoritmos projetados para identificar escrita gerada por IA, as ferramentas de detecção de deepfake não são perfeitas.

  Como obter voz Siri neutra em termos de gênero no iPhone, iPad e Mac

Neste momento, a discrição humana é a única outra ferramenta em que podemos confiar. Então, somos melhores que algoritmos na identificação de deepfakes?

Os algoritmos podem detectar deepfakes melhor que os humanos?

Deepfakes são uma ameaça tão séria que gigantes da tecnologia e grupos de pesquisa estão dedicando vastos recursos à pesquisa e desenvolvimento. Em 2019, empresas como Meta, Microsoft e Amazon ofereceram US$ 1.000.000 em prêmios durante um Desafio de detecção de Deepfake para o modelo de detecção mais preciso.

O modelo de melhor desempenho teve 82,56% de precisão em relação a um conjunto de dados de vídeos disponíveis publicamente. No entanto, quando os mesmos modelos foram testados em um “conjunto de dados de caixa preta” de 10.000 vídeos não vistos, o modelo de melhor desempenho teve apenas 65,18% de precisão.

Também temos muitos estudos analisando o desempenho das ferramentas de detecção de deepfake de IA contra seres humanos. É claro que os resultados variam de um estudo para outro, mas geralmente, os humanos igualam ou superam a taxa de sucesso das ferramentas de detecção de deepfakes.

Um estudo de 2021 publicado em PNAS descobriram que “observadores humanos comuns” alcançaram uma taxa de precisão ligeiramente maior do que as principais ferramentas de detecção de deepfake. No entanto, o estudo também descobriu que os participantes humanos e os modelos de IA eram suscetíveis a diferentes tipos de erros.

Curiosamente, a pesquisa realizada por A Universidade de Sydney descobriu que o cérebro humano é, inconscientemente, mais eficaz em detectar deepfakes do que nossos esforços conscientes.

Detectando pistas visuais em Deepfakes

A ciência da detecção de deepfakes é complexa e a análise necessária varia, dependendo da natureza da filmagem. Por exemplo, o infame vídeo deepfake do líder norte-coreano Kim Jong-un de 2020 é basicamente um vídeo falante. Nesse caso, o método de detecção de deepfake mais eficaz pode ser a análise de visemas (movimentos da boca) e fonemas (sons fonéticos) em busca de inconsistências.

Especialistas humanos, espectadores casuais e algoritmos podem realizar esse tipo de análise, mesmo que os resultados variem. O MIT define oito perguntas para ajudar a identificar vídeos deepfake:

  • Preste atenção no rosto. As manipulações sofisticadas do DeepFake são quase sempre transformações faciais.
  • Preste atenção nas bochechas e na testa. A pele parece muito lisa ou muito enrugada? O envelhecimento da pele é semelhante ao envelhecimento dos cabelos e dos olhos? DeepFakes pode ser incongruente em algumas dimensões.
  • Preste atenção aos olhos e sobrancelhas. As sombras aparecem em lugares esperados? DeepFakes pode não conseguir representar totalmente a física natural de uma cena.
  • Preste atenção aos óculos. Existe algum brilho? Há muito brilho? O ângulo do brilho muda quando a pessoa se move? Mais uma vez, os DeepFakes podem não conseguir representar totalmente a física natural da iluminação.
  • Preste atenção aos pelos faciais ou à falta deles. Esses pelos faciais parecem reais? DeepFakes pode adicionar ou remover bigode, costeletas ou barba. No entanto, DeepFakes pode não conseguir tornar as transformações dos pelos faciais totalmente naturais.
  • Preste atenção às manchas faciais. A toupeira parece real?
  • Preste atenção ao piscar. A pessoa pisca o suficiente ou demais?
  • Preste atenção aos movimentos dos lábios. Alguns deepfakes são baseados em sincronização labial. Os movimentos dos lábios parecem naturais?
  Como ir para a tela inicial no iPhone X

As mais recentes ferramentas de detecção de deepfake de IA podem analisar os mesmos fatores, novamente, com vários graus de sucesso. Os cientistas de dados também estão constantemente desenvolvendo novos métodos, como a detecção do fluxo sanguíneo natural nos rostos dos alto-falantes na tela. Novas abordagens e melhorias nas existentes podem fazer com que as ferramentas de detecção de deepfake de IA superem consistentemente os humanos no futuro.

Detectando pistas de áudio em Deepfakes

Detectar áudio deepfake é um desafio totalmente diferente. Sem as pistas visuais do vídeo e a oportunidade de identificar inconsistências audiovisuais, a detecção de deepfake depende muito da análise de áudio (outros métodos, como a verificação de metadados, também podem ajudar, em alguns casos).

Um estudo publicado por Faculdade Universitária de Londres em 2023, descobriu-se que os humanos podem detectar fala deepfake 73% das vezes (inglês e mandarim). Tal como acontece com os vídeos deepfake, os ouvintes humanos muitas vezes detectam intuitivamente padrões de fala não naturais na fala gerada por IA, mesmo que não consigam especificar o que parece estranho.

Os sinais comuns incluem:

  • Falando mal
  • Falta de expressão
  • Ruído de fundo ou interferência
  • Inconsistências vocais ou de fala
  • Falta de “plenitude” nas vozes
  • Entrega com script excessivo
  • Ausência de imperfeições (falsas partidas, correções, pigarro, etc.)

Mais uma vez, os algoritmos também podem analisar a fala em busca dos mesmos sinais deepfake, mas novos métodos estão tornando as ferramentas mais eficazes. Pesquisa por USENIX identificaram padrões na reconstrução do trato vocal com IA que não conseguem emular a fala natural. Ele resume que os geradores de voz de IA produzem tratos vocais estreitos correspondentes ao áudio (aproximadamente do tamanho de um canudo) sem os movimentos naturais da fala humana.

  Um Guia Completo para o Processo e Práticas de Gerenciamento de Liberação

Pesquisas anteriores do Instituto Horst Görtz analisou áudio genuíno e deepfake em inglês e japonês, revelando diferenças sutis nas frequências mais altas de fala genuína e deepfakes.

Tanto o trato vocal quanto as inconsistências de alta frequência são perceptíveis para ouvintes humanos e modelos de detecção de IA. No caso de diferenças de alta frequência, os modelos de IA poderiam, teoricamente, tornar-se cada vez mais precisos – embora o mesmo também possa ser dito para os deepfakes de IA.

Humanos e algoritmos são enganados por deepfakes, mas de maneiras diferentes

Estudos sugerem que os humanos e as mais recentes ferramentas de detecção de IA são igualmente capazes de identificar deepfakes. As taxas de sucesso podem variar entre 50% e 90+%, dependendo dos parâmetros do teste.

Por extensão, humanos e máquinas também são enganados por deepfakes em proporções semelhantes. Crucialmente, porém, somos suscetíveis de diferentes maneiras, e este pode ser o nosso maior trunfo para enfrentar os perigos da tecnologia deepfake. Combinar os pontos fortes dos humanos e das ferramentas de detecção de deepfakes mitigará os pontos fracos de cada um e melhorará as taxas de sucesso.

Por exemplo, MIT pesquisas descobriram que os humanos eram melhores na identificação de deepfakes de líderes mundiais e pessoas famosas do que os modelos de IA. Ele também revelou que os modelos de IA lutavam com filmagens com várias pessoas, embora sugerisse que isso poderia resultar do treinamento de algoritmos em filmagens com alto-falantes únicos.

Por outro lado, o mesmo estudo descobriu que os modelos de IA superaram os humanos com imagens de baixa qualidade (borradas, granuladas, escuras, etc.) que poderiam ser usadas intencionalmente para enganar os espectadores humanos. Da mesma forma, métodos recentes de detecção de IA, como o monitoramento do fluxo sanguíneo em regiões faciais específicas, incorporam análises das quais os humanos não são capazes.

À medida que mais métodos são desenvolvidos, a capacidade da IA ​​para detectar sinais que não conseguimos apenas melhorará, mas também melhorará a sua capacidade de enganar. A grande questão é se a tecnologia de detecção de deepfake continuará a superar os próprios deepfakes.

Vendo as coisas de maneira diferente na era dos deepfakes

As ferramentas de detecção de deepfake de IA continuarão a melhorar, assim como a qualidade do próprio conteúdo deepfake. Se a capacidade da IA ​​de enganar ultrapassar sua capacidade de detectar (como aconteceu com o texto gerado pela IA), a discrição humana pode ser a única ferramenta que nos resta para combater os deepfakes.

Todos têm a responsabilidade de aprender os sinais dos deepfakes e como identificá-los. Além de nos protegermos de fraudes e ameaças à segurança, tudo o que discutimos e partilhamos online fica vulnerável à desinformação se perdermos a noção da realidade.