Vídeos falsos perfeitos serão reconhecidos por inteligência artificial
Vídeos falsos perfeitos serão reconhecidos por inteligência artificial

Vídeo: Vídeos falsos perfeitos serão reconhecidos por inteligência artificial

Vídeo: Vídeos falsos perfeitos serão reconhecidos por inteligência artificial
Vídeo: Os vestidos das estrelas - YouTube 2024, Abril
Anonim
Estreia da ópera sobre o envenenamento de Litvinenko começa na Inglaterra
Estreia da ópera sobre o envenenamento de Litvinenko começa na Inglaterra

Um ano atrás, Manish Agrawala de Stanford ajudou a desenvolver a tecnologia de sincronização labial que permitiu aos editores de vídeo alterar as palavras dos palestrantes de forma quase imperceptível. A ferramenta pode inserir facilmente palavras que uma pessoa nunca falou, mesmo no meio de uma frase, ou excluir palavras que ela disse. Tudo parecerá realista a olho nu e até mesmo para muitos sistemas de computador.

Essa ferramenta tornou muito mais fácil corrigir erros sem filmar novamente cenas inteiras e também adaptou programas de TV ou filmes para públicos diferentes em lugares diferentes. Mas essa tecnologia também criou novas oportunidades perturbadoras para vídeos falsos difíceis de encontrar, com a clara intenção de distorcer a verdade. Por exemplo, um vídeo republicano recente usou uma técnica mais áspera para uma entrevista com Joe Biden.

Neste verão, Agrawala e colegas em Stanford e UC Berkeley revelaram uma abordagem baseada em inteligência artificial para a tecnologia de sincronização labial. O novo programa detecta com precisão mais de 80% das falsificações, reconhecendo as menores discrepâncias entre os sons das pessoas e o formato de suas bocas.

Mas Agrawala, diretor do Stanford Institute for Media Innovation e professor de ciência da computação da Forest Baskett, que também é afiliado ao Stanford Institute for Human-Centered Artificial Intelligence, adverte que não há solução técnica de longo prazo para falsificações profundas.

Como funcionam as falsificações

Existem razões legítimas para a manipulação de vídeo. Por exemplo, qualquer pessoa filmando um programa de TV, filme ou comercial de ficção pode economizar tempo e dinheiro usando ferramentas digitais para corrigir erros ou personalizar scripts.

O problema surge quando essas ferramentas são usadas deliberadamente para espalhar informações falsas. E muitas das técnicas são invisíveis para o espectador médio.

Muitos vídeos falsos profundos dependem de trocas de rosto, literalmente sobrepondo o rosto de uma pessoa ao vídeo de outra. Mas, embora as ferramentas de mudança de rosto possam ser atraentes, elas são relativamente rudimentares e geralmente deixam artefatos digitais ou visuais que um computador pode detectar.

Por outro lado, as tecnologias de sincronização labial são menos visíveis e, portanto, mais difíceis de detectar. Eles manipulam uma parte muito menor da imagem e, em seguida, sintetizam movimentos labiais que correspondem exatamente a como a boca de uma pessoa realmente se moveria se ela falasse certas palavras. De acordo com Agrawal, com amostras suficientes da imagem e da voz de uma pessoa, um falso produtor pode fazer uma pessoa “dizer” qualquer coisa.

Detecção de falsificação

Preocupado com o uso antiético dessa tecnologia, Agrawala trabalhou com Ohad Freed, um estudante de doutorado em Stanford, para desenvolver uma ferramenta de detecção; Hani Farid, professor da Universidade da Califórnia, Berkeley School of Information; e Shruti Agarwal, estudante de doutorado em Berkeley.

No início, os pesquisadores experimentaram uma técnica puramente manual em que os observadores estudavam as imagens de vídeo. Funcionou bem, mas na prática era trabalhoso e demorado.

Os pesquisadores então testaram uma rede neural baseada em inteligência artificial que seria muito mais rápida para fazer a mesma análise após o treinamento em vídeo com o ex-presidente Barack Obama. A rede neural detectou mais de 90 por cento da sincronização labial do próprio Obama, embora a precisão dos outros alto-falantes tenha caído para cerca de 81 por cento.

Um verdadeiro teste da verdade

Os pesquisadores dizem que sua abordagem é apenas parte do jogo do gato e do rato. À medida que as técnicas de falsificação profunda são aprimoradas, elas deixam ainda menos chaves.

No final das contas, diz Agrawala, o verdadeiro problema não é tanto lutar contra vídeos profundamente falsos, mas sim combater a desinformação. Na verdade, observa ele, grande parte da desinformação surge da distorção do significado do que as pessoas realmente disseram.

“Para reduzir a desinformação, precisamos melhorar a educação para a mídia e desenvolver sistemas de responsabilização”, diz ele. "Isso pode significar leis que proíbam a produção deliberada de desinformação e as consequências de sua violação, bem como mecanismos para eliminar os danos resultantes."

Recomendado: