Quem acha que o tempo das 'fakenews' está passando
precisa pensar melhor.
O diretor Jordan Peele (Oscar de roteiro por
"Corra!") disseminou um vídeo em que Barack Obama aparece xingando
Donald Trump com um termo chulo ("deepshit"). Só um problema: o vídeo
é falso.
Foi gerado por técnicas de inteligência artificial —e
dublado por— Peele que cada vez mais permitem sintetizar imagens e
vídeos indistintos do que chamamos de realidade.
Esse fenômeno é chamado de "deepfake"
(falsificação profunda). Quem acha que o tempo das "fakenews" está
passando precisa pensar melhor. Peele soltou o vídeo justamente para alertar
sobre a popularização e o barateamento dessas novas ferramentas.
O que torna esse tema especialmente grave é que
confiamos em imagens e em vídeos. Estamos culturalmente programados a aceitar o
que vemos com nossos próprios olhos como real. Essa confiança pode agora ser
abusada.
O pesquisador Giorgio Patrini dá em seu site um exemplo
estarrecedor. Ele publicou quatro fotos de pessoas diferentes, perguntando para
os leitores qual seria a imagem "falsa".
Para a surpresa de quem vê as imagens, a resposta é que
todas são falsas. E mais importante: nenhuma daquelas pessoas retratadas nas
fotos existe.
Os rostos foram sintetizados digitalmente, utilizando
aprendizado de máquina, e são indistinguíveis da imagem de pessoas reais.
O que faltou discutir na semana passada quando o vídeo
de Peeleviralizou é como combater as "deepfakes".Hoje, as ferramentas
de análise forense de vídeos e imagens são facilmente enganadas por esse tipo
de técnica.
Em outras palavras, se for preciso provar que uma
imagem dessa natureza é falsa, há chance grande de a perícia ser inconclusiva.
Com isso, há dois enfoques principais sendo propostos
como antídoto ao fenômeno. O primeiro é utilizar a própria inteligência
artificial para detectar se uma imagem ou vídeo é falso. Esse enfoque fazia
muito sentido até pouco tempo atrás.
A questão é que surgiu um novo método que transforma o
antídoto em veneno. Chamado GAN (acrônimo de "redes adversárias
generativas"), ele faz com que a criação de uma técnica para identificar
imagens falsas com inteligência artificial contribua para tornar as
falsificações ainda mais perfeitas. Com um GAN os falsificadores poderão
aperfeiçoar sua técnica, tornando a identificação do que é falso ainda mais
difícil.
O outro enfoque é o uso de blockchain para certificação
da captação de imagens virtuais. Em outras palavras, toda imagem captada
diretamente da realidade, com celulares ou câmeras profissionais, seria
registrada num arquivo global, imutável e acessível em qualquer parte do mundo,
certificando que aquela imagem é "real".
O problema desse enfoque é que ele é extremamente
difícil de implementar. Além disso, qualquer edição na imagem ou no vídeo (por
exemplo, colocando um filtro) tornaria a "certidão de realidade"
inválida.
Essas duas estratégias são insatisfatórias. Até o
momento, são o que há de mais concreto para combater "deepfakes". Se
eu fosse pessimista, diria que estamos lascados. Como sou otimista, tenho
confiança de que a inventividade humana irá superar também esse abacaxi.
Já era: 'Deepfakes' para gerar vídeos do ex-presidente
Obama
Já é: 'Deepfakes' para transformar os atores e atrizes
de todos os filmes em Nicholas Cage.
Já vem: O primeiro caso de uso político de 'deepfakes'
em áudio, imagem ou vídeo.
_______________________