Carregando...
— Colunas e Artigos

Deepfake e os perigos da manipulação

Foto de Isabella Galante
Autor Isabella Galante Analista de comunicação Sobre o autor

Montagens que alteram rostos e corpos em fotografias não são nenhuma novidade na internet. Esse tipo de recurso é utilizado há anos em diferentes setores e para diferentes...

Imagem de destaque do post

Montagens que alteram rostos e corpos em fotografias não são nenhuma novidade na internet. Esse tipo de recurso é utilizado há anos em diferentes setores e para diferentes fins, dos benéficos àqueles que podem ser bastante perigosos.

Entretanto, o aperfeiçoamento dessas ferramentas gerou um fenômeno recente, bastante discutido por especialistas pelo seu alto grau de compatibilidade com características físicas reais: o deepfake.

O termo apareceu em dezembro de 2017, quando um usuário da rede social Reddit que utilizava o codinome “deepfake” começou a postar vídeos pornográficos envolvendo celebridades como as atrizes Gal Gadot e Emma Watson. O material, porém, era falso.

Como o próprio nome diz, o deepfake é o uso de inteligência artificial para criar vídeos mentirosos, mas profundamente realistas. Com softwares de deep learning, o usuário aplica os rostos que quiser a clipes existentes, manipulando imagens e sons.

Isso é possível porque os algoritmos das plataformas digitais são capazes de analisar traços humanos, detalhando movimentos. O exemplo mais famoso disseminado nas redes sociais é o discurso fictício do ex-presidente dos Estados Unidos Barack Obama – mas Donald Trump também já foi vítima do mesmo tipo de manipulação.

Apesar de não serem perfeitos, esses vídeos são realistas o suficiente para confundir muita gente. Pesquisadores da Universidade de Stanford, nos Estados Unidos, fizeram experimentos usando esse tipo de imagem e os resultados mostram que o deepfake já engana 3 em 5 pessoas (60% dos examinados).

E esse número tende a aumentar, já que cada vez mais os meios para produção das montagens estão acessíveis ao público geral. O grupo Deeptrace estima que entre o fim de 2018 e junho de 2019 o número de vídeos deepfake na web quase dobrou, chegando a mais de 14 mil. Com isso, fica mais fácil espalhar desinformação de acordo com interesses próprios, que ganham sustentação por meio de supostas evidências visuais.

É preciso levar em conta as questões éticas e legais desse tipo de recurso, posto que gera desinformação e manipulação, podendo culminar inclusive em crises institucionais e políticas. A proliferação desses vídeos pode representar uma ameaça à democracia, à medida que coloca em risco a credibilidade de fontes genuínas, o que é particularmente preocupante em época de eleições.

Essas criações enganosas também podem prejudicar a vida de indivíduos famosos ou anônimos. Ainda de acordo com a empresa de segurança cibernética Deeptrace, cerca de 96% de todos os vídeos produzidos com deepfake são de natureza pornográfica, sendo que a maioria foi criada sem autorização da vítima.

Por enquanto, o Brasil não tem uma legislação específica para tratar desse tema, mas a prática pode ser enquadrada em violação de direitos autorais, proteção de dados e difamação (se expor a vítima ao ridículo).

Por outro lado, as empresas de tecnologia começaram a agir. O Facebook anunciou recentemente que terá uma política própria para conteúdos manipulados, como os vídeos com deepfakes, a menos que o material seja uma paródia ou sátira.

Segundo a plataforma, se uma foto ou um vídeo for classificado como falso ou parcialmente falso por um verificador, a postagem será significativamente reduzida do feed de notícias e não será permitido impulsioná-la. Quando alguém compartilhar o conteúdo, a pessoa receberá um aviso de que se trata de uma publicação falsa.

Já a China e o estado norte-americano da Califórnia proíbem a publicação de imagens alteradas com tecnologia deepfake. Não seguir a norma pode ser considerado um delito criminal.

É necessário dizer, porém, que o deepfake pode ter benefícios se usado para fins de entretenimento, como os efeitos especiais de filmes, séries e propagandas, ao criar personagens, “reviver” artistas mortos, gerar diferentes mudanças faciais e tornar as dublagens mais realistas.

De forma um pouco mais educativa, a técnica pode chegar às escolas e museus com experiências imersivas, por meio de depoimentos em vídeo de figuras históricas como Albert Einstein, Santos Dumont, Leonardo da Vinci, por exemplo. Ademais, no campo da saúde, é possível utilizar esse recurso para restaurar vozes de pessoas que as perderam para enfermidades.

Mesmo assim, é importante estar alerta ao se deparar com um vídeo na sua timeline. Alguns detalhes atualmente ajudam na identificação, tais quais: os movimentos da boca, pouco sincronizados ao que está sendo dito; os olhos que não piscam ou piscam pouco; os movimentos faciais e corporais pouco naturais e rígidos; os dentes pouco definidos; a transição da face com os cabelos e o pescoço borrada. A duração também é um diferencial significativo, uma vez que dificilmente as peças falsas passam de um minuto. Isso acontece porque o processamento desses materiais leva horas e exige bastante da máquina que opera o software.

Uma geração de cidadãos digitais midiaticamente educados pode ser nossa melhor aposta para uma sociedade mais diversa e tolerante. É por isso que temas como deepfake devem ser tratados na escola, já que desenvolve nos jovens a capacidade de questionar os conteúdos que consomem diariamente nas redes sociais, fazendo com que se informem por meio de fontes confiáveis e, assim, fortalecendo a democracia.

 

Imagem de StockSnap por Pixabay

Foto de Isabella Galante

Isabella Galante

Analista de comunicação

Isabella Galante é analista de comunicação do Instituto Palavra Aberta.

Voltar ao topo
FAÇA
PAR—
TE

Venha para nossa rede de educação midiática!
Fique por dentro das novidades

Receba gratuitamente nossa newsletter

Siga nossas redes sociais

Que tal usar nossa hashtag?

#educamidia