Atenção: deepfakes podem promover violência de gênero com vídeos pornográfico.

AAtenção: Deepfakes podem promover violência de gênero com vídeos pornográficos.



A tecnologia deepfake permite produzir vídeos manipulados em que é possível mostrar indivíduos fazendo ou falando coisas falsas. A tática é usada com diferentes fins na Internet, como forma de sátira e até a difamação de pessoas. Pensando nos riscos da popularização de clipes do tipo nas redes, a organização Witness, que defende a utilização responsável de deepfakes, divulgou nesta quarta-feira (16) o relatório da convenção “Deepfakes e Mídia Sintética Prepare-se Agora”, que ocorreu em 25 de julho, em São Paulo.



O objetivo do levantamento é promover a discussão sobre vídeos manipulados com uma abordagem menos centrada nos Estados Unidos ou na Europa. As principais vítimas da nova tecnologia são grupos marginalizados, como ativistas, movimentos sociais e mulheres. Por exemplo, deepfakes pornográficos se popularizaram no último ano com a manipulação de imagens de celebridades como Gal Gadot e Emma Watson.





No Brasil, a tecnologia deepfake costuma ser usada em paródias com políticos. No entanto, ela também pode ser aplicada para difamar pessoas ou provocar a violência de gênero. Alguns exemplos são os vídeos falsos de pornô com mulheres e a criação de fotos manipuladas de mulheres nuas, como é o caso do Deepnude.

Como a tecnologia de manipulação de clipes é de fácil acesso, internautas devem duvidar de vídeos cuja origem seja duvidosa. Os clipes podem comprometer a credibilidade de instituições, figuras públicas e movimentos sociais.

Devido a esses riscos, é preciso que cidadãos tenham acesso a ferramentas para verificar a veracidade de vídeos compartilhados online. Entre as dicas de especialistas de segurança para reconhecer deepfakes está prestar atenção no padrão de luzes do vídeo para verificar erros, ou observar o movimento dos olhos ou da boca da pessoa para procurar por imperfeições.

De acordo com o relatório da Witness, uma solução seria desenvolver ferramentas específicas para o combate ao deepfake, e compartilhá-las com a população. Por exemplo, da mesma forma que o deepfake é uma inteligência artificial (IA) programada para criar vídeos falsos, seria possível treinar uma IA para detectar a manipulação de vídeo em si. Ainda, a IA poderia aprender o estilo de fala e movimento de alguém para indicar possíveis inconsistências em vídeos.
Fonte  Alagoas alerta 

Site Revista do Luiz

,