Atenção: deepfakes podem promover violência de gênero com vídeos pornográfico. -  Revista do Luiz

Ultimas

Teste Teste Teste



quinta-feira, 17 de outubro de 2019

Atenção: deepfakes podem promover violência de gênero com vídeos pornográfico.

AAtenção: Deepfakes podem promover violência de gênero com vídeos pornográficos.



A tecnologia deepfake permite produzir vídeos manipulados em que é possível mostrar indivíduos fazendo ou falando coisas falsas. A tática é usada com diferentes fins na Internet, como forma de sátira e até a difamação de pessoas. Pensando nos riscos da popularização de clipes do tipo nas redes, a organização Witness, que defende a utilização responsável de deepfakes, divulgou nesta quarta-feira (16) o relatório da convenção “Deepfakes e Mídia Sintética Prepare-se Agora”, que ocorreu em 25 de julho, em São Paulo.



O objetivo do levantamento é promover a discussão sobre vídeos manipulados com uma abordagem menos centrada nos Estados Unidos ou na Europa. As principais vítimas da nova tecnologia são grupos marginalizados, como ativistas, movimentos sociais e mulheres. Por exemplo, deepfakes pornográficos se popularizaram no último ano com a manipulação de imagens de celebridades como Gal Gadot e Emma Watson.





No Brasil, a tecnologia deepfake costuma ser usada em paródias com políticos. No entanto, ela também pode ser aplicada para difamar pessoas ou provocar a violência de gênero. Alguns exemplos são os vídeos falsos de pornô com mulheres e a criação de fotos manipuladas de mulheres nuas, como é o caso do Deepnude.

Como a tecnologia de manipulação de clipes é de fácil acesso, internautas devem duvidar de vídeos cuja origem seja duvidosa. Os clipes podem comprometer a credibilidade de instituições, figuras públicas e movimentos sociais.

Devido a esses riscos, é preciso que cidadãos tenham acesso a ferramentas para verificar a veracidade de vídeos compartilhados online. Entre as dicas de especialistas de segurança para reconhecer deepfakes está prestar atenção no padrão de luzes do vídeo para verificar erros, ou observar o movimento dos olhos ou da boca da pessoa para procurar por imperfeições.

De acordo com o relatório da Witness, uma solução seria desenvolver ferramentas específicas para o combate ao deepfake, e compartilhá-las com a população. Por exemplo, da mesma forma que o deepfake é uma inteligência artificial (IA) programada para criar vídeos falsos, seria possível treinar uma IA para detectar a manipulação de vídeo em si. Ainda, a IA poderia aprender o estilo de fala e movimento de alguém para indicar possíveis inconsistências em vídeos.
Fonte  Alagoas alerta 

Nenhum comentário:

Postar um comentário

Postagem mais recente Postagem mais antiga Página inicial
 Revista do Luiz

Revista do Luiz é uma fonte de Noticia e Moda para o Publico Brasileiro

Comments

3-comments

LATEST

3-latest-65px

Archive

Pesquisar este blog

Arquivo do blog

Follow us

Header Background

Header Background
Header Background Image. Ideal width 1600px with.

Popular Posts

Sections-BTLabels

Sports News

[Content Marketing][recentmag]
Footer Logo

SEARCH

Popular

SEARCH