Quais são algumas táticas para o reconhecimento de mídias feitas artificialmente?


12

Com a crescente capacidade de criar fotos falsas, mordidas de som falsas e vídeos falsos, torna-se um problema crescente com o reconhecimento do que é real e do que não é. Mesmo agora, vemos vários exemplos de aplicativos que criam mídias falsas por pouco custo (consulte Deepfake , FaceApp , etc.).

Obviamente, se esses aplicativos forem usados ​​da maneira errada, eles poderão ser usados ​​para manchar a imagem de outra pessoa. O Deepfake pode ser usado para fazer uma pessoa parecer infiel ao seu parceiro. Outra aplicação poderia ser usada para fazer parecer que um político disse algo controverso.

Quais são algumas técnicas que podem ser usadas para reconhecer e proteger contra mídias fabricadas artificialmente?

Respostas:


2

O campo DMF ( Digital Media Forensics ) visa desenvolver tecnologias para a avaliação automatizada da integridade de uma imagem ou vídeo, de modo que DMF é o campo que você está procurando. Existem várias abordagens no DMF: por exemplo, aquelas baseadas em técnicas de aprendizado de máquina (ML), em particular, redes neurais convolucionais (CNNs).

Por exemplo, no artigo Deepfake Video Detection Using Recurrent Neural Networks (2018), David Güera e Edward J. Delp propõem uma análise de dois estágios composta por uma CNN para extrair recursos no nível do quadro seguido por uma RNN com reconhecimento temporal para capturar inconsistências temporais entre quadros introduzidos pela ferramenta deepfake. Mais especificamente, eles usam uma arquitetura convolucional de LSTM (CNN combinada com um LSTM), treinada de ponta a ponta, para que a CNN aprenda os recursos dos vídeos, que são passados ​​para a RNN, que tenta prever a probabilidade desses recursos pertencentes a um vídeo falso ou não. A seção 3 explica a criação de vídeos deepfake, o que leva a inconsistências entre os quadros de vídeo (que são exploradas no método proposto) devido ao uso de imagens com diferentes condições de visualização e iluminação.

Outros trabalhos semelhantes foram propostos. Veja esta lista com curadoria https://github.com/aerophile/awesome-deepfakes para artigos mais relacionados.


1

Eu acho que o contexto é importante aqui. Usar táticas como as usadas pela Scotland Yard há mais de um século é provavelmente o melhor caminho. Estabelecimento de álibis, linhas de tempo realistas, motivos. Para um cenário legal, seria possível provar que essas imagens eram falsas usando métodos como este. Do ponto de vista de TI, pode ser possível identificar uma origem para essas imagens. Se milhares de imagens duplicadas vieram de uma única origem, todas as imagens dessa origem são suspeitas.

Eu acho que, em geral, devemos nos treinar para não acreditar em tudo que vemos. Existem tantos métodos para falsificar imagens que a fotografia não pode mais ser considerada a melhor evidência de um evento. Não devemos ignorar todas as imagens, mas buscar a concorrência externa de fatos antes de tirar conclusões precipitadas. Se todos os fatos apontam para um evento acontecendo, é provável que essa fotografia seja real.


0

Supondo que artefatos e elementos não naturais não existam na mídia em questão e que a mídia é indistinguível do olho humano, a única maneira de conseguir fazer isso é rastrear a origem das imagens.

É possível fazer uma analogia com o ataque DoS (Denial of Service), em que um número absurdo de solicitações é enviado de um único IP para um único servidor, causando uma falha - Uma solução comum é um honeypot, em que um grande número de solicitações de um O IP é redirecionado para um servidor de engodo onde, mesmo se travar, o tempo de atividade não é comprometido. Algumas pesquisas foram feitas nessas linhas em que este artigo falou sobre a verificação da assinatura digital de uma imagem ou desta onde propuseram a detecção de imagens adulteradas e a identificação da câmera de origem.

Uma vez rastreada até uma fonte, se um número absurdo de imagens potencialmente falsas vier de uma fonte singular, ela deve ser questionada.

O medo comum surge quando estamos lidando com algo, com base na analogia, como um ataque DDoS (Negação de Serviço Distribuída) em que cada solicitação falsa vem de uma fonte distribuída - a Network Security encontrou maneiras de lidar com isso, mas a segurança e a detecção de fraudes nos termos da IA ​​simplesmente não está estabelecida.

Hoje em dia, basicamente, para uma mídia artificial bem pensada, com um propósito malicioso específico, é bastante difícil de ser detectada - mas o trabalho está sendo feito atualmente em segurança na IA. Se você planeja usar mídia artificial para fins maliciosos, eu diria que agora é provavelmente o melhor momento.

Esta segurança tem sido uma preocupação um pouco agora. Um artigo escrito por um cientista de dados cita

Os Deepfakes já foram usados ​​para tentar assediar e humilhar mulheres através de vídeos pornográficos falsos. Na verdade, o termo vem do nome de usuário de um usuário do Reddit que estava criando esses vídeos através da criação de redes adversárias generativas (GANs) usando o TensorFlow. Agora, funcionários da inteligência estão falando sobre a possibilidade de Vladimir Putin usar vídeos falsos para influenciar as eleições presidenciais de 2020. Mais pesquisas estão sendo feitas sobre os deepfakes como uma ameaça à democracia e à segurança nacional, bem como sobre como detectá-los.

Nota - Não tenho noção da segurança da rede, todo o meu conhecimento vem de uma conversa com um amigo e achei que seria uma boa analogia para usar aqui. Perdoe quaisquer erros na analogia e, se possível, corrija!


Seria bom se você pudesse fazer alguma pesquisa e fornecer um link para pelo menos 1 trabalho / artigo de pesquisa, baseado em algo nesse sentido (isto é, que explora a fonte dos vídeos potencialmente falsos).
Nbro 07/09/19

Além dos trabalhos que falam sobre os possíveis danos e os que geralmente tentam detectar artefatos, menos trabalhos fazendo o que é declarado na resposta como este ou este - Como dito, uma extensa pesquisa não foi realizada nessas linhas, mas é sendo explorado. Espero que esses links tenham ajudado!
Ashenoy 7/09/19

-1

As técnicas que você menciona usam GANs. A ideia principal dos GANs é que você tenha um gerador e um discriminador. O gerador gera novo conteúdo, o discriminador deve saber se o conteúdo é dos dados reais ou se foi gerado.

O discriminador é muito mais poderoso. Não deve ser muito difícil treinar um discriminador para detectar falsificações. Treinar um modelo capaz de identificar a manipulação e entender isso é uma prova de manipulação é mais difícil. É impossível obter uma prova de que algo não é manipulado.

Sobre a questão de como você lida com imagens photoshopadas: você observa as diferenças nos níveis de compactação na imagem. A palavra-chave a procurar é imagem forense: http://fotoforensics.com/tutorial-estq.php

Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.