¿Cuáles son algunas tácticas para reconocer los medios artificiales?


12

Con la creciente capacidad de crear imágenes falsas, fragmentos de sonido falsos y videos falsos a bajo costo, se convierte en un problema cada vez mayor para reconocer qué es real y qué no. Incluso ahora vemos una serie de ejemplos de aplicaciones que crean medios falsos a bajo costo (consulte Deepfake , FaceApp , etc.).

Obviamente, si estas aplicaciones se usan de manera incorrecta, podrían usarse para empañar la imagen de otra persona. Deepfake podría usarse para hacer que una persona parezca infiel a su pareja. Se podría usar otra aplicación para hacer que parezca que un político dijo algo controvertido.

¿Cuáles son algunas técnicas que se pueden usar para reconocer y proteger contra los medios artificiales?

Respuestas:


2

El campo de Digital Media Forensics (DMF) tiene como objetivo desarrollar tecnologías para la evaluación automatizada de la integridad de una imagen o video, por lo que DMF es el campo que está buscando. Hay varios enfoques en DMF: por ejemplo, aquellos basados ​​en técnicas de aprendizaje automático (ML), en particular, redes neuronales convolucionales (CNN).

Por ejemplo, en el documento Deepfake Video Detection Using Recurrent Neural Networks (2018), David Güera y Edward J. Delp proponen un análisis de dos etapas compuesto por una CNN para extraer características en el nivel de cuadro seguido de un RNN consciente del tiempo para capturar inconsistencias temporales entre cuadros introducidos por la herramienta deepfake. Más específicamente, usan una arquitectura convolucional LSTM (CNN combinada con un LSTM), que está entrenada de extremo a extremo, para que la CNN aprenda las características de los videos, que se pasan a la RNN, que intenta predecir la probabilidad de esas características que pertenecen a un video falso o no. La Sección 3 explica la creación de videos profundos, lo que genera inconsistencias entre los cuadros de video. (que se explotan en el método propuesto) debido al uso de imágenes con diferentes condiciones de visualización e iluminación.

Se han propuesto otros trabajos similares. Vea esta lista curada https://github.com/aerophile/awesome-deepfakes para más documentos relacionados.


1

Creo que el contexto es importante aquí. Usar tácticas como las utilizadas por Scotland Yard durante más de un siglo es probablemente la mejor manera. Establecer coartadas, líneas de tiempo realistas, motivos. Para un entorno legal, sería posible demostrar que estas imágenes eran falsas utilizando métodos como este. Desde una perspectiva de TI, puede ser posible determinar el origen de estas imágenes. Si miles de imágenes duplicadas provienen de un solo origen, entonces cualquier imagen de este origen es sospechosa.

Creo que, en general, deberíamos volver a entrenarnos para no creer todo lo que vemos. Hay tantos métodos para falsificar imágenes, que la fotografía ya no puede considerarse como la mejor evidencia de que ocurra un evento. No debemos ignorar todas las imágenes, sino buscar la concurrencia externa de los hechos antes de llegar a conclusiones. Si todos los hechos apuntan a un evento, es probable que esa fotografía sea real.


0

Suponiendo que los artefactos y los elementos no naturales no existan en los medios en cuestión y que los medios sean indistinguibles para el ojo humano, la única forma de hacerlo es rastrear la fuente de las imágenes.

Se puede establecer una analogía con el ataque DoS (denegación de servicio), donde se envía un número absurdo de solicitudes desde una única IP a un solo servidor, lo que provoca un bloqueo: una solución común es un honeypot, donde una gran cantidad de solicitudes de uno IP se redirige a un servidor señuelo donde, incluso si falla, el tiempo de actividad no se ve comprometido. Se han realizado algunas investigaciones en estas líneas donde este documento habló sobre la verificación de la firma digital de una imagen o en esta donde propusieron la detección de imágenes alteradas y la identificación de la cámara fuente.

Una vez que se remonta a una fuente, si un número absurdo de imágenes potencialmente falsas proviene de una fuente singular, debe ser cuestionado.

El temor común surge cuando estamos lidiando con algo, sobre la base de la analogía, como un ataque DDoS (denegación de servicio distribuida) donde cada solicitud falsa proviene de una fuente distribuida: Network Security ha encontrado formas de lidiar con esto, pero la seguridad y la detección de fraudes en términos de IA simplemente no está tan establecida.

Esencialmente para un medio artificial bien pensado para un propósito malicioso específico, hoy en día es bastante difícil de atrapar, pero actualmente se está trabajando en la seguridad de la IA. Si planea usar medios artificiales con fines maliciosos, diría que es el mejor momento.

Esta seguridad ha sido una preocupación desde hace un tiempo. Un artículo escrito por un científico de datos cita

Deepfakes ya se han utilizado para tratar de hostigar y humillar a las mujeres a través de videos porno falsos. El término en realidad proviene del nombre de usuario de un usuario de Reddit que estaba creando estos videos mediante la creación de redes adversas generativas (GAN) usando TensorFlow. Ahora, los funcionarios de inteligencia están hablando de la posibilidad de que Vladimir Putin use videos falsos para influir en las elecciones presidenciales de 2020. Se están realizando más investigaciones sobre las falsificaciones profundas como una amenaza para la democracia y la seguridad nacional, así como sobre cómo detectarlas.

Nota: no tengo ni idea de la seguridad de la red, todo mi conocimiento proviene de una conversación con un amigo, y pensé que sería una buena analogía para usar aquí. ¡Perdone cualquier error en la analogía y corríjalo si es posible!


Sería bueno si pudiera investigar un poco y proporcionar un enlace a al menos 1 trabajo / trabajo de investigación que se basa en algo en ese sentido (es decir, que explota la fuente de los videos potencialmente falsos).
nbro

Además de los documentos que hablan sobre los daños potenciales , y los que comúnmente intentan detectar artefactos, hay menos documentos que hagan lo que se indica en la respuesta como esta o esta : como se dijo, no se ha realizado una investigación exhaustiva en estas líneas, pero es siendo explorado ¡Espero que estos enlaces hayan ayudado!
ashenoy

-1

Las técnicas que menciona utilizan GAN. La idea clave de las GAN es que tiene un generador y un discriminador. El generador genera nuevo contenido, el discriminador tiene que decir si el contenido proviene de los datos reales o si se generó.

El discriminador es mucho más poderoso. No debería ser demasiado difícil entrenar a un discriminador para detectar falsificaciones. La capacitación de un modelo que es capaz de identificar la manipulación y la comprensión de esto es una prueba de manipulación que es más difícil. Es imposible obtener una prueba de que algo no está manipulado.

Acerca de la pregunta de cómo lidiar con las imágenes retocadas: observa las diferencias en los niveles de compresión de la imagen. La palabra clave a buscar es forense de imagen: http://fotoforensics.com/tutorial-estq.php

Al usar nuestro sitio, usted reconoce que ha leído y comprende nuestra Política de Cookies y Política de Privacidad.
Licensed under cc by-sa 3.0 with attribution required.