‘Deepfakes’, ¿la próxima herramienta de manipulación?

Dentro de poco, la diferencia entre la realidad y la ficción en vídeos en los que aparezcan personas será menos fácil de distinguir a consecuencia del uso de determinadas tecnologías de vídeo como el ‘deepfake’ (o ultrafalso).
4

Por deepfake se denomina a vídeos o imágenes en los que se utiliza la inteligencia artificial para modificar los rasgos del rostro de una persona y hacerla pasar por otra.

Una de sus ‘aplicaciones’ más iniciales, conocidas y controvertidas fue el de usarlos para poner caras de personajes dentro de vídeos pornográficos. Una simple búsqueda en Internet sirve para darnos cuenta del alcance de ese uso.

Últimamente, el tema de los vídeos falsos ha saltado de nuevo a la actualidad por la creación de una aplicación de móvil china llamada Zao que permite poner la cara del usuario en diferentes trozos de películas como Titanic u otras de factura china.

Aunque la polémica con esa aplicación ha venido más por el lado de la oscura utilización de los datos del usuario y posible uso de sus fotos para otros fines, si echamos un vistazo a los resultados de los vídeos podemos ver lo que en la actualidad se puede hacer con cualquier teléfono que podamos tener en nuestro bolsillo.

La posible creación de deepfakes por parte de casi cualquiera de manera indiscriminada mediante la puesta a disposición del público de ese y otros softwares (no solo para móviles) y la paulatina mejora de estos, que sin duda logrará mejores resultados con el paso del tiempo, hace que más allá de sus usos lúdicos este tipo de tecnología se convierta en un problema de considerables dimensiones al que se deberá hacer frente.

Deepfakes: una evolución de las fake news

Los deepfakes no dejan de ser fake news (o noticias falsas), pero varios peldaños por encima.

En el fondo, es muy sencillo inventarse una noticia falsa y hacerla correr por Internet a través de su publicación en determinadas páginas web y viralizándola en diferentes redes sociales. Es algo que, lamentablemente, se ha hecho, se hace y se continuará haciendo.

Antes de Internet era más difícil difundir esas noticias falsas y su alcance era mucho más limitado, pero desde la popularización del uso de la red de redes se ha multiplicado el fenómeno y no tiene visos de solucionarse.

Por si fuera poco lo anterior, los deepfakes añaden aún más leña al fuego de la falsificación y de la manipulación de masas.

Por si fueran pocas las noticias falsas, los deepfakes añaden aún más leña al fuego de la falsificación y de la manipulación de masas.

Con cierta dosis de cautela y (saludable) desconfianza, es fácil preguntarse si las noticias que leemos en Internet y redes sociales son reales o no, sobre todo si son leídas en determinados medios o compartidas por entidades o personas que no nos parecen mucho de fiar.

Entra dentro de la lógica el leer una noticia y buscar otra fuente, que tenga a ser posible un contenido gráfico o en vídeo, que nos ayude a dilucidar si la noticia es o no verdadera.

¿Pero qué pasará cuando esa noticia enlace a un vídeo deepfake en el que aparentemente todo lo que diga el personaje falsificado sea tomado como real porque no seamos capaces de distinguir que las imágenes son falsas?

Pues que probablemente daremos el vídeo por verídico y nos creeremos que lo que hemos visto y oído lo ha hecho el personaje real, simplemente por el hecho de que para nosotros es una prueba irrefutable ver y oír a alguien haciendo y diciendo algo, todo ello dejando de lado que cualquier vídeo real puede sacarse de contexto y manipularse a conciencia en determinadas ocasiones.

Consecuencias y responsabilidades de los deepfakes

¿Se podrá defender el protagonista del vídeo al que se le ha atribuido algo que no ha hecho ni dicho? Probablemente, pero quizá muy tarde.

Quizá será difícil que la gente cambie su opinión, quizá lo que saliera en el vídeo hiciera que alguien (o mucha gente) tomaran decisiones y acciones que no se pudieran deshacer, y todo podría tener unas consecuencias desde leves a muy graves.

Imaginemos, sin ir más lejos, que el día antes de unas elecciones sale un vídeo falso de un candidato que hace que se hunda su reputación y que la intención de voto dé un vuelco en su contra.

Lo mismo podría pasar con unas declaraciones de un CEO de una empresa, o a cualquier persona que podamos imaginar a la que se le atribuyera aparecer en un vídeo de contenido sexual o en cualquier otra situación comprometida.

Deberán ser principalmente los medios informativos los que tomen medidas para no divulgar este tipo de vídeos al igual que sucede con las noticias falsas, no solo para no perjudicar a terceros o provocar problemas de diversa índole, sino para proteger su propia credibilidad y reputación.

La divulgación de una noticia o vídeo falso no hace responsable a quien lo divulga, pero sí corresponsable si se dedica a esos menesteres y no pone los medios para asegurarse que lo divulgado sea cierto.

Para luchar contra este tipo de materiales 'deepfakes', grandes corporaciones como Google o Facebook se han puesto ya manos a la obra.

¿Cómo luchar contra los deepfakes?

Para luchar contra este tipo de materiales, grandes corporaciones como Google o Facebook se han puesto ya manos a la obra.

Google lleva tiempo trabajando con investigadores para crear métodos de detección de este tipo de vídeos y acaba de liberar, para todo aquel que la quiera utilizar, una base de datos de vídeos reales y manipulados para que sean usados en la creación de algoritmos que ayuden en la detección de vídeos falsos.

El CEO de Google ha declarado que la detección de deepfakes es uno de los desafíos más importantes que su empresa tiene por delante.

Por su parte, Facebook también está investigando para crear herramientas que detectarán y eliminarán vídeos falsos de su plataforma.

Este gigante junto con la Asociación de IA, Microsoft y académicos de diferentes universidades se han unido para fundar Reto de la Detección de Deepfakes (DFDC, por sus siglas en inglés).

En el fondo se trata de entrenar algoritmos para descubrir lo que otros algoritmos han fabricado previamente. ¿Quizá lo podríamos calificar de guerra de algoritmos?

Pero no todas las aplicaciones de esta tecnología tienen por qué ser negativas ni acabar en guerras, afortunadamente.

Se trata de entrenar algoritmos para descubrir lo que otros algoritmos han fabricado previamente. ¿Quizá lo podríamos calificar de guerra de algoritmos?

Deep Privacy es un proyecto en el que están trabajando investigadores de la Universidad de Ciencia y Tecnología de Noruega para utilizar esta tecnología con el propósito de anonimizar a personas en vídeos mientras mantienen su personalidad, por ejemplo para proteger la identidad de alguien como un denunciante.

Las tecnologías que se usan hasta el momento como la pixelación de caras o el desenfoque se han demostrado vulnerables, o eliminan enteramente la personalidad del sujeto al que se está grabando.

También investigadores de la Universidad de Albany están trabajando en poder ‘trasplantar’ elementos clave de las expresiones faciales de una persona a otra, pero esta técnica se enfrenta con el problema de requerir de un ‘donante’ consentido que ofrezca su cara como el lienzo para las nuevas características.

¿Qué podemos hacer los ciudadanos en esta lucha?

Como podemos observar, parece que la lucha contra los deepfakes se puede convertir en un pez que se muerde la cola: a medida que la tecnología permite mejores falsificaciones también ella misma está en mejor posición para crear métodos y técnicas para discernir lo falso de lo real.

Está claro que conforme la tecnología avance mejores serán las falsificaciones y más difíciles de descubrir por parte de una persona media.

Ante esta situación y a la espera de que los ciudadanos de a pie dispongamos de esas herramientas anti fake en nuestros dispositivos, uno de nuestros mejores aliados para no ser engañados fácilmente será aplicar el sentido común y observar algunas características de los vídeos que nos hagan sospechar.

En este artículo se nos dan algunas pistas sobre en qué fijarnos para saber si un vídeo es un deepfake, relativas tanto a lo que se ve en el vídeo como su duración, sonido y otros detalles.

A medio y largo plazo, serán los medios de información y las grandes empresas relacionadas con la tecnología las que deberán responsabilizarse de esta lucha y no participar conscientemente en campañas de desinformación y manipulación de masas.

4
Comentarios

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.