Seguro que recuerdas que, en algún momento del pasado 2019, todos los medios de comunicación generalistas empezaron a hablar de deepfake. La razón de ello fueron los vídeos que empezaron a circular, algunos de tipo cómico y otros pornográficos, en los que haciendo uso de esta técnica de edición de vídeo, se habían sustituido los rostros originales de sus protagonistas por los de personajes celebres de todo tipo. La fiebre duró unos meses, e incluso algunas webs de contenido exclusivo para adultos tuvieron que retirar algunas falsificaciones de este tipo.

Para crear este tipo de vídeos se emplea inteligencia artificial, más concretamente un conjunto de algoritmos de aprendizaje no supervisados que se encuadran en deep learning. De esta manera, y tras ingerir el vídeo que se empleará como base para el montaje y la imagen del sujeto a suplantar, la IA hará su «magia» y devolverá un vídeo. En algunos casos es fácil detectar la falsificación, pero hay otros, especialmente aquellos en los que no hay movimientos bruscos y el protagonista se mantiene más bien estático, que son sorprendentemente creíbles.

MS Recomienda

¿Virtualizas en tu empresa? ¡Participa en nuestro estudio y cuéntanos tu secreto! Leer
¿Sabes cómo modernizar tu arquitectura de análisis de datos? Leer
Seis estrategias para simplificar la integración de datos Acceder

Aunque la calidad final del deepfake depende, en buena parte, de lo que la IA sea capaz de hacer con el material ingerido, a nadie se le escapa que a mayor volumen de medios para acometer la creación de uno de estos vídeos, más probabilidades hay de que el resultado final sea capaz de engañar a quienes lo ven. Y ahí, en este punto, nos acercamos a la razón por la que su potencial como amenaza es abrumador. Hablo de una amenaza que tiene dos vertientes: la política y la delictiva.

Con respecto a la primera, no podemos olvidar que el próximo 3 de noviembre se celebrarán elecciones presidenciales en Estados Unidos. El actual presidente Donald Trump se presentará a la reelección por el Partido Republicano, mientras que Joe Biden encabezará la alternativa del Partido Demócrata para llegar al Despacho Oval. Unas elecciones en las que visto lo ocurrido en 2016 y cómo ha evolucionado la situación desde entonces, prometen ser campo abonado para las fake news.

Y es aquí dónde deepfake promete brillar con luz propia. Tanto los intereses propios de ambos partidos y sus bases, como la posible injerencia en el proceso por parte de actores externos, apuntan a que veremos un despliegue sin precedentes de video falsificaciones que tendrán como protagonistas tanto a los líderes de ambos partidos como otros miembros de los mismos. Vienen tiempos difíciles para la verdad, me temo.

 

Deepfake y delincuencia

Mucho más se podría hablar sobre esta primera vertiente, pero la segunda me parece todavía más preocupante, ya que la suplantación de identidad en vídeo tiene un potencial que creo que, a día de hoy, todavía no hemos ponderado adecuadamente. Porque, por ejemplo, ¿qué ocurriría si un empleado de determinada empresa recibe un deepfake con la imagen del CEO de su empresa, en el que se urge a los empleados a realizar determinadas acciones?

¿O si un responsable de seguridad, que en ese momento se encuentra de vacaciones, medio desconectado del mundo en el sudeste asiático, remite un vídeo en el que indica a los responsables de la compañía (o a su propio equipo) que deben llevar a cabo una acción determinada? ¿O si se crea un deepfake con la imagen de una persona desaparecida para fingir un secuestro y pedir un rescate? ¿O sí..?

Y esto si hablamos de vídeos. Seguramente cualquier persona que haya visto Black Mirror, concretamente el primer episodio de la primera temporada (El himno nacional) lo habrá recordado en este punto. ¿Qué ocurrirá cuando la optimización de los algoritmos y el rendimiento de los sistemas (no hablo de un PC doméstico, claro está) sean capaces de generar un deepfake en vivo? Vale, lo sé, a día de hoy puede parecer que hablo de ciencia ficción, pero son tantas las cosas que parecían ciencia ficción y hoy forman parte de nuestro día a día…

Por lo que está por venir, no es mal momento para empezar a trabajar en la definición de medidas efectivas para mitigar los riesgos asociados a este tipo de amenazas. Por ejemplo, establecer medidas de verificación en todas las comunicaciones, y especialmente en las que no sean bidireccionales (como los vídeos citados en los ejemplos). Y, claro, poner en conocimiento de todos los empleados este nuevo tipo de amenaza, de manera que

Fuente:https://www.muyseguridad.net

By k0bra

Leave a Reply

Your email address will not be published. Required fields are marked *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Configurar y más información
Privacidad