Seguro que recuerdas que, en algún momento del pasado 2019, todos los medios de comunicación generalistas empezaron a hablar de deepfake. La razón de ello fueron los vídeos que empezaron a circular, algunos de tipo cómico y otros pornográficos, en los que haciendo uso de esta técnica de edición de vídeo, se habían sustituido los rostros originales de sus protagonistas por los de personajes celebres de todo tipo. La fiebre duró unos meses, e incluso algunas webs de contenido exclusivo para adultos tuvieron que retirar algunas falsificaciones de este tipo.
Para crear este tipo de vídeos se emplea inteligencia artificial, más concretamente un conjunto de algoritmos de aprendizaje no supervisados que se encuadran en deep learning. De esta manera, y tras ingerir el vídeo que se empleará como base para el montaje y la imagen del sujeto a suplantar, la IA hará su «magia» y devolverá un vídeo. En algunos casos es fácil detectar la falsificación, pero hay otros, especialmente aquellos en los que no hay movimientos bruscos y el protagonista se mantiene más bien estático, que son sorprendentemente creíbles.
MS Recomienda
Aunque la calidad final del deepfake depende, en buena parte, de lo que la IA sea capaz de hacer con el material ingerido, a nadie se le escapa que a mayor volumen de medios para acometer la creación de uno de estos vídeos, más probabilidades hay de que el resultado final sea capaz de engañar a quienes lo ven. Y ahí, en este punto, nos acercamos a la razón por la que su potencial como amenaza es abrumador. Hablo de una amenaza que tiene dos vertientes: la política y la delictiva.
Con respecto a la primera, no podemos olvidar que el próximo 3 de noviembre se celebrarán elecciones presidenciales en Estados Unidos. El actual presidente Donald Trump se presentará a la reelección por el Partido Republicano, mientras que Joe Biden encabezará la alternativa del Partido Demócrata para llegar al Despacho Oval. Unas elecciones en las que visto lo ocurrido en 2016 y cómo ha evolucionado la situación desde entonces, prometen ser campo abonado para las fake news.
Y es aquí dónde deepfake promete brillar con luz propia. Tanto los intereses propios de ambos partidos y sus bases, como la posible injerencia en el proceso por parte de actores externos, apuntan a que veremos un despliegue sin precedentes de video falsificaciones que tendrán como protagonistas tanto a los líderes de ambos partidos como otros miembros de los mismos. Vienen tiempos difíciles para la verdad, me temo.
Deepfake y delincuencia
Mucho más se podría hablar sobre esta primera vertiente, pero la segunda me parece todavía más preocupante, ya que la suplantación de identidad en vídeo tiene un potencial que creo que, a día de hoy, todavía no hemos ponderado adecuadamente. Porque, por ejemplo, ¿qué ocurriría si un empleado de determinada empresa recibe un deepfake con la imagen del CEO de su empresa, en el que se urge a los empleados a realizar determinadas acciones?
¿O si un responsable de seguridad, que en ese momento se encuentra de vacaciones, medio desconectado del mundo en el sudeste asiático, remite un vídeo en el que indica a los responsables de la compañía (o a su propio equipo) que deben llevar a cabo una acción determinada? ¿O si se crea un deepfake con la imagen de una persona desaparecida para fingir un secuestro y pedir un rescate? ¿O sí..?
Y esto si hablamos de vídeos. Seguramente cualquier persona que haya visto Black Mirror, concretamente el primer episodio de la primera temporada (El himno nacional) lo habrá recordado en este punto. ¿Qué ocurrirá cuando la optimización de los algoritmos y el rendimiento de los sistemas (no hablo de un PC doméstico, claro está) sean capaces de generar un deepfake en vivo? Vale, lo sé, a día de hoy puede parecer que hablo de ciencia ficción, pero son tantas las cosas que parecían ciencia ficción y hoy forman parte de nuestro día a día…
Por lo que está por venir, no es mal momento para empezar a trabajar en la definición de medidas efectivas para mitigar los riesgos asociados a este tipo de amenazas. Por ejemplo, establecer medidas de verificación en todas las comunicaciones, y especialmente en las que no sean bidireccionales (como los vídeos citados en los ejemplos). Y, claro, poner en conocimiento de todos los empleados este nuevo tipo de amenaza, de manera que
Fuente:https://www.muyseguridad.net