

Por Carlos Christian Sueiro (*)
I.- LAS FALSIFICACIONES PROFUNDAS O DEEP FAKE
A inicios de los años 90 del siglo XX, programas incipientes en el campo de la edición de imágenes como Photoshop, permitían al usuario alterar fotografías digitales.
Hasta principios de los años 2000, el reemplazo eficiente de un rostro en una fotografía o en un video solía ser un proceso lento y engorroso.
Sin embargo, el avance de las máquinas de aprendizaje (Learning machine), aprendizaje profundo (Deep Learning) y de la inteligencia artificial (IA), mediante asistentes como Chat GPT (Open IA), Copilot (Microsoft), Gemini (Google), IA Meta (Meta), Grok (X), Llama 3 (Meta) , Ernie 4.0 (Baidú), Mistral 7B (Mistral), Claude (Antropic); Seekdeep (Nvidia) han colocado en los últimos tres años esta tecnología a disposición de cualquier usuario.
II.- EL IMPACTO DE LOS DEEP FAKE EN LAS RELACIONES INTERNACIONALES Y LOS SISTEMAS DEMOCRÁTICOS
Esta tecnología comenzó a ser empleada en la década pasada (2010-2020) en la industria de la pornografía, sustituyendo rostros de las actrices originales de las películas para adultos, por el de celebridades de Hollywood, del campo de la actuación como Scarlett Johansson, y de cantantes tales como Kate Perry y Taylor Swift.
Sin embargo, desde el año 2016, esta tecnología basada en inteligencia artificial se ha perfeccionado hasta el punto tal que, jefes de Estado, como Donald Trump, Angela Merkel, e incluso Mauricio Macri han sido víctimas de falsificaciones profundas (Deep Fake).
El primer incidente de magnitud internacional mediante el empleo de Deep Fake, se dio en el año 2017, cuando el jefe de Estado de Qatar, el emir, Tamim bin Hamad al-Thani, apareció en un vídeo elogiando y apoyando a los grupos extremistas de Hamás, Hezbolá, a los Hermanos Musulmanes y a Irán.
Esto provocó una furibunda reacción de Arabia Saudita, los Emiratos Árabes Unidos, Bahréin y Egipto, que ya venían teniendo fuertes fricciones con Qatar. La realidad, sin embargo, es que el Emir de Qatar nunca dio ese discurso; el video que escaló el conflicto era falso.
En las elecciones de mayo de 2025 de la Ciudad Autónoma de Buenos Aires, circulo en redes sociales durante la veda electoral una falsificación profunda (Deep Fake) de un video, en el cual aparecía la imagen y el registro de voz del expresidente Mauricio Macri, solicitando a sus partidarios a no votar a los candidatos de su partido, y si a votar a los candidatos de la fuerza oficialista nacional.
El video era un Deep Fake, sin embargo, su detección resultaba muy difícil a primera vista.
Como puede apreciarse los Deep Fake en la actual sociedad de la cuarta revolución industrial (4.0); resultan ser una amenaza creciente para el sistema democrático y el mantenimiento de la paz en las relaciones internacionales.
III.- TÉCNICAS DETECCIÓN DE LOS DEEP FAKE
La Universidad de Albany, Nueva York por medio de su Departamento de Ciencias Informáticas, recientemente ha elaborado un protocolo para la detección de falsificaciones profundas (Deep Fake) a través de técnicas forenses de identificación de manipulación de imágenes y sonido. Se recomienda y sugiere para detectar una falsificación profunda en un video centrar la atención en los siguientes puntos:
1.- Parpadeo
Si el video está centrado en el rostro de una persona, que se encuentra dando una conferencia de prensa, un comunicado, informando una noticia, se sugiere y recomienda centrar la atención en los ojos.
Una característica común de los malos vídeos de Deep Fake es que la cara parpadea y las características originales aparecen ocasionalmente. Si se nota un parpadeo extraño, sea porque es muy reiterativo, o por el contrario porque se aletarga demasiado, o bien el parpadeo nunca sucede, es claro que se encuentra uno frente una falsificación profunda.
2.- Diferentes cuerpos
Las mayorías de las falsificaciones profundas sólo suelen ser intercambio de rostros, sin embargo, otras más elaboradas aún, suelen implicar el cambio de cuerpos de los sujetos involucrados en la falsificación.
3.- Videos breves o clips cortos
En la actualidad los softwares que permiten la falsificación profunda (Deep Fake) funcionan perfectamente bien y crea un cambio de cara casi indistinguible. Sin embargo, la ilusión óptica solo puede mantenerse realmente por un corto período de tiempo. En poco tiempo, una de las anomalías descriptas anteriormente comenzará a manifestarse.
Los videos de alta calidad y elevado nivel de realismo no pueden superar los 60 segundos o el minuto sin comenzar a presentar imperfecciones. El ejemplo, mas claro de ello son los videos de la aplicación de OpenIA SORA, cuyo máximo de duración en el máximo nivel de calidad no pueden superar el minuto.
4.- Ausencia de sonido o audio
La ausencia de audio o sonido, o bien la mala sincronización de labios son una prueba irrefutable de una falsificación profunda (Deep Fake).
5.- Clips increíbles
Si se exhibe o muestra un clip o video realmente increíble, cuyo nivel de probabilidad es muy bajo de que ocurra; entonces hay muchas posibilidades que sea falso.
Esto es muy común con los jefes de Estado. Por ejemplo, se exhibe al Presidente de los Estados Unidos de América Donald Trump siendo pareja de su contrincante político Kamal Harris, o bien, a los expresidentes, Joe Biden y Barack Obama, asaltando con armas de fuego una cadena de supermercados.
IV.- LA PROPUESTA DE UNA LEY DE PROPIEDAD INTELECTUAL SOBRE LA IDENTIDAD DIGITAL IMPULSADA POR DINAMARCA EN LA UNIÓN EUROPEA
Dinamarca ha decidido luchar contra el flagelo de los Deep fakes creados con IA impulsando la sanción de una ley que otorgue a las personas el derecho de autor de sus rasgos faciales y registro de voz.
Una vez aprobado, el cambio en la legislación danesa sobre derechos de autor otorgará a los ciudadanos daneses el derecho a exigir que las plataformas de Internet retiren dichos contenidos cuando son compartidos sin su consentimiento. La reforma también cubre las "imitaciones realistas generadas digitalmente" de actuaciones de artistas que no hayan otorgado expresamente su consentimiento.
El ministro de Cultura de Dinamarca, Jakob Engel-Schmidt, espera que otros países europeos sigan el ejemplo de Dinamarca.
Asimismo ha expresado que tiene previsto aprovechar la próxima presidencia danesa de la Unión Europea, durante el segundo semestre de 2025, para impulsar esta propuesta a nivel regional dentro del Parlamento europeo.
(*) Abogado y profesor de Criminalidad informática