jueves 29 de mayo de 2025 - Edición Nº4086

Interés general | 27 may 2025

Grave

Deepfakes como amenaza a la opinión pública

Se trata de una modalidad enmarcada en el avance de la inteligencia artificial generativa. Los especialistas en ciberseguridad explican de qué se trata esta tecnología y brindan pautas de cuidado a las personas.


A raíz de los videos falsos que se difundieron en las recientes elecciones, se multiplican las alarmas de advertencia sobre los deepfakes, promoviendo ciertos cuidados e incentivando a las personas a ser más cuidadosas con el contenido que circula online.

A medida que la Inteligencia Artificial se inserta cada vez más en la cotidianidad, también aumentan los reparos sobre esta tecnología, que no hay que perder de vista en pos de la construcción democrática y el cuidado de la ciudadanía

Con la evolución de los deepfakes, aparecen nuevos desafíos para la veracidad de la información y la confianza social, pudiendo perjudicar la imagen pública de personalidades destacadas o incluso falsear campañas políticas.

Estas creaciones digitales, que imitan a una persona real e incentivan tanto a los medios de comunicación como a los individuos a estar alerta de posibles engaños, resultan particularmente atractivas para una audiencia ávida de noticias. 

¿Qué son los Deepfakes y cómo operan?

Andrés García, especialista de F5, define a los deepfakes como la “imitación de la imagen, video o voz de una persona a través de la inteligencia artificial”. Este tipo de contenido busca engañar al público mediante la alteración de su percepción y de esa manera llegar a manipular la opinión pública

“Hay mucha gente que pudo haber creído en el video de un dirigente político bajando a su candidata de las elecciones. Y, probablemente, haya cambiado su voluntad de voto por haber sido víctima de información falsa”, señala el especialista. 

Además del ámbito de la política, los deepfakes son una herramienta comúnmente empleada para estafas telefónicas o virtuales, donde la imitación de la voz de un ser humano puede llevar a engaños financieros entre otros problemas. En abril de este año, un grupo de ciberdelincuentes le hicieron creer a una mujer que estaba en una relación a la distancia con un actor de Hollywood. Como consecuencia, perdió más de 15 mil dólares. 

Pensamiento crítico y atención, herramientas para combatir la información falsa

En la actualidad faltan leyes para penalizar este tipo de prácticas, por lo que las personas tienen que reforzar sus cuidados siendo más atentos a lo que ven y escuchan. El experto de F5 detalla que, al analizar un video manipulado o hecho de cero por IA, se pueden identificar irregularidades en los movimientos faciales, el parpadeo de los ojos y la sincronización entre el habla y las expresiones. 

Para detectar fakes, “es crucial analizar el contexto. Si una noche antes de las elecciones un candidato dice que votes a otro, es muy dudoso. Hay que aplicar un pensamiento crítico similar al que usamos para detectar estafas”, señala García. Además del análisis visual, un examen forense a nivel de bits y bytes puede revelar la artificialidad del contenido.

Para el periodismo, los deepfakes añaden una nueva capa de complejidad a la hora de verificar la información

“Hace un par de años un periodista tenía que chequear que lo que le llegaba era correcto o si una foto había sido retocada por algún software. Eso lo hacía recurriendo a las fuentes. En la actualidad tienen que verificar si algo es real o no”, destaca. La Inteligencia Artificial va a seguir sofisticándose y como respuesta hay que robustecer los mecanismos de verificación para evitar la difusión de contenido malicioso

Sin embargo, la evolución de la IA generativa no debería ser una invitación a desacreditar todos los discursos que circulan. El ingeniero indica que “no porque existan fraudes por WhatsApp vamos a desconfiar de todos los audios. Muchas cosas pueden ser ciertas, simplemente hay que prestar un poco más de atención".

En cuanto a los límites éticos y morales, estas herramientas tienen un "poder impresionante" y su uso dependerá de la intención de cada persona. “Al igual que con cualquier avance tecnológico, la inteligencia artificial puede ser utilizada para el bien o para el mal”, sentencia García.

OPINÁ, DEJÁ TU COMENTARIO:
Más Noticias