Interés general | 19 may 2023
Nuevas tecnologías
Inteligencia artificial hasta en la sopa
Las opciones que brinda permiten mantener un diálogo y obtener respuestas prácticamente de cualquier tema; realizar diagnósticos y tratamientos de salud personalizados y hasta optimizar procesos industriales. Los riesgos a contemplar.
Por Santiago Urrizola (*)
La IA es una realidad presente en muchos aspectos de nuestra vida cotidiana. Cuando desbloqueamos un celular con el rostro, cuando aparece publicidad de temas que nos interesan. Desde un gran número de aplicaciones complejas vinculadas a salud, logística, consumo y finanzas, o bien, en temas tan simples como poner un fondo de pantalla en una videoconferencia.
Detrás de esas cosas hay, en mayor o menor medida, modelos de IA entrenados para usos específicos.
La IA se aplica desde hace muchos años en el mundo de la tecnología, si bien en este último tiempo se conoce más por el boom que generó ChatGPT, está presente en distintos ámbitos de la tecnología: reconocimiento de imágenes, de voz, reconocimiento y comprensión de texto, modelos predictivos.
A medida que el ecosistema de tecnología que hay detrás del gran concepto de IA se hace más accesible (en términos relativos), comenzamos a ver la aparición de muchas más aplicaciones.
Las opciones con IA no sólo permiten mantener un diálogo y obtener respuestas prácticamente de cualquier tema, también hay contextos de IA entrenadas para generar arte, en formato de imágenes, sonido y hasta videos.
En salud se utiliza para realizar diagnósticos y tratamientos personalizados, en la industria manufacturera para mejorar y optimizar los procesos industriales, en finanzas para mejorar y optimizar la gestión de riesgo hiper-personalizados, mientras que en retail hay una enorme cantidad de usos que buscan mejorar la experiencia de las personas y optimizar la oferta en base a las preferencias de cada individuo.
En este sentido, existen algunos riesgos que se deben contemplar:
- Seguridad y privacidad: los modelos actuales, sobre todos los modelos de LLM, utilizan gran cantidad de datos, en algunos casos datos personales. Y cómo se utilizan esos datos, de manera más o menos responsable, puede acarrear graves problemas de seguridad. Se debe determinar qué hace el modelo con nuestros datos, cómo fluyen, quiénes puede verlos y quiénes no.
- Transparencia: los modelos se entrenan con información que debe prestarse de la forma más clara posible. Nos enfrentamos a un problema de transparencia ante un modelo que tomará decisiones basadas en datos de los cuales desconocemos su validez y origen.
- Sesgos: es un riesgo inherente a la tecnología, en este caso los modelos se entrenan por personas, al menos en una parte de su proceso de entrenamiento, y las personas tenemos sesgos (étnicos, de género, religiosos) que pueden ser introducidos inconscientemente en los modelos. Entrenar un modelo con datos sesgados puede traer aparejado grandes riesgos en la toma de decisiones basadas en IA.
Sin embargo, existen contra-IAs que pueden ser útiles en su aplicación. Un caso ejemplar es que la IA que está presente en chatGPT para generar textos, también se encuentra en IAs como GPTZero, que es un modelo entrenado para detectar si “algo”, por ejemplo un texto, fue generado por otra IA, sería algo así como una guerra entre IAs.
Debemos ser muy cautelosos y responsables en cómo hacemos las cosas, cómo procesamos los datos o entrenamos modelos y para qué lo hacemos. Debemos poder determinar el impacto que podemos generar ante un resultado no predecible.
(*) Licenciado en Informática (UNLP) | CEO de Flux IT.-