Los retos de la inteligencia artificial para la privacidad y datos personales en la UC3M

Organizado por el Instituto Pascual Madoz y la Universidad Carlos III de Madrid
ponentes

Los retos de la inteligencia artificial para la privacidad y datos personales en la UC3M

Fecha: miércoles 18 de junio de 2025

Horario: 12:00 a 14:00 horas

Lugar: Campus UC3M de la Puerta de Toledo (aula 1.A.01)

En un aula 1.A.01 del campus de la Puerta de Toledo de la Universidad Carlos III de Madrid, se celebró un seminario que no dejó indiferente a nadie: “Los retos de la inteligencia artificial para la privacidad y datos personales”. Lo que podía parecer un encuentro técnico entre expertos, terminó siendo una conversación tan urgente como cercana: ¿hasta qué punto la inteligencia artificial entiende —o respeta— nuestros derechos?

El evento reunió a voces clave en la materia. Uno de los primeros en intervenir fue Marcos Judel, quien puso sobre la mesa una realidad incómoda: la dificultad de las pequeñas y medianas empresas para aplicar correctamente el Reglamento de Inteligencia Artificial (RIA). Según explicó, aún faltan profesionales que comprendan no solo la letra, sino el verdadero alcance práctico de esta normativa. “Toda empresa, grande o pequeña, usa IA hoy en día. Lo urgente es hacer inventario y saber qué estamos usando”, afirmó. Para Judel, la supervisión humana no es una opción, sino una obligación, y dejó una imagen poderosa: “La tecnología es como un bisturí: puede salvar vidas o quitarlas. La clave está en cómo y quién la usa”.

A continuación, Belén Arribas centró su intervención en los datos personales. Insistió en que estos se procesan en cada fase del ciclo de vida de un sistema de IA: desde el entrenamiento hasta su uso real. De ahí que el principio de transparencia sea esencial. También subrayó la necesidad de que los datos utilizados estén actualizados —o el resultado puede no solo ser inexacto, sino discriminatorio— y advirtió del riesgo creciente de las inferencias algorítmicas. No faltó la alusión a la investigación en curso a OpenAI por parte de las autoridades europeas, tras las dudas sobre el cumplimiento del RGPD en herramientas como ChatGPT.

Elena Gil González habló del cambio de paradigma que supone la IA generativa y cómo este fenómeno está obligando a replantear las evaluaciones de impacto. Ya no se trata solo de evaluar riesgos clásicos, sino también de entender cómo los nuevos modelos transforman la naturaleza del tratamiento de datos.

El cierre estuvo a cargo de Jorge Vega, que ofreció una intervención tan crítica como estimulante. Habló de cómo un dato aparentemente inocuo puede convertirse, por inferencia, en un dato sensible. También cuestionó el concepto de transparencia, que según él puede ser una "ilusión jurídica" si no se traduce en información clara y accesible. Vega propuso una “triada” para afrontar el futuro: técnica, ética y Derecho, trabajando juntos para armonizar el RGPD y el nuevo marco del RIA. Un desafío que no es menor, ya que según remarcó, no todo lo que se llama "IA" trata datos personales, pero muchas veces se actúa como si así fuera.

El seminario dejó claro que la IA no es solo una cuestión tecnológica. Es, sobre todo, un asunto de derechos, de personas.