La interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT, lo que ha llevado a la prohibición de este en Italia.
En los últimos meses, la inteligencia artificial (IA) ha experimentado avances rápidos e inesperados que han llevado a la creación de herramientas como Midjourney o ChatGPT, lo que plantea desafíos éticos, sociales y legales inéditos.
Los avances técnicos que cambian radicalmente nuestro modo de vida siempre traen incógnitas y confusión, y en el caso de la IA, aún estamos en la fase de confusión: debemos sopesar sus riesgos y beneficios para crear una regulación que garantice un uso responsable sin frenar el progreso.
Uno de los problemas asociados con la IA es la materia prima de la que depende, los datos. Las herramientas de IA como Midjourney o ChatGPT utilizan algoritmos que aprenden a realizar tareas a partir de grandes cantidades de datos, y esto puede dar lugar a conflictos de propiedad intelectual.
Los tribunales de Estados Unidos tendrán que decidir si es un "uso legítimo" de los datos o no, mientras que la empresa Adobe trabaja en una alternativa que no use imágenes con derechos de autor sin consentimiento de los creadores.
Otro conflicto se centra en Europa y se relaciona con la protección de datos. La legislación de la UE no permite procesar la información personal de nadie sin su consentimiento, lo que parece incompatible con los sistemas como ChatGPT, que necesitan centenares de miles de millones de palabras obtenidas de la red.
La interpretación estricta de la normativa europea parece frontalmente incompatible con los sistemas como ChatGPT, lo que ha llevado a la prohibición de este en Italia.
Los legisladores europeos se enfrentan a una situación incómoda al tratar de conciliar la protección de datos personales con no perder el tren de la IA frente a países con normas más laxas, como los anglosajones.
Otro aspecto clave de la regulación de la IA es para qué se usa. Es importante recordar que un algoritmo no es de por sí ético o no, es una herramienta que alguien usa para un fin.
La UE está preparando una regulación bajo el principio de "poner a la persona en el centro", con la idea de que la IA se use siempre bajo supervisión humana. Europa estaba preparando certificaciones para un uso responsable de la IA, pero ha retrasado el proceso al irrumpir ChatGPT.

