Según Google, esto tendría implicaciones en la mejora de la privacidad, la mitigación de posibles riesgos de los modelos y la reducción de conjuntos de datos enormes.
La inteligencia artificial engloba conceptos como 'aprendizaje automático' y 'machine learning'. Con la introducción de ChatGPT, Google ha respondido con Bard, una IA basada en el modelo experimental de lenguaje LaMDA, con la intención de integrarla en su propio motor de búsqueda.
En medio de la competencia por liderar estos modelos de aprendizaje, Google ha revelado una posible limitación: el 'desaprendizaje automático'.
Con el objetivo de recordar la importancia de la precaución en todo lo relacionado con la IA, la compañía ha anunciado un concurso en el que invitará a los desarrolladores a hacer exactamente lo contrario a lo que se ha venido haciendo en los últimos meses: lograr que los modelos de IA desaprendan lo que ya han aprendido.
Los problemas de la IA
Resulta curioso, al menos, que una de las empresas centrales en el desarrollo de la IA nos presente la siguiente propuesta: desarrollar algoritmos de entrenamiento capaces de eliminar la influencia de los conjuntos de datos a partir de los cuales los modelos han aprendido.
Google explica que el desaprendizaje automático es un concepto emergente dentro del campo del aprendizaje automático. Su objetivo no es hacer que una IA olvide todo lo que sabe, sino eliminar la influencia de ciertos conjuntos de datos de entrenamiento para permitir correcciones en los modelos actuales.
Según Google, esto tendría implicaciones en la mejora de la privacidad, la mitigación de posibles riesgos de los modelos y la reducción de conjuntos de datos enormes.
Hablando más concretamente, mediante el desaprendizaje automático es posible eliminar información inexacta o desactualizada de modelos previamente entrenados, eliminar datos manipulados o corregir errores inherentes a los conjuntos de datos utilizados para el aprendizaje del modelo.
Google señala que implementar estrategias de desaprendizaje automático es especialmente complejo: es necesario olvidar los datos del modelo al tiempo que se mantiene su utilidad. Además, debido a la falta de literatura al respecto, el desafío de evaluar la efectividad de estas estrategias no es menor.
















