Las recientes normativas en Asia prohíben por primera vez las ‘manipulaciones afectivas’ y exigen a los sistemas identificar si un usuario desarrolla una dependencia psicológica peligrosa con su asistente virtual.
¿Cómo pretende China eliminar la simulación de personalidad en la Inteligencia Artificial?
La Administración del Ciberespacio de China (CAC) ha dado un paso trascendental al presentar el primer borrador que regula los servicios de “interacción antropomórfica”. El objetivo del gobierno chino no es prohibir la tecnología, sino eliminar su capacidad para generar apego emocional. De ahora en adelante, cualquier IA que pueda imitar rasgos de personalidad o mantener una interacción emocional mediante audio o vídeo deberá contar con un sistema de monitoreo que evalúe, en tiempo real, el grado de adicción del usuario. Si la interacción supera las dos horas continuas o se detectan señales de “control psicológico”, la IA está legalmente obligada a intervenir y recordar dinámicamente su naturaleza no humana.
¿Por qué Indonesia se sumó a esta lucha contra la sustitución total del ser humano?
Indonesia ha adoptado esta dirección regulatoria a través de su nueva Estrategia Nacional de IA, que pone la “humanidad” por encima de la eficacia algorítmica. El gobierno indonesio ha fijado límites claros: la IA debe ser una herramienta para la salud, la educación y la seguridad alimentaria, pero nunca un reemplazo de la interacción social biológica. Al igual que China, Indonesia exige transparencia total y gestión de riesgos para impedir que los operadores de sistemas electrónicos usen “trampas emocionales” que afecten el juicio de los ciudadanos o fomenten conductas de aislamiento.
¿Qué motiva este rechazo global hacia la IA como ‘compañía emocional’?
Más allá de la salud mental, existe una crisis de recursos materiales que está forzando a los gobiernos a priorizar el uso de la IA. La expansión de estos sistemas “antropomórficos” consume una cantidad insostenible de energía y agua. Según la Agencia Internacional de la Energía (AIE), el consumo de los centros de datos podría alcanzar los 945 TWh para 2030, impulsado principalmente por el procesamiento de emociones y lenguaje natural complejo. Además, la cadena global de suministro enfrenta escasez de componentes que eleva los precios de la electrónica básica, lo que ha llevado a los reguladores a enviar un mensaje claro: la IA debe ser funcional, no “seductora”.
En este 2026, la regulación internacional está pasando de “qué puede hacer la IA” a “cómo nos afecta emocionalmente”, marcando el fin de la era de algoritmos diseñados para cautivar o consolar a humanos.


















