¿Inteligencia está lista para tomar decisiones morales? Esto dice un estudioInteligencia Artificial

¿Inteligencia está lista para tomar decisiones morales? Esto dice un estudio

Aunque las decisiones morales que tomamos como humanos pueden no ser siempre ideales, los expertos que desarrollaron este experimento sugieren que el camino hacia la creación de máquinas moralmente competentes podría comenzar por traducir el proceso de toma de decisiones éticas humanas al lenguaje de las computadoras, con el objetivo de mejorarlo. 

Cada vez más, los sistemas de computadoras, incluyendo robots e inteligencia artificial (IA), se hacen más presentes en nuestra sociedad. Queramos o no, habrá cada vez más situaciones en las que estos sistemas tengan que tomar decisiones morales importantes, como los vehículos autónomos. ¿Cómo los prepararemos para que tomen decisiones correctas? ¿Podrían sus decisiones llegar a ser incluso mejores que las nuestras?

Si estás interesado en conocer más sobre cómo los sistemas informáticos toman decisiones morales, no te pierdas la charla magistral titulada "El Experimento de la Máquina Moral" del Dr. Edmond Awad, investigador de la Universidad de Oxford.

Existe un antiguo dilema muy conocido en los campos de la filosofía moral, el derecho y la ética, llamado el "Problema del Tranvía".

Un problema ético

En este escenario, una persona se enfrenta a la decisión de cambiar la dirección de un tranvía sin control. Si no hace nada, el tranvía atropellará a cinco personas en su camino; si decide cambiar la dirección, atropellará a una persona en la otra vía.

La situación plantea una decisión crucial de vida o muerte, aunque en la vida real las decisiones diarias suelen ser mucho más complejas y raramente se reduce a un simple "mal menor". Como seres humanos, tomamos en cuenta una serie de factores al tomar decisiones acertadas, considerando el contexto en su conjunto.

Para investigar cómo las personas tomamos decisiones éticas y qué elementos influyen en estas decisiones, el Dr. Edmond Awad y su equipo han creado el "Experimento de la Máquina Moral", basado en el conocido "Problema del Tranvía".

En esta versión actualizada al siglo XXI, se plantea un escenario con un coche autónomo similar a los que ya circulan en San Francisco, Estados Unidos.

En esta hipotética situación, el vehículo autónomo se enfrenta a la elección de seguir avanzando o girar y chocar. Si avanza, atropellará a cierta cantidad de peatones, pero si gira, el accidente afectará a los pasajeros. Este experimento contempla diversas situaciones, involucrando a hombres, mujeres, niños, niñas, animales, profesionales, personas sin hogar, adultos mayores, personas con sobrepeso y deportistas.

A través de más de 40 millones de decisiones éticas recopiladas, los investigadores han identificado tres tendencias en lo que la gente considera como el "mal menor".

Estas tendencias incluyen la preferencia por salvar a seres humanos antes que a mascotas, optar por salvar a más individuos en lugar de menos y priorizar a seres humanos jóvenes por sobre los mayores. ¿Te gustaría poner a prueba tus propios criterios? ¡Puedes realizar el experimento en su página web!

Aunque las decisiones morales que tomamos como humanos pueden no ser siempre ideales, los expertos que desarrollaron este experimento sugieren que el camino hacia la creación de máquinas moralmente competentes podría comenzar por traducir el proceso de toma de decisiones éticas humanas al lenguaje de las computadoras, con el objetivo de mejorarlo.

Los resultados del "Experimento de la Máquina Moral" pueden demorar en implementarse en la práctica. Por ello, consultamos al Mtro. Andrés Tortolero Baena, Coordinador de la Ingeniería en Ciencia de Datos de la Universidad Iberoamericana, acerca de la situación actual en relación a la toma de decisiones en sistemas computacionales, incluyendo robots e inteligencia artificial.

Temas

Más Noticias