Microsoft propone 5 relgas para regular a las inteligencias artificialesInteligencia Artificial

Microsoft propone 5 relgas para regular a las inteligencias artificiales

Microsoft afirma haber utilizado equipos de seguridad cibernética para identificar los posibles riesgos que conlleva la inteligencia artificial y está dispuesto a colaborar con otros líderes de la industria para elevar los estándares de protección en el futuro.

Según Brad Smith, es imperativo que la inteligencia artificial incorpore un mecanismo de "freno de emergencia" que permita desacelerar o detener por completo su progreso si es necesario.

El presidente de Microsoft propuso cinco puntos que podrían mejorar la forma en que se utiliza la inteligencia artificial en la actualidad, tanto desde la perspectiva de los usuarios como de los gobiernos.

El debate sobre este tema es de alcance mundial debido a las incertidumbres sobre las posibles consecuencias de su implementación en el desarrollo de la sociedad.

Los peligros de una IA sin vigilancia

La regulación de esta tecnología es uno de los aspectos clave que se deben abordar, y varias empresas y personalidades han mostrado su apoyo a medidas reguladoras, como Sam Altman, fundador de OpenAI y creador de modelos como ChatGPT, GPT-3.5 y GPT-4.

La propuesta de Smith consiste en utilizar un marco de gestión de riesgos para la inteligencia artificial en todos los gobiernos, con el fin de mejorar la capacidad de respuesta ante posibles peligros que puedan surgir.

Microsoft afirma haber utilizado equipos de seguridad cibernética para identificar los posibles riesgos que conlleva la inteligencia artificial y está dispuesto a colaborar con otros líderes de la industria para elevar los estándares de protección en el futuro.

Es necesario exigir la implementación de "frenos de seguridad" en los sistemas de inteligencia artificial que controlan infraestructuras críticas. Según Smith, al igual que en otras áreas tecnológicas, el avance debe estar respaldado por un sistema de seguridad efectivo que permita su pausa o desaceleración en caso de necesidad.

El objetivo de esta función es garantizar que las personas puedan utilizarla en situaciones necesarias, ya sea para ralentizar o detener por completo el avance de la inteligencia artificial, sin que ello implique un riesgo potencial.

Microsoft sostiene que son los gobiernos los que deben establecer los estándares de seguridad necesarios, implementar métodos de detección de riesgos oportunos y contar con la capacidad de activar el "freno" ante cualquier indicio de peligro.

Es fundamental desarrollar un marco legal y regulatorio que se pueda aplicar a los nuevos modelos generativos de inteligencia artificial, de manera que las organizaciones responsables de su creación asuman ciertas responsabilidades durante todas las etapas de desarrollo de la IA.

Entre las propuestas se encuentra la posibilidad de que la inteligencia artificial etiquete los archivos de fotos o videos que genere, de modo que las personas puedan identificar si fueron creados por una IA y detectar contenido "deep fake" que pueda difundir información falsa.

Microsoft se compromete también a establecer principios de transparencia en el uso de sus herramientas de inteligencia artificial, promoviendo un enfoque responsable en su implementación. Además, considera crucial ampliar el acceso a los recursos de IA para la investigación académica y las organizaciones sin fines de lucro.

Temas

Más Noticias