¿Inteligencia artificial sin supervisión? Meta disuelve su grupo de “Responsabilidad IA”Inteligencia Artificial

¿Inteligencia artificial sin supervisión? Meta disuelve su grupo de “Responsabilidad IA”

Javier Neri

Por: Javier Neri  

Meta ha reorganizado su equipo de Responsabilidad en Inteligencia Artificial (RAI), ya que destinará más recursos a la inteligencia artificial generativa, según dio a conocer The Information, citando un mensaje interno al que había tenido acceso.

De acuerdo con ese informe, la mayoría de los integrantes del equipo RAI se trasladarán a otros grupos enfocados en productos de inteligencia artificial generativa de la compañía, mientras que otros se dedicarán a trabajar en la infraestructura de inteligencia artificial de Meta.

Por su parte, Meta afirmó regularmente su compromiso de desarrollar la inteligencia artificial de manera responsable, e incluso cuenta con una página donde detalla sus “principios de inteligencia artificial responsable”, que incluyen aspectos como responsabilidad, transparencia, seguridad, privacidad, y más.

Según declaraciones de Jon Carvill, representante de Meta citado en el informe de The Information, la empresa “continuará priorizando e invirtiendo en el desarrollo seguro y responsable de la inteligencia artificial”. El vocero añadió que, aunque se está dividiendo el equipo, esos miembros seguirán “apoyando esfuerzos relevantes en toda Meta relacionados con el desarrollo y uso responsable de la inteligencia artificial”.

En su página web dedicada a explicar sus principios de desarrollo de IA, Meta contempla diversas problemáticas modernas, desde la equidad de género hasta la propagación de información falsa en redes.

Ya habían tenido cambios importantes

Cabe destacar que este equipo ya experimentó una reestructuración a principios de este año, anunciada por Business Insider, e incluyó despidos que dejaron a RAI “como una sombra de equipo”. Según ese informe, el equipo RAI, existente desde 2019, tenía poca autonomía y sus iniciativas tenían que pasar por negociaciones extensas con las partes involucradas antes de poder implementarse.

RAI fue creado para identificar problemas en los enfoques de entrenamiento de la inteligencia artificial de Meta, incluyendo la diversidad de la información utilizada para entrenar los modelos, con el objetivo de prevenir problemas relacionados con la moderación en sus plataformas.

Los sistemas automatizados en las plataformas sociales de Meta ya han generado problemas, errores de traducción en Facebook que causaron un arresto equivocado, la generación de stickers hechos con inteligencia artificial en WhatsApp que resultaron en imágenes sesgadas en ciertos casos, entre otros casos graves.

Estos movimientos de Meta y acciones similares realizadas por Microsoft a principios de este año coinciden con los esfuerzos globales de gobiernos de distintos países para establecer reglas regulatorias para el desarrollo de la inteligencia artificial.

Te puede interesar: Canadá está preocupado por campañas de desinformación generadas por inteligencia artificial

Temas

Más Noticias