Millones de personas han utilizado ChatGPT durante meses, pero no habíamos visto el tipo de falsedades y alucinaciones que Bing ha estado generando.
¿Ya te ha amenazado un chatbot de IA? Durante la semana pasada, parece que casi todos los medios de comunicación probaron la búsqueda de Bing AI de Microsoft y descubrieron que el chatbot inventa cosas tontas y de horror.
En repetidas ocasiones le dijo a un columnista de tecnología del New York Times que lo "amaba", luego afirmó estar "ofendido" por una línea de preguntas en una entrevista simulada con The Washington Post.
En respuesta, Microsoft ha limitado Bing a cinco respuestas por sesión en un esfuerzo por reducir las posibilidades de que se salga del camino.
¿Qué se está haciendo para revertir el "problema"?
Toda esta indignación finalmente está teniendo un impacto. El contenido alucinante de Bing es generado por la tecnología de lenguaje de IA llamada ChatGPT desarrollada por la startup OpenAI, y el viernes pasado, OpenAI aclaró cómo deben comportarse sus chatbots.
También publicó sus pautas sobre cómo debería responder ChatGPT cuando se le solicite información sobre las "guerras culturales" de Estados Unidos.
Las reglas incluyen no afiliarse a partidos políticos o juzgar a un grupo como bueno o malo, por ejemplo.
Sandhini Agarwal y Lama Ahmad, dos investigadores de políticas de IA en OpenAI, hablaron sobre cómo la empresa está haciendo que ChatGPT sea más seguro y menos loco.
La empresa se negó a comentar sobre su relación con Microsoft, pero aun así tenían algunas ideas interesantes.
Cómo obtener mejores respuestas: en la investigación de modelos de lenguaje de IA, una de las preguntas abiertas más importantes es cómo evitar que los modelos "alucinen", un término educado para inventar cosas.
Millones de personas han utilizado ChatGPT durante meses, pero no habíamos visto el tipo de falsedades y alucinaciones que Bing ha estado generando.
Esto se debe a que OpenAI ha utilizado una técnica en ChatGPT llamada aprendizaje de refuerzo a partir de comentarios humanos, que mejora las respuestas del modelo en función de los comentarios de los usuarios.
La técnica funciona pidiendo a las personas que elijan entre una variedad de resultados diferentes antes de clasificarlos en términos de varios criterios diferentes, como factualidad y veracidad. Algunos expertos creen que Microsoft podría haberse saltado o apresurado esta etapa para lanzar Bing, aunque la compañía aún debe confirmar o negar esa afirmación.

















