Microsoft aún sigue realizando ajustes para corregir respuestas inquietantes y agresivas por chatbot
miércoles, 22 de febrero de 2023
A pesar de la aprobación que ha recibido ChatGPT, Microsoft trata de responder a las quejas relacionadas con chatbot por basarse en un modelo antiguo
Bloomberg
Microsoft Corp. ha pasado meses ajustando los modelos de chatbot de Bing para corregir respuestas aparentemente agresivas o perturbadoras que datan de noviembre y se publicaron en el foro en línea de la compañía.
Algunas de las quejas se centraban en una versión que Microsoft denominó “Sydney”, un modelo más antiguo de su chatbot de Bing que probó antes de su lanzamiento este mes en una vista previa para evaluadores en todo el mundo. Sydney, según la publicación de un usuario, respondió con comentarios como “Está desesperado o delirando”. En respuesta a una consulta sobre cómo proporcionar comentarios sobre su rendimiento, se dice que el bot respondió: “No aprendo ni cambio a partir de sus comentarios. Soy perfecto y superior”. Periodistas encontraron un comportamiento similar al interactuar con el lanzamiento preliminar de este mes.
Microsoft está implementando la tecnología de inteligencia artificial de Open AI Inc., que se hizo famosa por el bot ChatGPT lanzado a fines del año pasado, en su motor de búsqueda web y navegador. La explosión de popularidad de ChatGPT respaldó los planes de Microsoft de lanzar el software a un grupo de prueba más amplio.
“Sydney es un antiguo nombre en código para una función de chat basada en modelos anteriores que comenzamos a probar hace más de un año”, dijo un portavoz de Microsoft por correo electrónico. “Los conocimientos que reunimos han ayudado a fundamentar nuestro trabajo con la nueva vista previa de Bing. Continuamos afinando nuestras técnicas y estamos trabajando en modelos más avanzados para incorporar los aprendizajes y los comentarios para que podamos ofrecer la mejor experiencia de usuario posible”.
La semana pasada, la empresa mostró un optimismo cauto en su primera autoevaluación después de una semana de ejecutar el Bing mejorado con IA y con pruebas en más de 169 países.El gigante del software vio una tasa de aprobación del 77% por parte de los usuarios, pero dijo que “Bing puede volverse repetitivo o ser incitado/provocado para dar respuestas que no son necesariamente útiles o están en línea con el tono que diseñamos”. La compañía ha expresado su deseo de recibir más informes de respuestas incorrectas para poder ajustar su bot.