Hablar mucho con ChatGPT provoca que se confunda la IA, confirma Microsoft

Las declaraciones de Microsoft llegan tras las críticas de varios usuarios que afirman haber recibido insultos y manipulaciones por parte de ChatGPT

Ciencia y Tecnología

Feb-17-2023

280
Hablar mucho con ChatGPT provoca que se confunda la IA, confirma Microsoft

 

RFInforma / Ciudad de México / viernes 17 de febrero del 2023

Redacción.-

El nuevo Bing impulsado por IA, y más concretamente por ChatGPT, ofrece en ocasiones respuestas incorrectas, y tampoco se le da bien hablar durante mucho tiempo con los usuarios. Microsoft ha confirmado que el chatbot que integra su buscador puede volverse “repetitivo” o ser fácilmente “incitado” a que dé respuestas poco útiles y vulgares, si en una sesión se realizan 15 o más preguntas.

Las declaraciones de Microsoft llegan tras las críticas de varios usuarios que afirman haber recibido insultos y manipulaciones por parte de ChatGPT, quien incluso ha llegado a ofenderse y a acusar a algunas personas de mentirosas.

La compañía, en concreto, dice que no tenían previsto que la gente utilizara la herramienta “para un descubrimiento más general del mundo y para el entretenimiento social”. Y que, tras investigaciones previas, descubrieron que la IA podía volverse repetitiva. También ser provocada “para dar respuestas que no sean necesariamente útiles” o que no están “en línea” del tono diseñado. Creen, además, que esto se debe a dos motivos.

En primer lugar, destacan que las sesiones muy largas hacen que ChatGPT se confunda sobre las preguntas que está respondiendo. Probablemente, porque el usuario ha cambiado de tema y la IA no ha recibido suficiente contexto al respecto. Microsoft considera que este fallo se solventaría añadiendo una herramienta que permita al chatbot “refrescar” ese contexto fácilmente o bien, empezar el chat desde cero para así entender mejor las preguntas.

Por otro lado, la compañía firma que, en ocasiones, “el modelo intenta responder o reflexionar en el tono” en el que el usuario pide que le responda. Es por eso que la IA puede llegar a conversa de manera vulgar o con un tono poco apropiado. Microsoft, eso sí, destaca que hacer que ChatGPT responda de esta manera requiere muchas indicaciones. No obstante, aseguran estar estudiando cómo ofrecer un control más preciso a los usuarios sobre cómo el chatbot debe responder.

Microsoft sabe que ChatGPT en Bing puede dar respuestas incorrectas: ya trabajan en una solución

En paralelo, Microsoft ha confirmado que el nuevo Bing impulsado por ChatGPT también puede dar respuestas incorrectas. De hecho, la IA ofreció resultados inexactos durante su demostración oficial. Incluso, llegó a inventarse cifras de resultados financieros que fácilmente pueden encontrarse en internet.

Para evitar estos problemas, la empresa ha confirmado que están planeando incrementar el número de datos que se envían a la IA impulsada por ChatGPT. De este modo, podrá tener más contexto y comparar información para que ofrezca resultados más exactos.

“Para consultas en las que esté buscando respuestas más directas y objetivas, como los números de los informes financieros, estamos planeando aumentar 4 veces los datos de puesta a tierra que enviamos al modelo”.

No debemos olvidar que el nuevo Bing con ChatGPT todavía está en fase de pruebas. Por tanto, es común que se encuentren fallos de este estilo.

 

 

» Fuente «