Los investigadores de la Universidad de Texas, en Austin, han llevado a cabo un estudio que avanza la «Hipótesis del deterioro cerebral de LLM», con el nombre original de LLM Brain Rot Hypothesis. Lo que defiende es que la calidad de las respuestas de chatbots como ChatGPT,, Gemini o Claude se degrada a medida que son expuestos a una cantidad masiva de datos de relleno o contenido que sale de las redes sociales.

Tal y como explica Junyuan Hong, uno de los autores del estudio, al portal ZDNET, «Esta es la conexión entre la IA y los humanos. Pueden ser envenenados por el mismo tipo de contenido». El contenido basura, definido como «aquel que maximiza la interacción de los usuarios de forma trivial», está provocando que la IA pierda habilidades cruciales. Entre este tipo de contenido, habría que mencionar las publicaciones cortas, que tienden a ser llamativas y contener clickbait, con afirmaciones de lo más dudosas.

Síntomas de que la IA está afectada

La investigación descubrió que los modelos experimentales que fueron alimentados exclusivamente con este tipo de datos basura rápidamente mostraron un deterioro significativo en sus capacidades.

Los efectos de este deterioro son alarmantes y se manifiestan en la calidad de las respuestas que recibimos:

  • Empeora el razonamiento: Pérdida de la habilidad para seguir lógicas complejas o realizar razonamientos de varios pasos.
  • Comprensión de contexto baja: Dificultad para recordar o mantener la coherencia en conversaciones largas. Esto es algo que muchísimos usuarios están notando.
  • Menor consideración por las normas éticas básicas.
  • Tendencia a manifestar rasgos como la psicopatía o el narcisismo en sus respuestas.

El estudio cierra haciendo una llamada de atención a las compañías que desarrollan estos modelos, exigiendo una «curación cuidadosa y un control de calidad» que evite esto.

Cómo hacer que tu IA funcione bien siempre

Si el modelo que usas habitualmente, ya sea ChatGPT, Gemini o cualquier otro, ha dejado de ser tan preciso o funcionar igual de bien que lo hacía antes, hay una serie de instrucciones que puedes darle para enderezar su rumbo.

Estos harán que lleves un control del deterioro del modelo de IA y puedas asegurarte de que la información que recibes es la que quieres y es precisa.

Y según el informe de Zscaler, estos son los 4 trucos que debes usar:

  1. Pídele la hoja de ruta de la respuesta que te ha dado. Por ejemplo, puedes preguntarle: ¿Puedes describir los pasos específicos que has seguido para llegar a esa respuesta? Teniendo en cuenta que uno de los principales fallos tiene que ver con un colapso en el razonamiento en varios pasos, deberás tomar la respuesta original con pinzas y hacerle pensar y encontrar la lógica en lo que te ha dicho.
  2. Hazle dudar de lo que dice. Sí, los modelos de IA tienen mucho ego y hablan como si sus respuestas fuesen la norma. Pero muchas veces se equivocan, y tienes que hacérselo saber. Si tu modelo te habla en un tono muy arrogante, es hora de cambiar.
  3. Haz que no se olvide de nada. Si ves que tu chatbot se olvida o no interpreta bien algunos detalles que ya le diste al comienzo de esa conversación, es decir, que pierde el hilo contextual, es una señal clara de que ha perdido la comprensión a largo plazo. El modelo está olvidando quién eres, lo que necesitas y qué le has pedido, por lo que te aconsejamos que se lo recuerdes.
  4. Verifica siempre la información que te da. Todos los modelos, en algunas ocasiones, se vuelven locos y dan respuestas que no tienen sentido. Nuestro consejo es que confirmes siempre los datos con otras fuentes, como puede ser un artículo científico o un medio de comunicación, que mire por la verdad.

 

Fuente: Cornell University | adslzone