Desde que el modelo de lenguaje de OpenAI salió al mercado, varios usuarios han podido notar cómo la IA tiene algunas palabras ‘favoritas’, por así decirlo, que usa bastante a menudo. Una de ellas es «delve» (ahondar o profundizar), usada en frases del tipo «para ahondar en esta cuestión» o «esta investigación profundiza en el tema de…».Este tema ha llamado la atención de muchos académicos ya que, lejos de ser algo anecdótico, guarda relación con un problema de largo recorrido en el mundo universitario.Según datos de PubMed, el repositorio de investigaciones biomédicas, desde 2023 los papers científicos de este campo empezaron a incorporar la palabra «delve» mucho más de lo que lo hacían antes. En este contexto, el pasado 7 de abril el empresario de tecnología Paul Graham compartió un post en X en el que aseguraba que la palabra «delve» delataba los textos que habían sido escritos con IA.

En el post, Graham adjuntó un gráfico en el que se muestra el enorme aumento de esta palabra en estudios académicos desde 2022. Las piezas empezaron a encajar, y es que todo esto parece indicar que muchos científicos o investigadores están recurriendo al chatbot para redactar sus trabajos. Por otro lado, el usuario @williamhickman_ publicó un gráfico con datos de Google Scholar mostrando que en los artículos académicos de disciplina económica también se estaba experimentando la misma tendencia.

A esto se le suma un guiño de la propia empresa, que desde la cuenta @ChatGPTapp en X publicó este 18 de abril: «don’t mind me just doing some delving today», en clara referencia al debate que estaba teniendo lugar en redes. Esto tampoco es anecdótico, ya que en respuesta a un usuario contestando que la broma ya está pasada, desde la cuenta de ChatGPT responden: «No, queda mucho jugo aquí».

Influencias en la fase de entrenamiento

Con todo ello, el investigador de IA Jeremy Nguyen ha unido varias pistas a lo largo de un hilo de X en el que parece llegar al fondo de la cuestión. La razón detrás del elevado uso de esta palabra por parte del chatbot puede deberse a las personas humanas utilizadas para entrenar su algoritmo. En concreto, el sistema RLHF.

El aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF) no es más que el sistema mediante el cual trabajadores humanos proporcionan una valoración de los outputs del modelo para que la IA entienda qué respuesta es mejor. Esto iría unido al hecho de que las grandes empresas deslocalizan partes del proceso como estas a países con salarios bajos. De esta forma, pueden contratar a grandes grupos de personas para que entrenen al modelo.

delvechatgpt1

No obstante, una consecuencia de esto es que la cultura y costumbres de las personas que lo están entrenando afecten, indirectamente, en la forma en que aprende el modelo de lenguaje. Aquí es donde entra el usuario @OvieO, que indica: «Debes tener en cuenta la formación académica. La gente de ciertas partes del mundo usa ciertas palabras como «profundizar» en sus oraciones. Puedo decirte gratis que los nigerianos lo hacen. Sí. Muchos inmigrantes que estudiaron bajo el sistema británico lo hacen».

Rasgos identificables en la ‘personalidad’ de ChatGPT

Al igual que él, otros usuarios también advierten que la academia británica usa mucho más esta palabra de lo que suele hacerse en el inglés estadounidense. Pero, esto no termina de explicar el porqué del aumento en el uso de esta palabra en papers científicos.

Según advierte Nguyen, el empleo de trabajadores nigerianos para dar feedback al modelo durante el proceso de entrenamiento sería lo que ha causado que la IA de OpenAI adopte «delve» como una palabra excelente que utilizar en sus respuestas, dando una apariencia más inteligente que si usase palabras más mundanas. Esto es lo que ha hecho, a su vez, que los estudios académicos estén usando más esta palabra por el uso de IA en el proceso de escritura. De ser cierta esta teoría, podría llevarnos a dos conclusiones

Por un lado, que los humanos detrás de las máquinas importan, y mucho, en el funcionamiento de las inteligencias artificiales. En segundo lugar, que si un texto menciona demasiadas veces las palabras «ahondar» o «profundizar», puedes estar ante una IA delatándose a sí misma.

Hay que decir que estas afirmaciones no han quedado libres de críticas. La profesora Uju Anja ha acusado esta teoría de «absurda» y racista, citando a «los profesores estadounidenses y británicos que castigan a los africanos por usar el inglés» pensando que utilizan palabras demasiado floridas.

 

Fuente: adslzone