Desde que los resultados de ChatGPT comenzaron a sorprendernos allá por noviembre de 2022, son muchos los que han utilizado la IA para sus trabajos de la universidad. Tanto es así que algunos profesores se llevaron las manos a la cabeza y ya existen varias soluciones capaces de detectar el uso de esta tecnología.
Hasta la fecha, los detectores de inteligencia artificial todavía no son lo suficientemente precisos. Basta con hacer unos pocos cambios para engañarlos. Así, ningún maestro puede sospechar que sus alumnos han usado IA. Pero OpenAI cree que ha dado con una solución capaz de acabar con esta preocupante situación.
En un artículo de The Wall Street Journal, que ha filtrado la información, detallan que sería mediante una marca de agua. En teoría, la compañía de Sam Altman sería la única capaz de ver el indicador de hecho artificialmente. Es decir, a simple vista, el ojo humano no podría notar la diferencia. Sin embargo, su detector podría acertar, con una precisión del 99,9%. Tanto si el usuario hiciese un copia y pega directo, como si hiciese unas modificaciones modestas. Es decir, los estudiantes estarían obligados a hacer cambios significativos y trabajar realmente en sus proyectos si no desean que el detector se chive.
¿Por qué OpenAI no lanza su detector de textos hechos por ChatGPT?
Pese a que OpenAI esté seguro de la eficacia de su detector, de momento solo ha realizado pruebas internas. Según han descubierto, la marca de agua, indetectable para los lectores humanos, no afecta negativamente la calidad de los resultados. Es decir, seguirán siendo tan impresionantes como hasta ahora.
Dentro de las oficinas de la compañía, existe un conflicto interno entre los que quieren sacar el detector y los que no. En The Wall Street Journal, aclaran que, entre los detractores de lanzarlo, no les parece suficiente una eficiencia del 99,9%. Para que se atreviesen a sacarlo, deberían esforzarse todavía más para que el porcentaje fuese mucho mayor.
Por ejemplo, pongámonos en el supuesto de que se lanzase y las universidades comenzasen a utilizarlo cono forma fiable de detectar el uso de ChatGPT. Eso implicaría que 1 de entre 1.000 trabajos sería calificado falsamente como hecho con IA. OpenAI no está dispuesto a ser el culpable de que un estudiante inocente pague las consecuencias.
Además, también está el caso de las traducciones o del uso de ChatGPT para mejorar la escritura. Un alumno que verdaderamente se haya esforzado al redactar un texto y, después, lo pase por la herramienta solo para repasar erratas o para traducirlo a otro idioma que no domina, sufriría las represalias.
Un portavoz de OpenAI aclaró que, de momento, solo se había probado en inglés. Por lo tanto, su efectividad podría menguar en otros idiomas. «La herramienta podría afectar desproporcionadamente a ciertos grupos como los hablantes no nativos de inglés«, ha asegurado a The Wall Street Journal la fuente anónima.
Por ese motivo, OpenAI sigue perfeccionando su detector y trabajando en la marca de agua. Hasta que no logre encontrar una forma de solucionar los posibles problemas derivados, no parece que la firma esté dispuesta a lanzarla al público.
Mientras esperamos a que saquen la marca de agua y su detector con una precisión tan alta, las universidades siguen utilizando otros métodos. Al menos en algunos Trabajos de Fin de Grado o Máster y en Doctorados, hay instituciones académicas que ya han comenzado a utilizar herramientas con menos efectividad. Por lo tanto, la excusa de OpenAI de no lanzarlo para no penar a 1 alumno de 1.000 no resulta suficiente para algunos.
Fuente: The Wall Street Journal | adslzone