A lo largo de los últimos meses, los asistentes de IA como GPT-4 se han transformado en la última tendencia tecnológica. Y seguro que, en mayor o menor medida, tú también los has probado. Ahora su empresa creadora ha presentado su nuevo modelo y se espera que marque el camino para el crecimiento de otras muchas IA que siguen naciendo a diario a su alrededor.

Una IA mucho más eficaz

Como ya te puedes imaginar, uno de los rasgos más importantes en la presentación de GPT-4 Turbo, la nueva versión del chatbot, es que tiene sus conocimientos actualizados. Ahora cubre todos los sucesos que hayan ocurrido hasta abril de este año 2023, lo que significa que será capaz de una mayor flexibilidad y que las respuestas que dará estarán mucho más al día respecto a lo que ha pasado en el mundo.

Pero el aumento de su nivel de conocimiento era lo que se podía dar por entendido en el lanzamiento de una versión. Hay otros rasgos que son más determinantes, como que ahora tenga capacidad para gestionar prompts de un máximo de 128.000 tokens. Para que nos hagamos una idea de la enorme capacidad que supone esta cifra, hay que decir que es suficiente texto como para llenar 300 páginas (la extensión de un libro como Harry Potter y el prisionero de Azkaban).

Dos versiones y sus precios

Los desarrolladores que estén trabajando con la versión de pago de GPT-4 ya pueden acceder a GPT-4 Turbo por medio del uso de la actualización gpt-4-1106-preview. No obstante, está previsto que OpenAI la ponga a disposición de forma global dentro de poco, posiblemente en el momento en el que ya haya hecho pruebas y visto cómo la están utilizando los primeros usuarios. Según mencionan, será en las próximas semanas.

Es necesario tener en cuenta que GPT-4 Turbo está disponible en dos versiones. La primera de ellas evoca el uso clásico del chatbot, siendo compatible únicamente con peticiones de texto. Esta es la versión que está en la actualización de la API que te hemos mencionado en el párrafo anterior. Pero OpenAI también tiene una segunda versión en la cual ya se da soporte al análisis de imágenes.

¿Y el precio? Todo depende de los tokens que utilices. Los tokens son el sistema unitario que utiliza ChatGPT como forma de medir el texto que cargamos dentro del chatbot y, al mismo tiempo, el cual usa el programa para respondernos. No equivalen a letras, ni tampoco a palabras. Podríamos decir que lo que más se acerca a los tokens serían las sílabas, pero tampoco estaríamos consiguiendo una definición exacta. Quédate con la idea de que es el sistema de medida y que depende de varios factores, aunque no es difícil acabar acostumbrándose a su cálculo una vez llevas trabajando un tiempo con la herramienta.

Dicho esto, el precio de GPT-4 Turbo es de 0.01 dólares por una cantidad de 1.000 tokens en la petición de comandos que realices (o, dicho de otro modo, el texto que tú escribes) y de 0.03 dólares por la misma cantidad de tokens, pero en las respuestas del programa. Si hiciéramos una aproximación a ojo de lo que representa esta cifra en palabras, podríamos decir que con 1.000 tokens estarías escribiendo o recibiendo alrededor de 700-750 palabras. Con estas cifras, desde OpenAI aseguran que se han esforzado a fin de conseguir que el uso de la IA resulte mucho más económico en comparación a GPT-4. Eso ayudará a que se use todavía más en funciones como resumir textos. ¿Y las imágenes? Este precio es más difícil de calcular. Desde la empresa aseguran que lo que influirá será el tamaño de la misma. Y, para que nos podamos hacer una idea, ponen el ejemplo de cómo una foto con resolución de 1080 x 1080 píxeles tendrá un precio de 0.00765 dólares.

Mejoras en GPT-4

Una buena noticia para la comunidad es que OpenAI no solo se ha concentrado en la presentación de GPT-4 Turbo, sino que también ha anunciado novedades para GPT-4. Así, dice la empresa que ha puesto a trabajar a su equipo en la revisión del rendimiento del programa para conseguir limar todos los aspectos en los que no rinde al máximo nivel, algo para lo que han entendido que era necesario un equipo humano trabajando a fondo. Inicialmente parece que pensaban que podrían ajustar GPT-4 tal y como lo hicieron con GPT-3.5, pero han acabado descubriendo que el proceso era más exigente de lo calculado al inicio.

Por otra parte, aunque los precios de los token en GPT-4 siguen siendo los mismos que antes, lo que ha hecho la entidad ha sido doblar el límite de tokens por minuto que los usuarios pueden utilizar. De esa manera esperan que la experiencia de los usuarios resulte más satisfactoria, si bien había quien pensaba que un cambio como este podría haber estado acompañado de algún tipo de rebaja en las tarifas.

Otra de las novedades anunciadas durante la conferencia incluyen la compatibilidad de GPT-4 Turbo y GPT-3.5 Turbo con el modo JSON y la disponibilidad de las GPTs, que son versiones personalizables del chatbot a disposición de las empresas y usuarios profesionales. Este sistema permite llevar a cabo versiones propias de ChatGPT de una manera personalizable y sin necesidad de tener conocimientos de programación. Además, se da vía libre para crearlas y usarlas tanto de forma privada como comercial, por lo que es posible que ayude a que las IA basadas en la tecnología de OpenAI se reproduzcan a gran velocidad.

 

Fuente: BQ Prime | adslzone