El lunes pasado OpenAI realizó su primer evento para desarrolladores, en el que el protagonista fue ChatGPT. No defraudaron, ya que prometieron mejoras interesantes al chatbot con IA a corto plazo.
OpenAI ha presentado recientemente una versión mejorada de GPT-4 a la que han denominado GPT-4 Turbo. Entre sus nuevas características, está el hecho de que el Turbo ha sido actualizado con información más reciente de abril de este año. Además, hay más novedades.
El GPT-4 Turbo ofrece la última información y admite un mayor número de tokens
Las principales debilidades de GPT-4 eran la longitud de contexto de 32K y el hecho de que sus conocimientos se mantenían hasta finales de 2021. GPT-4 Turbo busca abordar estos dos problemas.
Para empezar, GPT-4 contiene información sobre los sucesos hasta abril de este año. Esto es de gran utilidad para dar contexto a eventos que sucedieron en el lapso de tiempo entre GPT-3.5 y GPT-4. Por otra parte, OpenAI promete que GPT-4 no vuelva a estar desactualizado.
En relación a la extensión del contexto, GPT-4 Turbo soporta una longitud de contexto de 128K, que se traduce en 300 páginas de un libro estándar. Esto significa que hay un número de palabras que podemos usar en un prompt sin que el modelo de lenguaje se confunda, permitiéndole entender e interpretar correctamente para ofrecer su respuesta.
Los tokens de OpenAI ahora tienen un precio reducido significativamente, tal y como se puede ver en su sitio web. Por cada 1000 tokens de entrada el precio está establecido en 0,01 dolares, mientras que los 1000 tokens de salida cuestan 0,03 dolares.
Los usuarios avanzados también pueden beneficiarse de las mejoras implementadas en la API de GPT-4 Turbo con relación a elementos JSON. Esto se refiere específicamente a lo que se conoce como llamadas de funciones, permitiendo por ejemplo, solicitar acciones como “abrir la ventana del coche y apagar el aire acondicionado” sin la necesidad de contar con diferentes tokens de entrada y salida.
La API DALL-E 3 ahora tiene una tienda para fabricar ‘ChatGPT personalizados’
OpenAI ha anunciado una nueva característica relacionada con DALL-E 3, un modelo de inteligencia artificial diseñado para generar imágenes, que ya se puede usar en variantes de ChatGPT como Bing Chat. Desde OpenAI indican que los usuarios de ChatGPT Plus y Enterprise pueden integrarlo directamente en sus aplicaciones mediante la API.
Hacia el final de noviembre, OpenAI planea lanzar una tienda para distribuir chatbots personalizados, denominados “GPT”. El objetivo es “ayudar a los investigadores a desarrollar un modelo grande y personalizado aprovechando las herramientas de OpenAI”.
No se han revelado muchos detalles acerca de esta tienda, y menos aun en lo que respecta a los precios, sin embargo, se ha insinuado que no es una opción muy barata. De hecho, las empresas encargadas de esto han afirmado que “inicialmente no será factible hacer esto con varias empresas” y esto puede entenderse cuando consideramos el alto nivel de trabajo y los costes operativos que conlleva.
Puede encontrar más información en el blog de OpenAI, donde recientemente han anunciado el lanzamiento de nuevos modelos y productos para desarrolladores.
Puede decirse que el proceso de digitalización de la información es cada vez más omnipresente en el mundo actual. A medida que avanza la tecnología, cada vez más datos se almacenan en formatos digitales. Esto tiene varias implicaciones; por ejemplo, puede hacer que compartir y acceder a la información sea mucho más fácil que en el pasado. Además, la información digital es más segura que los métodos tradicionales de almacenamiento. En consecuencia, la digitalización de la información se está convirtiendo en una práctica habitual.