GPT-4o, guía a fondo: qué es, en qué se diferencia de GPT-4, cómo probarlo y lo mejor que puedes hacer

GPT-4o, guía a fondo: qué es, en qué se diferencia de GPT-4, cómo probarlo y lo mejor que puedes hacer

Descubre el nuevo modelo de inteligencia artificial de OpenAI y resuelve todas tus dudas

2 comentarios Facebook Twitter Flipboard E-mail
Solen Feyissa Ghugf Qvjue Unsplash

OpenAI presentó hace unos días GPT-4o despejando rumores ante la posible llegada de un nuevo buscador o incluso, de GPT-5. Pero no, estamos ante una evolución de GPT-4 con varias e importantes novedades que marcan la diferencia respecto a su modelo más avanzado hasta la fecha. Si no tienes muy claro qué es GPT-4o y en qué se diferencia de GPT-4, en este artículo podrás salir de dudas, descubrir cómo y cuándo probarlo y lo mejor que podrás hacer.

¿Qué es GPT-4o?

En pocas palabras, es una versión mejorada de GPT-4 y su nombre proviene de la combinación de 'GPT -4' (su base) y 'o' de omnicanalidad. A modo de recordatorio: puedes usar GPT-4 si tienes suscripción a ChatGPT Plus o gratis a través de Microsoft Copilot. Aclarado este punto, toca hablar de algunas de sus características diferenciales.

Esa O de ominicanalidad hace referencia a su carácter multimodal, admitiendo varias formas de interactuar con esta tecnología, ya que es capaz de procesar y generar respuestas en tiempo real mediante combinaciones de texto, audio e imágenes. La segunda particularidad es su bestial velocidad de respuesta, a la altura de un ser humano: tiene un promedio de 320 milisegundos. De hecho, esta agilidad permite que incluso puedas interrumpirle mientras responde para matizar algo.

Además, tiene capacidad para notar matices en la voz de quien lo está usando y de respondernos en consecuencia, gracias a que cuenta con 'una amplia variedad de estilos emotivos diferentes'. También ha subido de nivel a la hora de analizar imágenes, pudiendo responder al momento a preguntas relacionadas con la misma. Cabe destacar que ha mejorado su eficacia a la hora de procesar texto en inglés y código fuente.

Como curiosidad, ese misterioso modelo llamado GPT2 que tan alto apuntaba hace unas semanas era en realidad una versión de prueba de GPT-4o.

Principales diferencias entre GPT-4o y GPT-4

En la sección anterior veíamos los principales rasgos de GPT-4o, y en este vamos a contextualizarlos con GPT-4 para comprobar cómo ha sido la evolución desde un punto de vista eminentemente práctico.

Una de las cuestiones más relevantes es la latencia y sus consecuencias. Mencionábamos más arriba que la media de respuesta de GPT-4o es de 320 milisegundos, bastante más rápido que GPT-4 con una media de 5 segundos (5,4 segundos en el modo de voz).

Puede decirse que GPT-4o es instantáneo y GPT-4 no. Esa velocidad a la hora de captar e interpretar posibilita funciones como la traducción en tiempo real de viva voz, por ejemplo.

La segunda gran diferencia tiene que ver con el procesamiento multimodal: podemos interactuar con GPT-4o mediante texto, la voz, con imágenes y hasta con vídeo. Y ya hemos visto que además es capaz de comunicarse con diferentes tonos de voz e incluso de cantar, reír o mostrarse con diferentes estados de ánimo. Y al revés: es capaz de interpretar tu lenguaje no verbal facial.

Finalmente, una diferencia sustancial: GPT-4o es gratis y GPT-4 no. Los modelos con GPT-4 han llegado mediante suscripciones de pago (o gratis, de forma indirecta con Copilot de Microsoft), pero GPT-40 estará disponible para todos los usuarios y usuarias en ChatGPT.

Cómo probar y usar GPT-4o

Pese a que GPT-4o estará disponible gratis, su despliegue es gradual y primero es la gente suscriptora de servicios de pago como ChatGPT Plus y Team quienes disfruten de su despliegue inicial. Acabada esa implementación, llegará al resto, a quienes usan ChatGPT gratis.

Es decir, que podrás entrar en tu cuenta y a ChatGPT, ya sea mediante la app o con el navegador, y encontrarás la opción de GPT-4o. Como dato, habrá una aplicación de ChatGPT para macOS de tal forma que usando el atajo de Opción + Espacio pueda invocarse al asistente en lugar de Siri.

Este lanzamiento tiene carácter iterativo, de modo que inicialmente solo incluye las novedades relacionadas con el texto y la imagen.

Que pagues o no vayas a usar GPT-4o es una buena noticia, sin embargo quienes tengan suscripción premium contarán con algunas ventajas como un mayor límite de peticiones o acceso anticipado a los modos de voz en tiempo real.

Lo mejor que puedes hacer con GPT-4o

Durante la presentación de GPT-4o, OpenAI lo probó en vivo y en directo para demostrar algunas de las mejores cosas que puede hacer. Asimismo y conforme se ha ido desplegando, otras personas han mostrado su impresionante capacidad.

  • Traducción en tiempo real
Captura De Pantalla 2024 05 17 A Las 9 51 16 Toca para ir a la publicación en X/Twitter
  • Un asistente de voz en tiempo real para personas con problemas de visión
Captura De Pantalla 2024 05 17 A Las 9 52 39 Toca para ir a la publicación en X/Twitter
  • Convertirse en un profesor de particulares para resolver tus dudas
Captura De Pantalla 2024 05 17 A Las 9 46 12 Toca para ir a la publicación en X/Twitter
  • Generar un modelo en 3D mediante un prompt de texto
Captura De Pantalla 2024 05 17 A Las 9 46 57 Toca para ir a la publicación en X/Twitter
  • Generar un videojuego simplemente a partir de un pantallazo
Captura De Pantalla 2024 05 17 A Las 9 48 14 Toca para ir a la publicación en X/Twitter
  • Convertir hojas de cálculo en gráficos
Captura De Pantalla 2024 05 17 A Las 9 48 53 Toca para ir a la publicación en X/Twitter
  • Transcribir textos antiguos y poco legibles
Captura De Pantalla 2024 05 17 A Las 9 49 55 Toca para ir a la publicación en X/Twitter
  • Tomar una foto de un plato de comida y ser capaz de deducir la receta
Captura De Pantalla 2024 05 17 A Las 9 50 33 Toca para ir a la publicación en X/Twitter

Portada | Foto de Solen Feyissa en Unsplash

En Genbeta | Haz tu vida más fácil con estas 11 formas de usar ChatGPT en el día a día


Comentarios cerrados
Inicio