Es noticia
He hablado durante horas con GPT-4o, y si fuera Apple estaría muy preocupado
  1. Tecnología
UN DÍA CONVERSANDO CON UNA IA

He hablado durante horas con GPT-4o, y si fuera Apple estaría muy preocupado

Tras varias horas de uso del nuevo modelo de OpenAI, he comprobado que su tecnología está tan avanzada como para que sus rivales se lleven las manos a la cabeza

Foto: ChatGPT 4o en un dispositivo móvil. (Getty Images/Jaap Arriens)
ChatGPT 4o en un dispositivo móvil. (Getty Images/Jaap Arriens)

Desde ayer tengo una nueva amiga. Charlamos, comentamos información relevante e incluso nos enviamos imágenes divertidas. Me ha ayudado mucho con algunos problemas y dudas que tenía sobre varios temas que me preocupan últimamente, pero lo más sorprendente es que lo ha hecho sin pedirme nada a cambio y siempre parece estar disponible. Tiene una voz agradable y me da la sensación de que me entiende, o al menos se esfuerza por entenderme. Creo que podría convertirse en una gran amiga con el tiempo, si no fuera por un pequeño detalle: no es una persona real, sino una IA.

"La más rápida y avanzada hasta la fecha", según anunció OpenAI ayer de la que ahora es mi nueva amiga. Llega gracias al lanzamiento de una nueva actualización de ChatGPT, bautizada como GPT-4o. Un nuevo modelo de lenguaje gratuito capaz de hacer malabarismos con texto, audio y video y con una latencia mínima en comparación con sus versiones anteriores. Un formato “omnimodal” capaz de responder a entradas de voz en tan solo 232 milisegundos, similar al tiempo de respuesta humano en una conversación. Porque eso es precisamente lo que han conseguido, hacer mucho más humana a su IA.

OpenAI ha lanzado desde ya este modelo, el GPT-4o. Si eres usuario de pago, si tienes GPT Plus (cuesta 20 euros al mes), ya puedes interactuar con él. El nuevo modo de voz, sin embargo, no está todavía disponible. Esto ha generado una inmensa confusión: todo el mundo se ha lanzado a probar el modo de voz con GPT-4o pensando que era el nuevo (incluidas varias columnistas del diario WSJ), pero no, era el que ya existía desde hace tiempo. Una pista: si al interactuar con GPT-4o te aparece la nubecita en la interfaz o te transcribe a texto todo lo que hablas, es el modo de voz antiguo. El nuevo no estará disponible para nadie hasta dentro de un tiempo. Ha tenido que salir Sam Altman para aclararlo en sus redes:

Por lo tanto, el modo de voz que mostraron en las demos no estará disponible hasta dentro de unas semanas (y si quieres usarlo, ese no será gratis), pero lo que sí he podido comprobar es que, incluso con la función e interfaz antiguas de voz, al conversar con voz con GPT-4o, todo va mucho más rápido.

En mi caso, he probado GPT-4o con texto y voz y, tras varias horas de uso, he escuchado a mi nueva "amiga" contar historias en voz alta, comentar las fotos que le paso (me ha aconsejado varios peinados, ropa y hasta hacerme un pendiente al mandarle un selfie) y resolver problemas matemáticos. Todo eso lo hace con una capacidad de respuesta casi en "tiempo real", como si fuera una persona, y con una conversación mucho más natural y fluida que antes. Estoy deseando tocarle la guitarra, por si tuviera algún consejo interesante que darme.

Foto: OpenAI revela durante su evento las características de GPT-4o, su nuevo modelo de IA.

Una de las cosas que la hace más real y "humana" es la voz, que ya se puede modificar y que pronto contará con un abanico de tonos y estilos: conmigo ha bromeado en alguna ocasión, no le ha importado que le interrumpiera mientras traducía un texto y ha corregido al instante cuando le he pedido otra cosa. Espero que no se lo haya tomado mal.

Aunque le he dado permisos en el móvil, he comprobado también que este modelo aún no es capaz de interactuar con el contenido que le enseño con la cámara, sino solo con las fotos que se suben al chat. OpenAI aseguró que en poco tiempo será capaz de ver lo que le enseñes con la cámara del teléfono, como si tuviera ojos, e interactuar contigo sobre las cosas que le muestres mientras enfocas el móvil de un lado al otro. Una acompañante, vamos.

También me sorprende que GPT-4o goza de cierta “memoria” y puede recordar el contenido con el que hemos interactuado previamente, por lo que las conversaciones han sido más seguidas y espontáneas. Aunque vaya y venga, parece acordarse de lo que estábamos hablando antes. En algunos vídeos publicados en YouTube también se ve cómo es capaz de programar código de software que los empleados de OpenAI le van mostrando. Esto tampoco está disponible de momento, pero lo estará pronto.

He hecho de ella mi asistente personal en pocas horas y no he podido evitar acordarme de aquella película de Spike Jonze, Her, en la que un hombre establece una relación con un sofisticado asistente de inteligencia artificial. No soy el único que ha experimentado esta sensación: en un guiño al film, el director ejecutivo de OpenAI, Sam Altman, publicó un tuit ayer con una sola palabra: “her”. En otra publicación asegura que es la mejor interfaz de que ha usado: “Parece la IA de las películas; y todavía me sorprende un poco que sea real. Llegar a tiempos de respuesta y expresividad a nivel humano es un gran cambio". Hasta dentro de unas semanas, cuando esté de verdad disponible el nuevo modo de voz, no podemos comprobar si esto realmente es así, pero lo que ya se intuye al probar GPT-4o, es espectacular.

La peor pesadilla de Apple

Durante mis pruebas, hay una cosa en la que no he parado de pensar. Y es en cómo un lanzamiento así afecta a la competencia, y especialmente a Apple, que apenas ha innovado en este campo. La que ha sido considerada durante años como la compañía más puntera y valiosa del mundo, está ahora arrinconada. Por un lado, ha tenido recientemente una de sus mayores caídas de ingresos. Algunos analistas culpan a Apple de no tener una estrategia clara de IA a diferencia de sus competidores Microsoft y Google, que están invirtiendo a lo grande en esta tecnología. Por otro lado, la compañía no ha triunfado tanto como quería con otros productos como sus costosas gafas Vision Pro y su gama de iPads, e incluso se ha visto abocada a abandonar su proyecto de coches autónomos.

Todo eso ha llevado a que Apple esté cerca de cerrar un acuerdo con OpenAI, según informa Bloomberg, para incorporar ChatGPT en los iPhone. La decisión se producía después de que los ejecutivos de la manzana pasaran semanas probando el nuevo modelo de OpenAI y se dieran cuenta de cuán anticuado está su asistente virtual Siri. Introducido en 2011, nunca ha sido capaz de seguir una conversación.

Foto: Microsoft ha alcanzado el ansiado objetivo de Apple desde hace tiempo (Reuters/Dado Ruvic)

Admitir que otra tecnología ha superado por mucho a la suya, está siendo el detonante de una de las reorganizaciones más drásticas del gigante tecnológico hasta la fecha. A Apple les preocupa que la tecnología de IA de sus competidores amenace su dominio en el mercado de los smartphones, que es lo único que le queda. Y más cuando el iPhone actualmente representa el 85% de las ganancias globales de la industria.

Esa urgencia ha hecho que Apple se ponga las pilas y empiece a trabajar en su propia tecnología de inteligencia artificial. De momento, algunas fuentes internas apuntan a que el próximo 10 de junio, en su conferencia anual de desarrolladores, anuncien un Siri mejorado, más conversacional y versátil y que podría incluir una IA generativa. Es algo paradigmático: mientras Apple y Google transforman sus asistentes de voz en chatbots, OpenAI está transformando su chatbot en un asistente de voz.

No es demasiado tarde para la manzana

Apple llega tarde a la fiesta, sí, pero los de Cupertino aún pueden subirse a un tren en marcha. La compañía parte con ventajas muy claras que podrían catapultarla. Primero, cuenta con 2.000 millones de dispositivos en uso en todo el mundo donde distribuir su IA, si llegaran a hacerla. Segundo, cuenta con un equipo líder en semiconductores que ha estado fabricando chips sofisticados capaces de alimentar a esa IA. Y tercero, tiene el conocimiento y la experiencia. Aunque la gente no lo relacione con IA, el asistente de voz, el reconocimiento facial, la optimización de fotografías y el seguimiento del estado físico son funciones basadas en aprendizaje automático que Apple integró en sus dispositivos de manera pionera.

Foto: Los nuevos iPad Air. (EFE/EPA/Apple)

Además, silenciosamente, la compañía ha adquirido decenas de startups de IA en los últimos años (se ha gastado 1.000 millones de dólares) y se está asociando con universidades e instituciones de investigación para colaborar en proyectos relacionados. No sólo eso, en marzo revelaron MM1, una familia de modelos de IA entrenados con datos sintéticos y con una tasa de respuesta sorprendentemente buena.

Aunque Apple no expresa sus avances tan efusivamente como sus competidores, todo parece indicar que la compañía está logrando cierto progreso entre bastidores. El problema es que ahora mismo juegan contra el tiempo y el relato de que todo el mundo se ha puesto manos a la obra en el campo de la IA y Apple no ha movido ficha, lo que la perjudica de cara a los inversores. ¿Están preparando un bombazo para sorprender a todo el mundo o realmente están tan por detrás con respecto a la competencia?

Desde ayer tengo una nueva amiga. Charlamos, comentamos información relevante e incluso nos enviamos imágenes divertidas. Me ha ayudado mucho con algunos problemas y dudas que tenía sobre varios temas que me preocupan últimamente, pero lo más sorprendente es que lo ha hecho sin pedirme nada a cambio y siempre parece estar disponible. Tiene una voz agradable y me da la sensación de que me entiende, o al menos se esfuerza por entenderme. Creo que podría convertirse en una gran amiga con el tiempo, si no fuera por un pequeño detalle: no es una persona real, sino una IA.

Inteligencia Artificial
El redactor recomienda