Es noticia
Apple Intelligence: así funciona la inteligencia artificial del iPhone (con ayuda de OpenAI)
  1. Tecnología
ARRANCA LA WWDC 2024

Apple Intelligence: así funciona la inteligencia artificial del iPhone (con ayuda de OpenAI)

La compañía presenta en un largo evento todas las novedades de software que pronto llegarán a sus dispositivos. Con ayuda de OpenAI riega el iPhone, el iPad y los Macs de inteligencia artificial. Siri es la gran beneficiada de la jornada

Foto: Tim Cook, durante la conferencia. Foto: Reuters.
Tim Cook, durante la conferencia. Foto: Reuters.

Hace doce meses, en pleno boom de ChatGPT y poco después de que Google mostrara sus planes para intentar frenar el órdago de Sam Altman, Apple celebró su cumbre de desarrolladores. En aquella WWDC, la palabra de moda, inteligencia artificial, no se pronunció ni una sola vez. Se habló de aprendizaje automático y profundo como sinónimos. El motivo de este llamativo tabú era bastante evidente: ni estaban preparados ni querían generar falsas expectativas en torno a esta tecnología. Hacerlo también habría quitado protagonismo a la gran apuesta de la casa, esas gafas de realidad mixta llamadas Vision Pro, que en la empresa prefieren definir como un computador espacial.

Un año después, la historia es completamente diferente. Los de la manzana, tal y como se lleva rumoreando varias semanas, han metido IA hasta en la sopa. Desde iOS hasta macOS, pasando por iPadOS.

Una demostración de fuerza del fabricante del iPhone que tiene letra pequeña. A pesar de toda la inversión y los desarrollos que han hecho hasta el día de hoy, sigue sin estar preparado para competir en esta carrera en solitario. Para ello, ha tenido que echar mano de OpenAI, con quien ha cerrado un acuerdo para contar con un chatbot y seguir el ritmo de Microsoft Copilot o Google Gemini. El rumor se escuchaba desde hace semanas y una foto de Sam Altman en las inmediaciones del Apple Park poco antes del arranque del evento confirmaba todas las especulaciones recientes.

Foto: Sundar Pichai. Foto: Google
TE PUEDE INTERESAR
Este invento de Google me hace pensar que el ChatGPT que uso desde hace meses está viejo
Michael McLoughlin. Montain View (California)

Apple Intelligence

Se había rumoreado mucho sobre qué forma adoptaría este tsunami de inteligencia artificial en los dispositivos de los californianos. Finalmente, ha ocurrido lo que parecía más probable. La compañía ha bautizado esta nueva función como Apple Intelligence, que Tim Cook ha descrito como "un sistema de inteligencia personal". "Llevamos trabajando en esto desde hace mucho tiempo", ha dicho Craig Federighi, el pope de la casa en todo lo que se refiere al software.

El ejecutivo ha puesto el acento en la personalización del servicio y en la capacidad para entender lo que necesitaba en cada momento el usuario. Por ejemplo, será capaz de analizar nuestros mensajes y correos y entender cuáles tienen prioridad para nosotros y destacarlos en una notificación. Esto será una auténtica delicia para esas personas que son incapaces de gestionar todos los mensajes que le llegan al día al correo, corriendo el riesgo de perderse alguno importante.

placeholder Asistentes a la WWDC. Foto: Reuters.
Asistentes a la WWDC. Foto: Reuters.

Los ejemplos que han mostrado enseñaron cómo utilizar Apple Intelligence para escribir, corregir o editar textos o correos generar imágenes con unos pocos toques. Una de las cosas llamativas de la generación de imágenes es que no permitirá generar imágenes fotorrealistas de personas. Ofrecerá otros estilos, pero ninguno que parezca real. Esto parece ser un cortafuegos para uno de los principales problemas que hay en torno a la IA: los deepfakes. Al igual que ya se ha visto en los Pixel o en los Samsung Galaxy, incluirá un editor que será capaz de borrar objetos o personas no deseadas de nuestras fotos y reconstruir la imagen como si nunca hubiesen estado allí. Si tenemos un bloc de notas, donde incluimos bocetos y anotaciones escritas a mano, podremos pedirle a Apple Intelligence que analice nuestros trazos y el texto y que genere una ilustración más completa.

La IA de Apple permitirá crear textos, emojis o imágenes a la carta, además de trascripciones en vivo de grabaciones o llamadas

La IA también servirá para crear emojis a la carta para utilizarlos en iMessage. Bastará con describir lo que se quiere para que Genmoji, como se llama la función, nos devuelva el emoticono personalizado. Otra de las cosas que ha destacado Federighi ha sido el contexto que es capaz de recolectar el sistema. Un trabajo de documentación sobre el usuario que, unido al mejor entendimiento del lenguaje natural, le permitirá entender peticiones del tipo "abre la web que me mandó mi hermano el otro día" o "pon el podcast que mi novia me recomendó la semana pasada". También, aseguran que servirá para ayudarnos a buscar en nuestra galería, pudiendo analizar lo que hay en las fotos o en los vídeos de nuestro teléfono.

Todo ello sin recolectar información del usuario, ya que sostienen que el procesamiento de la información se ejecuta localmente. Si, por algún casual, necesita más potencia de cálculo, la compañía asegura que la operación concreta se hará en la nube en un entorno privado y que posteriormente se elimina la información. La aplicación de notas de voz y la aplicación de teléfono podrán transcribir nuestras grabaciones y llamadas en tiempo real, pudiendo ofrecer resúmenes y claves de la conversación. En caso de que sea una llamada, los participantes serán avisados de que la herramienta está trabajando.

Siri, ¿la gran beneficiada?

Una de las grandes beneficiadas de todos estos lanzamientos va a ser Siri. El asistente de voz de Apple se había quedado descolgado frente a sus competidores y parece que la compañía quiere aprovechar las virtudes de la IA generativa para ponerlo al día. Ahora Siri será capaz de entender peticiones escritas cuando no se quiera hablar en alto o podrá mantener algo parecido a una conversación, ya que recordará las preguntas y respuestas anteriores. Pero Siri ahora también será capaz de entender lo que hay en la pantalla. Es lo que se ha venido a llamar multimodalidad y que tanto OpenAI y Google ya aplicaron el pasado mes en GPT-4o y el Project Astra, respectivamente. Gracias a esta capacidad, por ejemplo, el asistente del iPhone, del Mac y del iPad puede leer un texto de una captura de pantalla y crear un resumen. Estas nuevas posibilidades también le permitirán controlar apps y ejecutar peticiones sobre ellas.

La colaboración de Apple y OpenAI se canalizará, precisamente a través de Siri. El asistente de Apple se podrá comunicar con el de la empresa de Sam Altman para poder responder cuestiones y peticiones concretas. No hará falta crearse una cuenta de ChatGPT para acceder a esta dosis extra de inteligencia.

Más allá de la IA: iOS, macOS, iPadOS

Aunque la inteligencia artificial generativa amenazaba con ser un agujero negro de atención, no ha sido así. La primera hora del evento ha estado dedicada prácticamente a mostrar las novedades de sus sistemas operativos sin hablar de IA. La nueva entrega de iOS permitirá, por ejemplo, colocar los iconos de las aplicaciones donde nos plazca e incluso personalizarlos. El Centro de Control, ese menú de ajustes rápidos, también se podrá ajustar al gusto del usuario a partir de ahora.

El usuario podrá esconder aplicaciones comprometedoras en su escritorio o configurarlas para que solo se puedan abrir con una clave o con reconocimiento facial. También permitirá seleccionar a qué contactos tendrá acceso cada programa a la hora de compartir diferentes contenidos. Una opción que quiere evitar es que envíes ese TikTok irreverente o subido de tono a tu jefe o a tu madre por error.

Algunas de las apps más populares de Apple recibirán un importante rediseño. Mail, por ejemplo, dividirá en bandejas temáticas nuestros correos, de forma similar a lo que hace Gmail. Tendremos una bandeja con nuestros contactos habituales, pero se añadirán otras que clasificarán automáticamente los mensajes de confirmación de una compra por internet o donde se apilarán todos los correos promocionales.

Wallet recibirá una nueva función al estilo Bizum que permitirá hacer transferencias inmediatas con Apple Cash solo con acercar un iPhone al otro. En Mensajes, habrá más reacciones para dar feedback sin tener que escribir un mensaje. La galería de los iPhone recibirá un lavado de cara y una nueva forma de presentar los contenidos.

Foto: Más fácil y cómodo que un Bizum: la nueva función del iPhone para enviar dinero a otro móvil con solo tocarlo (Apple)

iPadOS, ese tentáculo de iOS para las tabletas de la casa, recibirá muchas de estas novedades, pero también tendrá algunas exclusivas. Aunque se esperaba que la revelasen hace un mes durante la presentación de las nuevas tabletas, finalmente ha habido que esperar hasta la WWDC para que el iPad tenga su propia aplicación de calculadora como ocurre desde hace años en los teléfonos de la compañía. No es una simple adaptación, sino que aprovechará las virtudes de este dispositivo. Utilizando el Apple Pencil se podrá escribir operaciones a mano en la pantalla y te calculará el resultado automáticamente sin entrar en la calculadora.

El iPad utilizará aprendizaje automático para corregir tu caligrafía. ¿Has tomado rápidamente unas notas con peor letra que la de tu médico de cabecera? Tranquilo, el sistema analizará la escritura y la corregirá con tu forma habitual de escribir. Si tu letra es mala, independientemente del tiempo que te tomes, supongo que esta función podrá hacer poco por ti.

Si eres de los que trabajan con un MacBook y tu teléfono de cabecera es un iPhone, es probable que le encuentres bastante utilidad a una de las novedades de macOS Sequoia: iPhone Mirroring. Como ya hemos visto en Huawei o Samsung, se podrá acceder a la pantalla del teléfono desde el portátil e interactuar con el contenido sin tener el móvil a mano. Además de eso, Safari rastreará las páginas que más te interesan para ofrecerte actualizaciones e información que considerará relevante para ti. Una nueva app de contraseñas y un sistema que te sugiere acciones rápidas cuando vas a mover una ventana de aquí para allá son algunas de las principales novedades.

Las Vision Pro viajan, pero no a España

Tanto iOS como macOS eran los platos fuertes del evento, pero antes de servirlos tocó el turno a los actores de reparto. El primer aperitivo que se ha servido ha sido un breve adelanto sobre las series y películas que llegarán a Apple TV+ la próxima temporada. Después de este pequeño bocado, le ha tocado el turno a las Vision Pro. La compañía ha lanzado visionOS 2, la primera gran actualización del sistema operativo que hace funcionar este dispositivo.

Entre las novedades que llegarán a este aparato está la nueva interfaz de trabajo equivalente a dos pantallas 4K a tu alrededor, nuevos gestos o una app para dar volumen a las fotografías que tengas en iCloud. Estas gafas contarán con un modo para cuando se van a utilizar en el transporte público. También habrá una nueva API pensada para el desarrollo y uso de las Vision Pro en el mundo empresarial.

placeholder Una usuaria, con las Vision Pro. Foto: Reuters.
Una usuaria, con las Vision Pro. Foto: Reuters.

La compañía ha asegurado que ya hay 2,000 apps nativas diseñadas para esta plataforma y que también hay más de 1,5 millones de apps de iPhone e iPad que son compatibles con el formato. Para empujar la creación de contenidos, Apple ha convencido a Canon para crear una lente para grabar vídeo espacial con sus cámaras. No han dado fechas ni precios, simplemente se ha limitado a decir que estarán disponibles más adelante. Donde sí tenemos plazos concretos es en la internacionalización de las Vision Pro, que hasta ahora solo se vendían en EEUU. Este mismo mes llegarán a Japón, Singapur o China y en julio a Australia, Canadá, Reino Unido, Alemania o Francia. España queda fuera de esta primera tanda de nuevos destinos.

El Apple Watch quiere seguir avanzando como dispositivo wellness. La nueva entrega de watchOS traerá un rediseño de la interfaz con la que presenta las principales métricas de salud del usuario. Para el público femenino, después del seguimiento del ciclo menstrual, ahora habrá la posibilidad de hacer seguimiento del embarazo.

Foto: Registro del ciclo en un Apple Watch Series 9. (Drita)

En el plano deportivo, permitirá personalizar entrenamientos de natación, con diferentes objetivos y rangos. Además, el usuario podrá pedir a Apple que pare temporalmente los avisos de actividad física, con los que empuja a completar sus famosos anillos. Si estás enfermo o si estás tirado a la bartola en el sofá porque tienes una resaca horrible, no tendrás que estar recibiendo avisos de que te levantes o de que hagas un poquito de deporte porque no has sumado ni un minuto en todo el día.

Los AirPods Pro también recibirán nuevos gestos de control. Los usuarios que los lleven puestos podrán asentir o negar con la cabeza para aceptar o rechazar una llamada entrante. Una evolución del ‘head tracking’ que pretende evitar que tengamos que echar mano al móvil o al reloj para no contestar una llamada cuando no nos viene bien. Al igual que otros modelos de la competencia, los AirPods ahora pararán la música cuando el usuario hable. En lo que se refiere a Apple TV (no el servicio de streaming, sino el dispositivo), habrá mejoras de sonido, nuevos salvapantallas y subtítulos automáticos cuando el usuario apriete el botón de silencio.

Hace doce meses, en pleno boom de ChatGPT y poco después de que Google mostrara sus planes para intentar frenar el órdago de Sam Altman, Apple celebró su cumbre de desarrolladores. En aquella WWDC, la palabra de moda, inteligencia artificial, no se pronunció ni una sola vez. Se habló de aprendizaje automático y profundo como sinónimos. El motivo de este llamativo tabú era bastante evidente: ni estaban preparados ni querían generar falsas expectativas en torno a esta tecnología. Hacerlo también habría quitado protagonismo a la gran apuesta de la casa, esas gafas de realidad mixta llamadas Vision Pro, que en la empresa prefieren definir como un computador espacial.

IPhone