TECNOLOGÍA

Las funciones de Apple Intelligence no llegarán a todos los iPhone, esta es la razón

Apple Intelligence es el sistema de inteligencia artificial de Apple.

Redacción Tecnología
20 de junio de 2024
La demanda presentada por el Gobierno de EE. UU. contra Apple ha enviado ondas de choque a través del mundo empresarial, mientras las autoridades buscan desafiar lo que consideran un monopolio injusto en el mercado de los iPhones.
Imagen de referencia. | Foto: Getty Images

Las funciones de Apple Intelligence no llegarán a todos los dispositivos de Apple porque no todos están preparados a nivel interno para dar el impulso que necesita la ejecución de los modelos de lenguaje grande, aunque sí llegará a iPhone 15 por su chip y RAM.

Apple Intelligence, el sistema de inteligencia artificial de Apple, que se integrará con iOS 18, iPadOS 18 y macOS Sequoia para llegar a iPhone, iPad y Mac bajo un enfoque diferencial: combina la IA generativa con el contexto personal de cada usuario para ofrecer una experiencia útil.

Aunque se espera que llegue en los próximos dispositivos de la firma tecnológica, también lo hará en algún modelo ya comercializado, como es el caso de la serie iPhone 15 Pro, pero no de los iPhone 15.

Esto se debe a que a la combinación del procesador y la memoria RAM que utilizan los iPhone más avanzados, dadas las exigencias en computación que requieren los modelos de lenguaje grande, como transmitieron los directivos de la firma tras el WWDC, y recoge ahora MacRumors.

iPhone, nueva actualización iOS17
Se espera que llegue en los próximos dispositivos de la firma tecnológica. | Foto: Ilustración creada con la IA de Bing Image Creator

En concreto, el chip A17 Pro tiene un motor neuronal o unidad de procesamiento neuronal, de 16 núcleos, con capacidad para ejecutar 35 billones de operaciones por segundo. Y todos los dispositivos compatibles deben tener al menos una RAM de 8 GB.

“Este es el hardware que requiere. Es una cosa bastante extraordinaria ejecutar modelos de esta potencia en un iPhone”, expresó el responsable de Ingeniería de Software, Craig Federighi.

“Estos modelos, cuando los ejecutas en tiempos de ejecución, se llama inferencia, y la inferencia de modelos de lenguaje grandes es increíblemente costosa desde el punto de vista computacional”, apuntó el responsable de IA y Aprendizaje Automático, John Giannandrea.

Este directivo también explicó que “es una combinación de ancho de banda en el dispositivo, es el tamaño del motor neuronal de Apple, es el impulso en el dispositivo para acelerar estos modelos lo suficiente para ser útiles”.

Apple Vision Pro estrena una nueva versión de su SO

Apple ha mostrado un avance de la nueva versión del sistema operativo que impulsa Apple Vision Pro, que introduce una nueva manera de convertir las fotografías en imágenes espaciales, así como nuevos gestos para navegar con el visor de realidad mixta.

Los de Cupertino han dado a conocer estas y otras nuevas funcionalidades en el marco de su Conferencia anual de desarrolladores (WWDC, por sus siglas en inglés), que ha tenido lugar este lunes y en el que también ha dado a conocer las capacidades de su nuevo ecosistema Apple Intelligence.

El director ejecutivo de Apple, Tim Cook, ha dado comienzo a esta presentación comentando las novedades que vendrán con el nuevo sistema operativo de su visor Apple Vision Pro, VisionOS 2, que “ha desbloqueado nuevas opciones” e introduce nuevas formas de contactar y nuevas APIs para desarrolladores.

Una de las características más destacadas de este apartado es el que tiene que ver con la biblioteca de Fotos, donde ha introducido la capacidad Spatial, que permite dotar de profundidad a las imágenes utilizando ‘machine learning’ para hacer más realista la experiencia con el visor.

También se han introducido novedades con los gestos y una nueva interfaz que equivale a dos monitores con calidad 4K curvos para potenciar la experiencia inmersiva. También se ha incluido el Train Mode, para utilizar las gafas cuando se viaja en este medio de transporte.

Las Apple Vision Pro se podrán controlar con movimientos de las manos, ojos y la voz.
El director ejecutivo de Apple, Tim Cook, ha dado comienzo a esta presentación comentando las novedades que vendrán. | Foto: Oficial de Apple

Por otra parte, ha adelantado que próximamente Canon lanzará un nuevo objetivo espacial para su cámara digital EOS R7, que permitirá grabar videos espaciales de gran calidad, algo que ya es posible con el modelo más avanzado de iPhone, iPhone 15 Pro.

Con ello, ha alcanzado que este año BlackMagic Design lanzará el primer sistema de cámaras disponible en el mercado y actualizará su ‘software’ de postproducción DaVinci Resolve Studio para ser compatible con Apple Immersive Video.

Por último, la compañía ha adelantado que esta nueva versión de SO incluye nuevos entornos y API con los que los desarrolladores podrán llevar sus aplicaciones y juegos “aún más lejos”, debido a que facilita la creación de experiencias más volumétricas y susceptibles de compartirse con otros usuarios.

*Con información de Europa Press