La función Visual Intelligence, que en un principio se centraba en analizar lo que podíamos ver con la cámara, también nos permite interactuar directamente con el contenido que aparece en la pantalla de nuestro iPhone. Desde buscar información sobre objetos hasta crear eventos en el calendario, Apple Intelligence está a nuestra disposición. Hablemos de cómo usar Visual Intelligence con el contenido de la pantalla de nuestro iPhone y todo lo que podemos lograr con ello.
Visual Intelligence ahora entiende lo que vemos en la pantalla
Visual Intelligence se centraba principalmente en reconocer los elementos del mundo físico a través de la cámara, pero con las novedades de iOS 26, Apple ha ampliado esta capacidad para que podamos analizar cualquier elemento que aparezca en nuestro iPhone, desde un enlace en una captura de pantalla hasta un texto que queremos resumir. ¿Cómo usar esta función?, el proceso es extremadamente simple:
- Tomamos una captura de pantalla presionando simultáneamente el botón lateral y el de subir volumen.
- En cuanto aparece la interfaz de la captura, veremos las nuevas opciones de Visual Intelligence en la parte inferior de la pantalla.
A partir de aquí, el iPhone nos ofrece diferentes posibilidades según el contenido de la imagen. Podemos resaltar solo la parte que nos interesa con el dedo para que Apple Intelligence se centre en ella, hacer consultas rápidas o incluso interactuar con los enlaces visibles sin salir de la vista de captura.
Qué podemos hacer con Visual Intelligence en una captura de pantalla
Una vez que tenemos la captura en pantalla, las herramientas de Visual Intelligence nos abren un abanico de posibilidades muy considerable. Entre las más destacadas, están las siguientes:
- Buscar elementos similares en la web para encontrar productos, imágenes relacionadas o información extra con un solo toque en el botón de búsqueda de la parte inferior derecha.
- Resaltar un área específica y realizar la búsqueda solo sobre ese objeto, lo que es clave para centrarnos en lo que de verdad nos interesa cuando hay demasiada información en una captura.
- Formular preguntas sobre lo que aparece en la pantalla, tocando el botón de ChatGPT que aparece en la parte inferior izquierda, para obtener explicaciones rápidas o detalles extra sobre el contenido.
- Añadir eventos al calendario directamente cuando el sistema detecta fechas o información relevante, lo que haremos tocando el botón central de nuevo evento que aparecerá automáticamente cuando corresponda.
- Acceder a los enlaces detectados tocando el enlace que aparece en la parte inferior. Si hay varios, podemos deslizar sobre ellos hasta abrir el que nos interesa.
- Resumir el texto visible de la captura para obtener una versión más concisa, lo que haremos con las opciones de texto de la parte central y que aparecerán junto a los enlaces.
- Escuchar en voz alta el contenido gracias a la opción de lectura, de nuevo, una opción más del menú deslizante.
Este conjunto de funciones convierte algo tan habitual como una captura de pantalla, en una puerta de entrada y contexto a la inteligencia artificial. Ya sea a los modelos de Apple Intelligence, a la integración con ChatGPT o a la búsqueda inteligente en Google. Un contexto de gran valor a la hora de agilizar cualquier consulta.
Tomamos una captura, vemos las sugerencias y actuamos al momento. La privacidad, por supuesto, se mantiene en todo momento, pues hasta que no tocamos el botón de ChatGPT o el de búsqueda en Google ninguna información deja nuestro dispositivo o a nube privada y cifrada de Apple Intelligence.
Cuando terminamos de interactuar con la captura, podemos descartarla con la pequeña x o guardarla en Fotos con el check que aparece en la parte superior de la pantalla. De mientras, tendremos una función que se integra de forma muy cómodo en nuestro día a día con el iPhone y que agiliza enormemente nuestra interacción con la inteligencia artificial.
En Hanaringo | Ya podemos ir de compras dentro de ChatGPT