L’iPhone 16 arrivera avec Visual Intelligence : son propre Google Lens
L’un des éléments essentiels de l’iPhone 16 est Apple Intelligence. Ceux de Cupertino ont conçu leur nouveau mobile pour exécuter les tâches quotidiennes avec l’IA. Parmi toutes les fonctions il y a un appel Une intelligence visuelle qui profite de la caméra pour apprendre de notre environnement.
L’intelligence visuelle est activée avec le bouton de la caméra et est capable de reconnaître des objets ou des lieux. En pratique, l’IA d’Apple est similaire à ce que propose Google Lenssimplifié en une seule touche pour que l’utilisateur puisse accéder aux informations plus rapidement.
L’un des exemples présentés lors de l’événement iPhone montre un utilisateur qui souhaite en savoir plus sur un restaurant. Lorsque vous maintenez enfoncé le bouton de l’appareil photo et prenez la photo, l’intelligence visuelle fournit des détails sur le lieu, tels que des critiques ou des images, et vous permet de consulter le menu ou de réserver une table pour plus tard. Les informations sont incluses dans une section dédiée et comprennent des liens vers le site Web pour de plus amples informations.
Une autre démo montre le même utilisateur prenant une photo d’une affiche annonçant un concert. Visual Intelligence renvoie des informations sur la date, le lieu ou le groupe qui se produira, ainsi que la possibilité de créer un événement sur votre calendrier si vous souhaitez y assister. Le L’IA de l’iPhone 16 peut reconnaître les animaux, les objets, les lieux et plus encoreen prenant toujours le contexte comme partie la plus importante.
Les capacités d’intelligence visuelle ne se limitent pas aux applications Apple. Cette fonction Se connecte également à des services tiers, tels que Google et ChatGPT. Vous pouvez prendre une photo d’un produit pour le rechercher sur Google ou poser une question au chatbot OpenAI via les boutons dédiés présents dans l’interface utilisateur.
Visual Intelligence ne stockera pas les photos que vous prenez avec l’iPhone 16
Craig Federighi, vice-président de l’ingénierie logicielle chez Apple, a mentionné que L’intelligence visuelle est réalisée dans un environnement privé. Les modèles de langage qui alimentent Apple Intelligence s’exécutent directement sur le matériel de l’iPhone 16, tandis que les tâches qui nécessitent plus de puissance s’exécutent via les serveurs d’Apple. Federighi dit qu’Apple ne stockera pas les images que vous capturez avec son IA.
L’intelligence visuelle sera disponible sur tous les iPhone 16 en fin d’année. Apple n’a pas confirmé si cette fonctionnalité serait proposée sur tous les marchés ou si d’autres modèles plus anciens y auraient accès. Faisant partie d’Apple Intelligence, Cette fonctionnalité n’aura pas de lancement simultané en Europe. Rappelons que l’entreprise technologique a retardé l’arrivée de son IA dans l’UE en raison de la loi sur les marchés numériques.
Lors de la présentation, Apple a mentionné qu’Apple Intelligence parlerait bientôt en espagnol, sans toutefois s’être engagé sur une date précise.