Android

Apple ouvre Siri pour choisir des modèles d’IA, mais il n’y a que cela qui a du sens pour moi 

Apple nous a promis un Siri plus intelligent et plus performant lors de la WWDC 2024. L'argumentaire était convaincant : un Siri qui comprend votre contexte personnel, fouille dans vos messages et vos e-mails, effectue des actions dans vos applications et devient un véritable assistant. Deux ans plus tard, ce rêve reste toujours un rêve. Mais voici ce qui pourrait changer le cours de l'assistant d'Apple. Selon les rapports, Siri n'est plus lié à un seul cerveau d'IA. Apple le construit pour qu'il soit flexible, capable d'acheminer les demandes vers le modèle externe qui fait le mieux son travail. Vidéos recommandées

Cela m'a fait poser une question. Si Siri peut utiliser une IA, laquelle doit-elle utiliser ? À l'heure actuelle, le modèle externe par défaut est ChatGPT. Mais je dirais que les Gémeaux sont le choix le plus logique, et voici pourquoi. Siri est un moteur de recherche

Pensez à la façon dont vous utilisez réellement Siri au quotidien. Vous demandez la météo du jour. Vous demandez les restaurants les plus proches de chez vous. Vous lui demandez de rechercher des choses sur le Web. Une part importante de l'utilisation de Siri implique des recherches ou des requêtes de type recherche, et aucune entreprise au monde ne recherche mieux que Google. Rachit Agarwal /Tendances numériques

Google a passé des décennies à construire le moteur de recherche le plus puissant, et cette expertise coule maintenant directement dans Gemini. Lorsque vous demandez quelque chose au Gémeaux, il ne se contente pas de tirer parti d'un modèle de langage. Il extrait des données de l'index Web en temps réel de Google, de Google Maps, de Google Shopping, etc. Google

L'utiliser pour alimenter la capacité de recherche de Siri l'amènera à de nouveaux sommets qu'aucun autre fournisseur de LLM ne peut égaler. Apple a promis des renseignements personnels, mais Gemini les fournit

L'un des principaux points de discussion de l'annonce de la WWDC 2024 d'Apple était l'intelligence personnelle. Apple a montré à Siri des informations contextuelles provenant de vos applications, répondant à des questions telles que « quand le vol de ma mère atterrit-il ? » ou « montrez-moi des photos de Stacy dans son manteau rose de New York ». 

Apple

C'était vraiment impressionnant sous forme de démo. Cependant, si je lui demande de me montrer une photo de moi portant un t-shirt noir, il montre des photos aléatoires de personnes du web portant des t-shirts noirs. Je n'exagère pas quand je dis que la fonctionnalité d'intelligence personnelle de Siri a été un échec colossal. Rachit Agarwal /Tendances numériques

Pendant ce temps, Gemini a tranquillement déployé sa propre fonctionnalité d'intelligence personnelle. Il exploite votre Gmail, votre calendrier, Google Photos, Drive, etc. pour analyser vos données personnelles et répondre à des questions complexes et contextuelles. Ce n'est pas parfait, mais au moins ça marche. Google

C'est presque mot pour mot ce qu'Apple faisait la démonstration d'une future capacité Siri, sauf que Gemini le fait aujourd'hui. Si Apple veut accélérer la livraison de ces fonctionnalités aux utilisateurs, Gemini pourrait être le raccourci dont ils ont besoin. Gemini fait déjà ce que Siri a promis

Apple Intelligence déploie un modèle d'IA compact et performant dans toutes les applications système, combinant le traitement sur l'appareil pour la confidentialité avec l'informatique basée sur le cloud pour des tâches plus exigeantes. Le traitement sur l'appareil et les aspects de confidentialité sont ce qui distingue Apple de la concurrence. Mais ce n'est pas tout seul maintenant. Apple

Gemini Nano le fait déjà sur les appareils Pixel et Samsung Galaxy. Il alimente la synthèse hors ligne, les réponses intelligentes et les fonctionnalités contextuelles, le tout sans avoir besoin d'une connexion Internet. Sur le Pixel 9 et les modèles plus récents, Gemini Nano est multimodal et peut traiter des images, des textes et des langues directement sur l'appareil. Google Gemini Nano Google

Apple s'oriente vers ce que Google a déjà livré. Plutôt que de réinventer cette roue, utiliser le déploiement Nano existant de Gemini comme base pour les fonctionnalités Siri sur l'appareil permettrait à Apple d'économiser beaucoup de maux de tête et d'argent. La boîte à outils créative de Gemini est emballée

C'est là que ça devient vraiment excitant. Le Gémeaux n'est pas seulement un modèle textuel. Il vient avec tout un écosystème créatif dans lequel Apple pourrait puiser. Veo gère la génération vidéo jusqu'à 1080p, avec des styles cinématiques et des clips de plus d'une minute. Lyria, de Google DeepMind, s'occupe de la génération musicale et audio. Pour les images, Nano Banana (le service de génération d'images de Google) a récemment reçu une mise à niveau majeure, avec un rendu de texte amélioré, une cohérence du sujet et une prise en charge de tous les rapports d'aspect. Google/DigitalTrends

Apple a récemment lancé son propre studio de création, permettant aux utilisateurs d'accéder à des outils créatifs pour un abonnement mensuel fixe. Si l'entreprise veut sérieusement concurrencer des entreprises comme Adobe, elle doit offrir des capacités génératives. Devinez quoi, Gemini a déjà toutes ces capacités, et il serait parfaitement logique de l'intégrer dans la suite créative d'Apple. Apple

Le partenariat existe déjà

Ce point n'est pas assez discuté. Google paierait environ 20 milliards de dollars à Apple chaque année pour rester le moteur de recherche par défaut dans Safari. C'est l'un des contrats de distribution les plus précieux de l'histoire de la technologie. La relation entre Apple et Google est profonde, de longue date et financièrement énorme pour les deux entreprises. Étendre cette relation de « Google propulse la recherche Safari » à « Gemini propulse les fonctionnalités d'IA de Siri » n'est pas un saut spectaculaire. Il s'agit d'une évolution naturelle d'un partenariat qui gère la moitié de ce qui se passe lorsque vous ouvrez un navigateur sur votre iPhone. Alors, avec quel modèle devrais-je m'en tenir ? Claude est excellent pour la lecture de contexte long et le raisonnement nuancé. ChatGPT dispose d'un écosystème massif et d'un codage et d'un outillage d'agent solides. Les deux fonctionnent très bien en tant que spécialistes choisis par l'utilisateur. J'utilise moi-même Claude sur mon ordinateur. Mais comme moteur par défaut sous le capot de Siri ? Ce n'est pas le bon choix. Gemini fonctionne au niveau du système d'exploitation sur mobile, comprend les recherches et les contextes personnels, existe dans un facteur de forme Nano sur l'appareil et se trouve au centre de la relation commerciale la plus importante qu'Apple entretient avec toute entreprise technologique. Les pièces sont toutes là. Il ne s'agit pas de savoir si les Gémeaux pourraient alimenter un Siri plus intelligent. Il s'agit de savoir si Google et Apple peuvent conclure un accord mutuellement bénéfique. Et si les rumeurs vont dans ce sens, les choses pourraient déjà aller dans cette direction.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *