Tim Cook n’a pas perdu de temps. Quelques jours après le report officiel du lancement du nouveau Siri, le directeur général d’Apple a procédé la semaine dernière à une réorganisation interne. Le projet a été retiré à John Giannandrea, le chef de l’intelligence artificielle du groupe à la pomme, rapporte l’agence Bloomberg. Il a été confié à Mike Rockwell, qui dirigeait la division dédiée au casque de réalité augmentée Vision Pro. Le responsable rendra compte directement à Craig Federighi, le grand patron des logiciels chez Apple, qui ne supervisait jusqu’à présent pas la refonte de Siri. Annoncée en juin, celle-ci devait permettre à l’assistant vocal de rentrer dans l’ère de l’IA générative. Initialement attendue en avril, sa sortie n’interviendra pas avant l’automne. Elle pourrait même être encore retardée si Apple décide de repartir d’une feuille blanche.
Retard au démarrage – Ancien responsable de l’IA chez Google, John Giannandrea avait été débauché en 2018 pour permettre à la société de Cupertino de prendre le virage du machine learning – des algorithmes capables d’apprendre seuls, pour reconnaître des chats sur une photo ou pour suggérer une réponse à un e-mail. Mais le lancement spectaculaire de ChatGPT a rebattu toutes les cartes. Si ses dirigeants s’en défendent, Apple semble ne pas avoir anticipé les conséquences de l’essor de l’IA générative, accumulant donc du retard sur OpenAI, Google ou Meta. Mike Rockwell présente un profil très différent, celui d’un ingénieur spécialisé dans le hardware, sans véritable expérience dans l’IA. Il a cependant la réputation de pouvoir mener des projets complexes, à l’image du Vision Pro, prouesse technologique à défaut d’être un succès commercial majeur.
Propres modèles – Sous pression pour démontrer sa capacité à suivre la cadence, Apple a dévoilé le nouveau Siri en juin, lors de sa conférence WWDC. En réalité, les fonctionnalités présentées n’étaient pas opérationnelles. Neuf mois plus tard, elles ne le sont toujours pas. L’assistant devait notamment être capable de chercher dans les informations personnelles pour répondre à des questions précises. Cela “implique un immense travail d’ingénierie”, souligne l’analyste Benedict Evans. Et le groupe s’est rendu la tâche encore plus complexe. Au lieu d’utiliser des modèles de langage existants, comme GPT d’OpenAI ou Gemini de Google, il a préféré développer les siens. Cela devait lui permettre de mieux contrôler l’expérience utilisateur et d’éviter de rémunérer un partenaire. Mais concevoir des modèles est une tâche particulièrement longue et difficile.
Moins de puissance – Pour ne rien arranger, Apple s’est imposé une deuxième contrainte: le nouveau Siri doit tourner en local, c’est-à-dire en utilisant le processeur de l’iPhone sans aller chercher du calcul supplémentaire dans le cloud. L’intérêt est double: l’assistant peut fonctionner hors connexion et il ne nécessite pas une immense infrastructure informatique. La contrepartie, c’est que la puissance à disposition du modèle est beaucoup moins importante, limitant sa faculté à gérer des requêtes complexes. Pour l’instant, le report de Siri est davantage un désaveu d’image qu’un problème commercial. “Personne ne propose ce qu’Apple a promis, même pas Google”, note Benedict Evans. Mais le retard pris aujourd’hui pourrait s’accumuler. Contrairement à l’époque du machine learning, celui-ci serait alors beaucoup plus visible pour les utilisateurs.
Pour aller plus loin:
– Pourquoi les ventes d’iPhone continuent de baisser
– Amazon mise sur l’IA générative pour relancer son assistant Alexa