Les modèles d'IA pour smartphones : un état des lieux de l’innovation

Publié le 9 décembre 2024

Alors que les modèles d’IA s’adaptent aux contraintes des appareils mobiles, des initiatives comme PhoneLM, Gemini Nano et OpenELM illustrent les avancées majeures dans le développement de solutions optimisées pour smartphones, avec des approches variées et des enjeux technologiques cruciaux.

Le marché des modèles d’IA pour smartphones connaît une transformation majeure, portée par des avancées technologiques qui permettent désormais d'exécuter des tâches complexes directement sur les appareils mobiles. Les acteurs du secteur, qu’il s’agisse d’universités ou de géants technologiques comme Google et Apple, se concentrent sur la conception de modèles allégés mais performants, adaptés aux contraintes matérielles des smartphones.

PhoneLM : un modèle allégé pour un traitement local optimisé

Les chercheurs de l’Université de Pékin des Postes et Télécommunications (BUPT) ont récemment présenté PhoneLM, un modèle de language réduit conçu spécifiquement pour les smartphones. Ce modèle vise à combiner efficacité énergétique et performance, en s’appuyant sur une architecture optimisée avant même la phase d’entraînement. Contrairement à la plupart des modèles qui sont d’abord entraînés avant d’être adaptés, PhoneLM est conçu pour maximiser la vitesse d’exécution dès le départ.

Grâce à une stratégie de recherche avancée d’hyperparamètres (comme la largeur des couches ou le nombre de têtes de l’attention), PhoneLM offre une vitesse de traitement nettement supérieure à celle des modèles comparables tout en maintenant des capacités de traitement du langage naturel  de pointe.

Pour encourager une adoption large, les développeurs de PhoneLM ont mis à disposition une démonstration sur Android et publié le code source sur GitHub. Les prochaines étapes incluent l’intégration de fonctionnalités multimodales et la création d’assistants virtuels mobiles entièrement autonomes.

Google et son modèle Gemini Nano : démocratiser l’IA embarquée

En octobre dernier, Google a élargi l’accès à son modèle Gemini Nano, une IA optimisée pour les tâches locales sur Android. Gemini Nano permet aux développeurs de créer des applications capables d’exécuter des tâches génératives directement sur les smartphones.

Conçu pour des usages variés, comme la reformulation de texte, la génération de réponses intelligentes ou le résumé de documents, Gemini Nano se positionne comme un complément aux modèles basés sur le cloud. Bien qu’il ne remplace pas ces derniers, il se distingue par son efficacité sur les tâches spécifiques qui nécessitent rapidité et confidentialité, deux atouts clés pour le traitement local.

Actuellement limité aux appareils de la série Pixel 9, Gemini Nano a déjà été intégré à plusieurs applications Google, comme Talkback (pour des descriptions d’images plus précises) et Recorder (pour des résumés plus détaillés et des enregistrements prolongés). Bien que le modèle soit encore en phase expérimentale, son extension à d’autres appareils Android pourrait inaugurer une nouvelle ère d’IA générative sur mobile.

Apple et OpenELM : des modèles open source ultra-compacts

Apple a  lui dévoilé en avril dernier OpenELM (Open-source Efficient Language Models), une série de modèles de language conçus pour fonctionner efficacement sur ses appareils. Les quatre versions proposées, allant de 270 millions à 3 milliards de paramètres, sont parmi les plus petites du marché, optimisées pour les tâches textuelles comme l’écriture d’e-mails ou la reformulation de messages.

Les enjeux et perspectives des modèles IA pour smartphones

Le développement des modèles d’IA embarqués pour smartphones répond à plusieurs objectifs stratégiques. D’une part, ils permettent de réduire la dépendance aux infrastructures cloud, limitant ainsi les coûts et renforçant la confidentialité des données. D’autre part, ils favorisent l’accessibilité en permettant une exécution rapide et fiable des tâches directement sur l’appareil de l’utilisateur.

Cependant, des défis persistent, notamment en termes de compatibilité matérielle et de puissance de calcul. Si les modèles comme PhoneLM, Gemini Nano ou OpenELM montrent des avancées prometteuses, leur adoption à grande échelle dépendra de leur capacité à s’adapter à une variété d’appareils, des plus haut de gamme aux smartphones plus modestes.

Avec l’accélération des investissements dans ce domaine, les prochains mois pourraient voir l’émergence d’assistants mobiles toujours plus performants, capables de démocratiser l’IA tout en redéfinissant les usages numériques au quotidien.

Articles populaires