POCKET-SIZED AI MODELS COULD UNLOCK A NEW ERA OF COMPUTING
Lorsque ChatGPT a été lancé en novembre 2023, il ne pouvait être accédé que via le cloud car le modèle derrière lui était tout simplement énorme. Aujourd’hui, je fais fonctionner un programme AI tout aussi performant sur un Macbook Air, et il n’est même pas chaud. Cette réduction montre à quelle vitesse les chercheurs perfectionnent les modèles AI pour les rendre plus légers et plus efficaces. Cela montre également que passer à des échelles de plus en plus grandes n’est pas le seul moyen de rendre les machines significativement plus intelligentes.
LE MODELE PHI-3-MINI
Le modèle qui alimente actuellement mon ordinateur portable en intelligence et en perspicacité de type ChatGPT s’appelle Phi-3-mini. Il fait partie d’une famille de modèles AI plus petits récemment publiés par des chercheurs de Microsoft. Bien qu’il soit suffisamment compact pour fonctionner sur un smartphone, je l’ai testé en le faisant fonctionner sur un ordinateur portable et en y accédant depuis un iPhone via une application appelée Enchanted qui fournit une interface de chat similaire à l’application officielle ChatGPT.
Des chercheurs de Microsoft ont publié un article décrivant la famille de modèles Phi-3, affirmant que le modèle que j’ai utilisé se compare favorablement à GPT-3.5, le modèle OpenAI derrière la première version de ChatGPT. Cette affirmation est basée sur sa performance sur plusieurs benchmarks AI standard conçus pour mesurer le bon sens et le raisonnement. Lors de mes propres tests, il semble certainement aussi performant.
AU-DELÀ DU CLOUD
Microsoft a annoncé un nouveau modèle "multimodal" de la famille Phi-3 capable de gérer l’audio, la vidéo et le texte lors de sa conférence annuelle pour les développeurs, Build, cette semaine. Cela est intervenu quelques jours seulement après qu’OpenAI et Google aient tous deux vanté de nouveaux assistants AI radicaux construits sur des modèles multimodaux accessibles via le cloud.
La famille de modèles AI Lilliputian de Microsoft suggère qu’il devient possible de développer toutes sortes d’applications AI pratiques qui ne dépendent pas du cloud. Cela pourrait ouvrir de nouveaux cas d’utilisation, en leur permettant d’être plus réactifs ou privés.
UNE NOUVELLE APPROCHE
Les modèles AI de grande taille comme le GPT-4 d’OpenAI ou le Gemini de Google qui alimentent les chatbots et autres services reçoivent habituellement de grosses quantités de texte provenant de livres, de sites web et de toute autre source accessible. Bien que cela soulève des questions juridiques, OpenAI et d’autres ont constaté que le fait d’augmenter la quantité de texte alimentée à ces modèles et la quantité de puissance informatique utilisée pour les former peut débloquer de nouvelles capacités.
Pour en savoir plus sur les dernières avancées dans le domaine de l’IA et de l’informatique, consultez les liens suivants :