Les nouveaux petits modèles de langage de Microsoft allient efficacité et haut niveau de raisonnement mathématique et scientifique.
Microsoft lance trois nouveaux modèles d’IA : Phi-4-reasoning, Phi-4-reasoning-plus et Phi-4-mini-reasoning. Ils ajoutent de puissantes capacités de raisonnement à des architectures compactes, les rendant adaptés à une utilisation sur des ordinateurs personnels, des ordinateurs portables et même des appareils mobiles.
Compact, mais capable
Le fleuron, Phi-4-reasoning, comprend 14 milliards de paramètres et est conçu pour exécuter des tâches complexes avec une précision pouvant rivaliser avec d’autres grands modèles. La variante ‘plus’ utilise le reinforcement learning pour traiter jusqu’à 1,5 fois plus de tokens. Cela augmente le temps de réponse et la puissance de calcul.
Phi-4-mini-reasoning, avec ses 3,8 milliards de paramètres, est optimisé pour les objectifs éducatifs et fonctionne sur des appareils à puissance de calcul limitée. L’accent est mis ici sur le calcul mathématique.
Construit avec des données intelligentes
« Les modèles ont été entraînés sur des données d’apprentissage synthétiques, générées entre autres par DeepSeek-R1 et les modèles o1-mini et o3-mini d’OpenAI », écrit Microsoft dans un blog. « En particulier, Phi-4-mini s’est vu présenter plus d’un million de problèmes mathématiques, du niveau lycée au niveau doctoral, incluant des solutions étape par étape pour apprendre le processus de raisonnement. »
Selon Microsoft, les nouveaux modèles surpassent les o1-mini d’OpenAI et DeepSeek1-Distill-Llama-70B sur les benchmarks de niveau doctoral. Phi-4-reasoning-plus aurait même surpassé le modèle DeepSeek-R1 beaucoup plus grand (671 milliards de paramètres) lors du test mathématique AIME 2025, d’après le géant technologique.
Les modèles sont désormais disponibles via Azure AI Foundry et Hugging Face.