Jeudi 12 Juin 2025
Vers la fin de janvier, alors que l'attention était principalement portée sur DeepSeek et son modèle R1, Mistral AI présentait discrètement Small 3, annonçant l'arrivée imminente de modèles Mistral dotés de capacités de raisonnement améliorées. C'est désormais chose faite : après Small 3.1 dévoilé en mars, la startup vient de lancer Magistral, son premier modèle de raisonnement à grande échelle, disponible sous deux formes, une version open source nommée "Magistral Small" et une autre conçue pour les entreprises, "Magistral Medium".
Avec Magistral, Mistral AI franchit une nouvelle étape importante. Non pas dans la course à la taille, mais dans la recherche d'une IA plus explicable, davantage ancrée dans le raisonnement humain, et surtout, mieux adaptée aux contraintes opérationnelles des entreprises. Le nouveau modèle tire parti des progrès de Small 3.1, gère de nombreuses langues, notamment l’anglais, le français, l’espagnol, l’allemand, l’italien, l’arabe, le russe et le chinois simplifié. Il utilise une chaîne de raisonnement explicite, détaillée étape par étape, qui peut être suivie, questionnée et auditée dans la langue de l'utilisateur.

Magistral Small
Mistral AI a rendu public Magistral Small sous licence Apache 2.0, permettant ainsi à la communauté de l'utiliser, de le perfectionner et de le déployer pour diverses applications. Il est accessible au téléchargement sur {{HREF|https://huggingface.co/mistralai/Magistral-Small-2506}}.
Cette version a été optimisée grâce à un fine-tuning supervisé (SFT) basé sur les traces de raisonnement produites par Magistral Medium lors de ses interactions, puis renforcée par apprentissage (RLHF) pour améliorer la qualité et la cohérence du raisonnement.
Composé, comme les modèles Small 3, de 24 milliards de paramètres, Magistral Small, une fois quantifié, peut être déployé sur des configurations matérielles abordables, telles qu'un PC équipé d'un seul GPU RTX 4090 ou un Mac avec une mémoire RAM de 32 Go, ce qui permet aux développeurs de garder la maîtrise de leurs données sensibles sans dépendre d'une infrastructure cloud centralisée.
Magistral Medium
Cette variante est la version entreprise de Magistral. Plus performant, il est disponible sur la plateforme Le Chat de Mistral et via l’API de l’entreprise. Actuellement déployé sur Amazon SageMaker, il sera bientôt disponible sur IBM WatsonX, Azure AI et Google Cloud Marketplace.
Selon l'entreprise, Flash Answers dans le Chat permet de réduire considérablement le temps de réponse. D'après elle, Magistral Medium atteint une vitesse de traitement jusqu’à 10 fois supérieure à celle de nombreux concurrents.
Les performances de Magistral
Mistral AI a comparé les performances de Magistral avec celles de Mistral Medium et des modèles concurrents de DeepSeek sur différents benchmarks de raisonnement et de compréhension.
Magistral-Medium dépasse Mistral-Medium 3 sur tous les benchmarks, ce qui confirme l'efficacité du raisonnement amélioré. Sur les benchmarks AIME 2024, Medium atteint un score de 73,6 % avec 90 % de vote majoritaire, contre 70,7 % et 83,3 % pour Small. Des résultats compétitifs, même si Deepseek conserve une avance sur certains benchmarks.
Des cas d’usage bien ciblés
Mistral AI cible des cas d’usage où la réflexion étape-par-étape est cruciale :
Prise de décision stratégique
Recherche juridique
Prévision financière
Développement logiciel multi-étapes
Rédaction narrative et génération de contenus
Analyse réglementaire et conformité
Cette diversité suggère une volonté de s'implanter à la fois dans les secteurs réglementés et les métiers techniques à forte densité cognitive, sans renoncer à l'ouverture vers des usages plus créatifs.