Mistral double la vitesse Codestral

Mistral a mis à jour son modèle de codage open-source ; cette version serait deux fois plus rapide que la précédente.

Mistral a mis à jour son modèle d’IA générative pour le codage Codestral à la version 25.01. Dans un billet de blog, l’entreprise promet qu’il s’agira du « leader incontesté du codage dans sa catégorie » et qu’il sera deux fois plus rapide que la version précédente.

Axé sur le codage

Codestral est optimisé pour une faible latence et une fréquence élevée, et prend en charge des tâches telles que l’amélioration du code et la génération de tests. Le modèle prend en charge 80 langages de programmation, ce qui lui permet d’être utilisé par de nombreux développeurs. Selon Minestral, Codestral 25.01 obtient d’excellents résultats pour le codage en Python, puisque le modèle a obtenu 86,6 % au test HumanEval. Ce test simule les problèmes de codage couramment rencontrés dans le langage de programmation Python.

Cette version sera disponible pour les développeurs du programme partenaire IDE plugin. Ils peuvent déployer Codestral 15.1 localement via un assistant de code, ou utiliser l’API du modèle via La Plateforme de Mistral et Google Vertex AI. Le modèle est disponible en avant-première sur Azure AI Foundry et sera bientôt disponible sur Amazon Bedrock.

lire aussi

LLMs pour code: the Good, the Bad and the Ugly

L’écriture de codes a été l’une des premières applications des modèles d’IA, même dans des modèles plus importants tels que o3 d’OpenAI et Claude d’Anthropic. Au cours de l’année écoulée, les modèles de code spécialisés ont connu un grand bond en avant en termes de connaissances et continuent d’évoluer en permanence.

bulletin

Abonnez-vous gratuitement à ITdaily !

  • Ce champ n’est utilisé qu’à des fins de validation et devrait rester inchangé.