
Sign up to save your podcasts
Or


Du 7 au 28 mai 2025, Mistral empile nouveautés et confirme la cadence mensuelle annoncée après Codestral v2. Objectif :
Bâtir un stack complet, libre de droits et taillé pour la production, tout en nourrissant la recherche open-source.
Lancée le 27 mai, l’Agents API permet d’enchaîner plusieurs LLM et outils métier via une interface graphique ou un YAML minimal :
Cas d’usage : un agent « support » qui extrait un PDF, résume l’erreur, propose un patch code avec Medium 3 puis génère la réponse client en natural-language.
Le 28 mai, Mistral dévoile Codestral Embed, un modèle d’embeddings optimisé pour le code avec une fenêtre de 256 k tokens.
Il capture la structure des projets volumineux — monorepos, dépôts historiques, bases COBOL — et alimente la recherche sémantique, la détection de duplicats ou la génération de diagrammes d’architecture.
Benchmark interne : Medium 3 atteint 70 % de précision sur HumanEval, à ±40 ms de latence sur A100, tandis que Devstral Small conserve 55 % sur un laptop RTX 4070.
Annoncé le 22 mai, ce pipeline associe vision et langage :
Il extrait texte, tableau et schémas, puis appelle un LLM pour normaliser les champs.
L’API accepte JPEG, PDF multi-pages et rend un JSON structuré plus le texte brut indexable par Codestral Embed.
Présenté en avril, l’outil génère un classifieur léger (20 MB) à partir de 50 exemples labellisés. En mai, il s’intègre à Agents API :
Ajoutez une étape “safe-content” ou “routing” sans écrire de code.
Tous les modèles sortis restent sous licence Apache-2.0 (weights + code). Conséquences :
Temps total : < 2 h pour un POC complet.
Mistral tease déjà Codestral v3 (Q3 2025) et un vision-LLM Large pour l’automne. La promesse :
Maintenir une cadence mensuelle de releases tout en gardant l’ADN open-source.
Avec Agents API, Codestral Embed et une nouvelle gamme de modèles, Mistral AI offre un kit complet et ouvert pour construire, déployer et scaler des agents productifs.
De l’IDE offline au cluster cloud, toutes les briques s’imbriquent sans friction.
Pour les équipes de développement pressées de réduire le time-to-value sans s’enfermer dans des silos propriétaires, le moment est venu d’explorer cette « constellation » Mistral.
By ApclDu 7 au 28 mai 2025, Mistral empile nouveautés et confirme la cadence mensuelle annoncée après Codestral v2. Objectif :
Bâtir un stack complet, libre de droits et taillé pour la production, tout en nourrissant la recherche open-source.
Lancée le 27 mai, l’Agents API permet d’enchaîner plusieurs LLM et outils métier via une interface graphique ou un YAML minimal :
Cas d’usage : un agent « support » qui extrait un PDF, résume l’erreur, propose un patch code avec Medium 3 puis génère la réponse client en natural-language.
Le 28 mai, Mistral dévoile Codestral Embed, un modèle d’embeddings optimisé pour le code avec une fenêtre de 256 k tokens.
Il capture la structure des projets volumineux — monorepos, dépôts historiques, bases COBOL — et alimente la recherche sémantique, la détection de duplicats ou la génération de diagrammes d’architecture.
Benchmark interne : Medium 3 atteint 70 % de précision sur HumanEval, à ±40 ms de latence sur A100, tandis que Devstral Small conserve 55 % sur un laptop RTX 4070.
Annoncé le 22 mai, ce pipeline associe vision et langage :
Il extrait texte, tableau et schémas, puis appelle un LLM pour normaliser les champs.
L’API accepte JPEG, PDF multi-pages et rend un JSON structuré plus le texte brut indexable par Codestral Embed.
Présenté en avril, l’outil génère un classifieur léger (20 MB) à partir de 50 exemples labellisés. En mai, il s’intègre à Agents API :
Ajoutez une étape “safe-content” ou “routing” sans écrire de code.
Tous les modèles sortis restent sous licence Apache-2.0 (weights + code). Conséquences :
Temps total : < 2 h pour un POC complet.
Mistral tease déjà Codestral v3 (Q3 2025) et un vision-LLM Large pour l’automne. La promesse :
Maintenir une cadence mensuelle de releases tout en gardant l’ADN open-source.
Avec Agents API, Codestral Embed et une nouvelle gamme de modèles, Mistral AI offre un kit complet et ouvert pour construire, déployer et scaler des agents productifs.
De l’IDE offline au cluster cloud, toutes les briques s’imbriquent sans friction.
Pour les équipes de développement pressées de réduire le time-to-value sans s’enfermer dans des silos propriétaires, le moment est venu d’explorer cette « constellation » Mistral.