
Sign up to save your podcasts
Or


Grok 3 et Grok 3 Mini sont disponibles dans Azure AI Foundry !
D’abord en essai gratuit puis tarifés. C’est une étape clé de la stratégie multi-modèles de Microsoft et un signal d’ouverture vis-à-vis d’OpenAI.
Source : Microsoft for DevelopersMicrosoft Azure
Azure AI Foundry Agent Service passe en disponibilité générale.
Il supporte nativement le Model Context Protocol pour brancher des backends outillés sans OpenAPI sur mesure.
De plus, il s’intègre à l’écosystème GitHub, Copilot Studio et Windows.
Résultat, cela procure des agents multi-rôles industrialisables plus vite. Source : The Official Microsoft BlogMicrosoft for Developers
Au-delà de Phi-4 “cloud”, Microsoft publie des variantes à raisonnement optimisées ONNX pour Copilot + PC (déchargées sur le NPU Snapdragon).
De plus, une nouvelle édition Phi-4 mini flash reasoning qui réduit fortement la latence tout en gardant de bonnes perfs en logique. Cela représente un pas concret vers l’hybride local + cloud.
Source : Microsoft Azure
Côté catalogue, Microsoft ajoute :
Ces briques étendent les cas d’usage et sécurisent l’échelle.
Source : Microsoft Learn
GitHub Copilot gagne “Agent mode” et “Copilot Edits” GA, et “Copilot for Azure” passe lui aussi en GA avec un mode agent pour l’automatisation DevOps.
L’objectif : passer de l’assistant de saisie au coéquipier qui exécute des tâches.
Source : The GitHub Blog
By ApclGrok 3 et Grok 3 Mini sont disponibles dans Azure AI Foundry !
D’abord en essai gratuit puis tarifés. C’est une étape clé de la stratégie multi-modèles de Microsoft et un signal d’ouverture vis-à-vis d’OpenAI.
Source : Microsoft for DevelopersMicrosoft Azure
Azure AI Foundry Agent Service passe en disponibilité générale.
Il supporte nativement le Model Context Protocol pour brancher des backends outillés sans OpenAPI sur mesure.
De plus, il s’intègre à l’écosystème GitHub, Copilot Studio et Windows.
Résultat, cela procure des agents multi-rôles industrialisables plus vite. Source : The Official Microsoft BlogMicrosoft for Developers
Au-delà de Phi-4 “cloud”, Microsoft publie des variantes à raisonnement optimisées ONNX pour Copilot + PC (déchargées sur le NPU Snapdragon).
De plus, une nouvelle édition Phi-4 mini flash reasoning qui réduit fortement la latence tout en gardant de bonnes perfs en logique. Cela représente un pas concret vers l’hybride local + cloud.
Source : Microsoft Azure
Côté catalogue, Microsoft ajoute :
Ces briques étendent les cas d’usage et sécurisent l’échelle.
Source : Microsoft Learn
GitHub Copilot gagne “Agent mode” et “Copilot Edits” GA, et “Copilot for Azure” passe lui aussi en GA avec un mode agent pour l’automatisation DevOps.
L’objectif : passer de l’assistant de saisie au coéquipier qui exécute des tâches.
Source : The GitHub Blog