Prompty : la première étape vers l’automatisation de vos workflows IA dans VS Code
		Dans un écosystème où l’intelligence artificielle s’intègre à toutes les étapes de la création et du développement logiciel, la gestion des prompts devient rapidement un enjeu stratégique. Avec l’essor des modèles de langage (LLM) comme GPT, Claude, Mistral ou Llama, les développeurs jonglent souvent entre des dizaines de formulations dispersées dans des fichiers, des scripts ou des notes. Résultat : perte de cohérence, difficulté à tester et impossibilité d’automatiser efficacement les workflows IA. Pour vision plus globale sur les méthodes et outils d’organisation des prompts, consultez notre article Organiser ses prompts IA : guide complet des solutions en 2025.
C’est précisément sur ce point que Prompty, une initiative open source de Microsoft, apporte une réponse élégante. Intégré à Visual Studio Code, cet outil transforme la gestion des prompts en un processus clair, versionné et reproductible. Il repose sur un format standardisé qui encapsule le texte, les variables et la configuration du modèle dans un seul fichier .prompty. Comme le montre la documentation officielle sur GitHub, Prompty a été conçu pour « améliorer la portabilité, la traçabilité et la compréhension des prompts ».
Mais au-delà d’un simple générateur de texte, Prompty s’impose comme la première étape vers l’automatisation des workflows IA. En structurant les prompts, il prépare le terrain pour leur intégration dans des frameworks d’orchestration tels que LangChain, Prompt Flow ou Semantic Kernel, où chaque élément du pipeline devient interconnecté et reproductible.
Qu’est-ce que Prompty ? Un nouveau format pour organiser les prompts IA
Prompty est à la fois un format standardisé et une extension pour Visual Studio Code conçue pour structurer et exécuter des prompts destinés aux modèles de langage. Un fichier .prompty contient toutes les informations nécessaires à un prompt : le texte, les variables, la configuration du modèle (OpenAI, Ollama, Azure OpenAI, etc.) et les exemples d’entrée.
Ce format repose sur une structure claire en YAML, ce qui le rend lisible, traçable et facilement versionnable. Comme l’indique la page officielle de Microsoft sur GitHub, l’objectif est de “standardiser les prompts et leur exécution dans un seul artefact, afin d’améliorer leur observabilité et leur portabilité”.
En pratique, Prompty transforme le prompt, jusque-là perçu comme une chaîne de texte expérimentale, en un véritable composant logiciel. Il permet aux équipes IA de centraliser, réutiliser et partager leurs prompts tout en garantissant leur cohérence. Compatible avec différents endpoints LLM (OpenAI, Anthropic, Mistral, Ollama, Hugging Face, etc.), il devient possible de tester un même prompt sur plusieurs modèles IA sans changer sa structure.

Prompty dans VS Code : centraliser et tester vos prompts IA
L’un des atouts majeurs de Prompty est son intégration fluide dans Visual Studio Code, un environnement déjà familier pour la majorité des développeurs IA. Une fois l’extension installée depuis le Marketplace officiel de VS Code, il devient possible de créer un nouveau fichier .prompty en un clic via “New Prompty”.
Ce qui distingue Prompty d’un simple éditeur de texte, c’est sa fonction Preview as Markdown : elle affiche en temps réel le rendu du prompt avec les variables remplacées, sans exécution. Cette approche permet de corriger la formulation, vérifier la cohérence du ton et tester la structure avant de la soumettre à un LLM.
En appuyant sur F5, Prompty peut également exécuter directement le prompt via n’importe quel modèle défini dans la configuration : OpenAI, Azure, Mistral ou Ollama pour un usage local. Cette flexibilité offre la possibilité de comparer les comportements d’un même prompt selon le moteur IA utilisé, tout en conservant la traçabilité du contexte et des paramètres.
Enfin, Prompty agit comme un gestionnaire de bibliothèque de prompts IA : chaque fichier peut être stocké, versionné et organisé dans un workspace dédié (génération de texte, analyse, résumé, vérification factuelle…). Pour les développeurs et créateurs de contenu dont les prompts sont dispersés, cette centralisation représente un gain considérable en productivité et en clarté.
Pourquoi Prompty est la première étape vers les workflows IA automatisés
Avant d’automatiser un workflow d’intelligence artificielle, il faut d’abord stabiliser ses briques fondamentales : les prompts. Dans un pipeline IA, ils définissent la logique, les entrées et les comportements des modèles. Sans structure claire, impossible d’orchestrer efficacement un ensemble d’agents ou de tâches.
C’est ici que Prompty joue un rôle central : il transforme chaque prompt en un élément standardisé et versionné, prêt à être intégré dans un système automatisé. Comme l’explique la documentation Prompty, l’outil s’inscrit dans la continuité des frameworks d’orchestration modernes tels que LangChain, LangGraph, Prompt Flow et Semantic Kernel.
Prenons un exemple concret : un développeur crée un prompt de résumé d’article dans Prompty. Il le teste localement, valide les résultats, puis l’intègre directement dans un flow Prompt Flow ou une chaîne LangChain sans rien réécrire. Ce même fichier .prompty devient ainsi un module réutilisable dans un pipeline complet.
Cette standardisation facilite la maintenance et la traçabilité : si un prompt évolue, la mise à jour d’un seul fichier suffit. Tous les orchestrateurs connectés (LangChain, LangGraph, Prompt Flow, Semantic Kernel) utiliseront la nouvelle version, réduisant le risque d’incohérence entre les environnements de test et de production.
Mise en pratique : créer, tester et automatiser vos prompts avec Prompty
1. Préparer son environnement
Créez un dossier de travail, par exemple : C:ProjectPrompt-EngineeringVS-Code-Prompty
Ouvrez-le dans VS Code, installez l’extension Prompty, puis créez un fichier VS-Code-Prompty.code-workspace avec la configuration suivante :
{
  "folders": [
    {
      "path": "."
    }
  ],
  "settings": {
    "prompty.modelConfigurations": [
      {
        "name": "mock-local",
        "type": "openai",
        "base_url": "http://localhost:0/v1",
        "api_key": "mock",
        "description": "Mock model for local preview only (no external call)"
      },
      {
        "name": "openai-cloud",
        "type": "openai",
        "base_url": "https://api.openai.com/v1",
        "model": "gpt-4o",
        "api_key": "${env:OPENAI_API_KEY}",
        "description": "Live OpenAI model GPT-4o"
      },
      {
        "name": "azure-openai",
        "type": "azure_openai",
        "api_version": "2024-10-21",
        "azure_endpoint": "${env:AZURE_OPENAI_ENDPOINT}",
        "azure_deployment": "gpt-4o-deployment",
        "api_key": "${env:AZURE_OPENAI_API_KEY}",
        "description": "Azure OpenAI GPT-4o deployment"
      }
    ],
    "prompty.defaultModel": "mock-local"
  }
}
Le paramétrage mock-local empêche tout appel externe et permet d’utiliser F5 sans connexion à un modèle ou Preview as Markdown pour visualiser et copier le prompt final. Concernant les sections modèles openai-cloud et azure-openai, il s’agit juste d’exemples, vous pouvez les retirer ou les modifier selon votre usage.
2. Créer un modèle de prompt
Créez un fichier 1-collect-AI-news.prompty :
name: AI News Snapshot
description: Summarize key AI announcements between two dates
sample:
  start_date: 2025-10-01
  end_date: 2025-10-07
system:
You are a research assistant specialized in AI.
Your task is to summarize key AI-related announcements between {{start_date}} and {{end_date}}.
Appuyez sur F5 pour visualiser le résultat final avec les variables remplacées.
3. Organiser sa bibliothèque
Structurez vos prompts par dossier :
📁 VS-Code-Prompty
 ┣ 📂 collect
 ┃ ┗ 1-collect-AI-news.prompty
 ┣ 📂 verify
 ┃ ┗ 2-verify-AI-news.prompty
 ┣ 📂 write
 ┃ ┗ 3-write-weekly-report.prompty
 ┗ 📂 review
   ┗ 4-review-final-report.prompty
Chaque fichier devient une brique de votre futur workflow IA : collecte, vérification, rédaction, relecture.
4. Exécution locale avec Ollama
Installez Ollama, puis configurez :
{
  "name": "ollama-local",
  "type": "ollama",
  "base_url": "http://localhost:11434",
  "model": "llama3:8b"
}
Vous pourrez ainsi exécuter vos prompts en local sans cloud, idéal pour les tests hors ligne ou la confidentialité des données.
5. Intégration avec LangChain ou Prompt Flow
Dans LangChain, un prompt Prompty peut être chargé ainsi :
from langchain.prompty import PromptyTemplate
template = PromptyTemplate.from_file("collect/1-collect-AI-news.prompty")
prompt = template.format(start_date="2025-10-01", end_date="2025-10-07")
print(prompt)
Dans Prompt Flow, il suffit de lier le fichier .prompty comme composant d’un flow.
Prompty, un pont vers l’automatisation complète des workflows IA
Prompty sert de couche de fondation pour les pipelines IA modernes. Chaque fichier .prompty devient un bloc réutilisable, versionné et traçable, que l’on peut relier à des orchestrateurs tels que LangChain, Prompt Flow ou Semantic Kernel.
Sur GitHub, Microsoft fournit déjà des exemples d’intégration directe avec Prompt Flow, où Prompty agit comme un “template loader”. Dans Semantic Kernel, il est possible de convertir un prompt Prompty en fonction d’agent IA, assurant une cohérence entre le développement local et la production.
Cette modularité réduit les frictions entre expérimentation et automatisation. Prompty devient ainsi le pont naturel entre le prompt engineering et les workflows IA industrialisés.
Une courbe d’apprentissage rapide pour les utilisateurs de VS Code
Prompty s’intègre naturellement à l’écosystème de Visual Studio Code. L’installation est immédiate, la syntaxe claire, et la fonction Preview as Markdown permet de travailler hors ligne. Pour ceux qui souhaitent aller plus loin, la commande F5 permet une exécution directe sur le modèle choisi (mock, Ollama, Azure, OpenAI).
Comme le rappelle la documentation Microsoft, l’objectif de Prompty est d’« accélérer la boucle interne de développement ». Pour tout utilisateur habitué à VS Code, la courbe d’apprentissage est quasi nulle.
FAQ – Questions fréquentes sur Prompty et VS Code
Prompty est-il gratuit ? Oui, c’est un projet open source de Microsoft disponible sur GitHub.
Faut-il une clé API pour l’utiliser ? Non. La fonction Preview as Markdown permet de visualiser les prompts sans exécution de modèle.
Prompty fonctionne-t-il avec Ollama ? Oui, via un endpoint local (http://localhost:11434/v1), compatible avec Llama 3, Mistral ou Gemma.
Quelle différence avec Prompt Flow ? Prompty sert à concevoir et tester les prompts, tandis que Prompt Flow orchestre des workflows IA complets.
Promty, une brique essentielle vers des workflows IA structurés ?
Prompty n’est pas un simple éditeur de texte pour IA. C’est une brique d’ingénierie logicielle pensée pour structurer et fiabiliser le travail des équipes IA. En standardisant la création, le test et la réutilisation des prompts, il rend les workflows IA plus transparents, reproductibles et interopérables.
Pour les développeurs déjà ancrés dans Visual Studio Code, Prompty offre une passerelle naturelle vers des pratiques avancées de prompt engineering et d’automatisation IA.
En d’autres termes, Prompty marque le passage du prompt artisanal au prompt industrialisé, la première étape concrète vers une automatisation IA maîtrisée, efficace et durable.
Pour aller plus loin : Comment construire des agents IA indépendants de tout fournisseur LLM
Pour ne rien rater, abonnez-vous à Cosmo Games sur Google News et suivez-nous sur X (ex Twitter) en particulier pour les bons plans en direct. Vos commentaires enrichissent nos articles, alors n'hésitez pas à réagir ! Un partage sur les réseaux nous aide énormément. Merci pour votre soutien !
