Définition technique
Discipline qui consiste à formuler les instructions (prompts) envoyées à un LLM pour obtenir des réponses pertinentes, stables et exploitables. Bonnes pratiques : rôle assigné au modèle, contexte clair, format de sortie défini (JSON, liste, paragraphe), exemples (few-shot), contraintes (longueur, ton). Le prompt engineering améliore la qualité sans toucher au modèle ; il est essentiel pour les applications en production (chatbots, génération de contenu, extraction de données).
Comment ça fonctionne ?
Vous construisez une chaîne de texte (système + utilisateur, ou instruction + contexte + question) envoyée au LLM. Le modèle interprète ce texte et génère la suite. Plus le prompt est explicite sur le rôle, le format et les contraintes, plus la sortie est prévisible. Les techniques avancées incluent le chain-of-thought (raisonnement étape par étape) ou l'injection d'exemples pour calibrer le style.
L'erreur classique à éviter
Prompts vagues (« Explique-moi ça ») qui donnent des réponses incohérentes. Oublier de préciser le format (le LLM invente). Prompts trop longs qui diluent l'instruction. Ne pas tester avec des cas limites.
Impact business : pourquoi s'en soucier ?
Un bon prompt réduit les erreurs, les réponses hors-sujet et le besoin de modération manuelle. Pour un chatbot client ou un outil interne, investir dans le prompt engineering augmente le taux de satisfaction et diminue les coûts d'appel API (moins de tentatives). C'est souvent le levier le plus rapide et le moins coûteux pour améliorer une application IA.
La règle d'or
Structurer : rôle + contexte + tâche + format. Donner des exemples pour les tâches répétitives. Borner la longueur et le ton. Tester sur un jeu de requêtes représentatif et documenter les prompts en production.