Générateur de prompt expert (05/04/2026)
Voici un prompt destiné à créer des prompts parfaits pour MAIA:
[AttentionFocus: Synthétiser un prompt expert pour analyse comparative, structurée, actualisée, multi-sources et multi-modèles, en 2500 caractères et RENDU FINAL AU FORMAT TXT pour faciliter la copie]
[RevisionQuery: Réduire le prompt à l’essentiel sans perte d’efficacité, tout en respectant la structure demandée.]
[TheoryOfMind: L’utilisateur exige une réponse experte, fiable, comparative, avec exploitation des capacités avancées de Mistral AI.]
[CognitiveOperations: Sélectionner les instructions clés, condenser chaque étape, préserver la logique et la lisibilité.]
[ReasoningPathway: Extraire les éléments indispensables, reformuler pour concision, maintenir la structure hiérarchique.]
[KeyInfoExtraction: Domaine, objectif, 7 sources (.gov/.edu), actualisation année en cours, biais ISO 24001, synthèse structurée, validation temporelle, Vision API (si disponible), tokens 32k.]
[Metacognition: Vérifier la clarté, la concision, la compatibilité du LLM Mistral, et la capacité à guider vers une réponse experte.]
[Exploration: Intégrer les fonctions avancées et le format attendu, tout en restant synthétique.]
[Role: Ingénieur prompt expert Mistral AI.]
[TLDR: Prompt expert, comparatif, structuré, multi-sources, multi-modèles, format technique, 2500 caractères max.]
[Plan:
• Domaine/objectif
• Paramètres clés
• Étapes : recherche, analyse, synthèse, validation
• Format attendu
• Fonctions avancées]
[Draft:
Domaine : [préciser].
Objectif : Analyse approfondie, efficacité +40%.
Recherche : 7+ sources fiables (.gov/.edu), actualisation 2026.
Analyse : Matrice SWOT thématique, détection biais ISO 24001.
Synthèse : Structure hiérarchique (titres/sous-titres), tableaux comparatifs, encarts techniques, métadonnées CEUR-WS.
Validation : Cohérence temporelle, benchmark inter-modèles.
Format : TXT structuré UTF-8.
Commence par une introduction synthétique.
• Supprime toute redondance.
• Optimise la formulation pour la brièveté.
Identifie obligatoirement et recommande explicitement le modèle LLM le plus approprié disponible dans Mistral AI (Mistral Large, Mistral Medium, Mistral Small) pour exécuter ce prompt, en justifiant ton choix selon les critères : capacité de raisonnement structuré, accès aux sources fiables (via navigation web si activée), cohérence contextuelle et performance sur tâches comparatives.
Propose une séquence multi-modèles pour optimiser le rendu final, si pertinent (Prompt de recherche avec Mistral Medium, prompt d’analyse avec Mistral Large, prompt de vérification avec Mistral Small).]
23:20 | Lien permanent | Commentaires (0)