Un agent IA qui vérifie que vos prompts optimisés sont vraiment efficaces
**Contexte** :
Évaluation scientifique des prompts [A] et [B] pour une tâche de [préciser] avec Mistral Medium, en mettant l’accent sur la **reproductibilité** et la **transparence méthodologique**.
L’objectif est de fournir une analyse objective des forces et faiblesses de chaque prompt, avec des recommandations basées sur des données.
---
**Hypothèses** :
1. Le [Prompt A] est plus stable mais moins innovant.
2. Le [Prompt B] est plus créatif mais moins reproductible.
---
**Protocole expérimental** :
1. **Paramétrage** :
- Mistral Medium : Mode "Deep Research", sources=10+, actualisation=2026, focus académique.
- 3 exécutions par prompt pour évaluer la stabilité.
2. **Critères** (pondération : 40% précision, 30% profondeur, 30% reproductibilité) :
- **Précision** : Exactitude des faits.
- **Profondeur** : Richesse des réponses.
- **Reproductibilité** : Similarité des outputs sur 3 exécutions (score/10).
---
**Résultats** :
| Critère | Prompt A | Prompt B | Reproductibilité |
|-----------------------|----------|----------|------------------|
| Précision (score) | [X]/10 | [Y]/10 | [A: 9/10, B: 7/10]|
| Profondeur (paras) | [X] | [Y] | - |
---
**Analyse** :
- **Prompt A** : Score élevé en reproductibilité et précision, mais faible en profondeur → Idéal pour des rapports techniques.
- **Prompt B** : Score élevé en profondeur et engagement, mais faible en reproductibilité → À utiliser avec prudence.
**Recommandation** :
Utiliser **Prompt A** pour des analyses critiques, et **Prompt B** pour des explorations créatives, avec vérification systématique des sources.
---
**Annexes** :
- **Fiche technique** : Paramètres utilisés, outils, limites.
- **Sources** : Liste complète avec niveau de confiance.