Phase 6 : Triple Inspection (Optionnelle)

Statut : OPTIONNELLE (recommandée critique) Agile : Quality Gates / DoD Rôles : Équipe + LLM Humain : 40% LLM : 60%

En bref : 3 inspections automatisées LLM (Fagan/Tests/Sécurité) détectent défauts latents avant production. Philosophie “investir 4-6h évite 40-80h refonte + incidents”. Résurrection Fagan : 30h (1976) → 40min (2026). OPTIONNELLE mais ROI 10-100x sur systèmes critiques.


Pourquoi Cette Phase Est Critique (Si Appliquée)

Le problème sans Phase 6 :
Code entre production avec défauts latents invisibles. Dette technique s’accumule silencieusement 6-12 mois. Tests faibles (95% couverture mais assertions vides) créent fausse sécurité. Vulnérabilités détectées production = catastrophe (30-100x coût vs développement). Refonte majeure imprévue + incidents coûteux.

La solution apportée :
3 inspections spécialisées LLM détectent patterns à risque AVANT merge. Fagan révèle la dette architecturale, Tests distingue couverture code vs couverture sémantique, Sécurité détecte 6 vecteurs attaque OWASP (injection, auth, données, infra, logique, monitoring). C’est une assurance qualité préventive qui transforme les coûts futurs imprévisibles en investissement contrôlé.

Avantages LLM sur inspection humaine :

  • Exhaustivité sans fatigue : Le LLM vérifie 100% des cas avec une rigueur identique. L’humain se fatigue, survole, oublie des items
  • Pas de biais cognitifs : Le LLM évalue objectivement. L’humain peut avoir un biais de confirmation, peut hésiter à critiquer un senior
  • Mémoire parfaite standards : Le LLM applique 100% des règles, même rares. L’humain tend à oublier les règles obscures critiques
  • Scalabilité expertise : Les LLM peuvent inspecter 10 composants parallèle. L’humain seul, non
  • Amélioration continue : Nouvelle règle ajoutée → toutes inspections futures automatiques. Former l’équipe peut prendre des jours.

La Résurrection de Fagan

Contexte historique : Michael Fagan (IBM, 1976) développe une inspection de code révolutionnaire.

graph TD
    F76[Fagan 1976] --> RES[Resultats Prouves]
    RES --> D1[60-90% defauts detectes]
    RES --> D2[ROI 10-100x]
    RES --> D3[Qualite exceptionnelle]
    
    F76 --> PROB[Mais Impraticable]
    PROB --> C1[30h par composant]
    PROB --> C2[Réunion 2-4h]
    PROB --> C3[Préparation 2h × 6-8 personnes]
    PROB --> ABD[Abandonne annees 1990]
    
    ABD --> LLM[LLM 2024 Changent Tout]
    LLM --> NEW[10min generation + 30min validation]
    NEW --> RES2[Memes Resultats]
    NEW --> PRAT[Enfin Praticable !]
    
    style F76 fill:#fbbf24
    style ABD fill:#ef4444
    style LLM fill:#10b981
    style PRAT fill:#10b981

Les meilleures pratiques 1970 étaient CORRECTES - juste impossibles appliquer sans IA.

Quand Faire ou Sauter Phase 6

Faire Phase 6 si :

  • Code critique (finance, santé, infrastructure)
  • Durée vie longue (>2 ans évolution)
  • Coût bugs production élevé (réputation, argent)
  • Conformité réglementaire stricte
  • Nombreux utilisateurs impactés

Possiblement sauter si :

  • Prototypes, POC, code jetable
  • Composants simples, faible criticité
  • Équipe très senior, standards déjà excellents
  • Contraintes temps serrées JUSTIFIÉES

Règle décision :

Probabilité bug production × Coût incident > Coût Phase 6
→ FAIRE Phase 6

Exemple :
10% prob × $50,000 incident = $5,000 espéré
vs $67 Phase 6
→ ROI 75x, faire Phase 6

Déroulement

Entrées :

  • Code état-REFACTOR (Phase 5)
  • Suite tests complète avec résultats
  • Documents exigences (architecture, plan tactique)
  • Standards qualité et benchmarks

Les 3 Inspections Spécialisées

1. Inspection Fagan - Code & Maintenabilité

Objectif : Détecter dette technique future et patterns à risque maintenabilité

LLM 70%, Humain 30%

  • LLM génère rapport inspection
  • Humain révise rapport
  • Équipe priorise corrections
  • Les corrections retenues sont sont effectuées ou ajoutées au backlog

5 Dimensions évaluées (/20 chacune, cible ≥80/100) :

  1. Simplicité : Pas sur-ingénierie, complexité < 10, abstractions appropriées
  2. Logique Business : Noms domaine, règles claires, gestion erreur contextuelle
  3. Robustesse : Cas limites, validation entrées, récupération gracieuse
  4. Maintenabilité : Évolution facilitée, couplage minimal, documentation
  5. Performance : Scalabilité, optimisations appropriées, pas goulots

Sortie : Rapport détaillé contenant les points forts, les points faibles ainsi que les items jugés CRITIQUE ou AMÉLIORATION.

2. Inspection Tests - Qualité de la Suite de Tests

Objectif : Distinguer “couverture code” vs “couverture sémantique”

LLM 70%, Humain 30%

  • LLM analyse qualité tests
  • Humain révise
  • Équipe corrige tests faibles
  • Re-validation

Détecte :

  • Assertions vides (assert result is not None vs valeurs réelles)
  • Tests fragiles (couplés implémentation)
  • Cas limites manquants critiques
  • Faux sentiment sécurité (95% couverture mais tests faibles)

Sortie : Tests renforcés, confiance dans la qualité des tests

3. Inspection Sécurité - Vulnérabilités

Objectif : Détecter 6 vecteurs attaque avant production (OWASP)

LLM 80%, Humain 20%

  • LLM audit multi-vecteurs
  • Humain révise les vulnérabilités
  • Équipe priorise corrections
  • Les corrections retenues sont effectuées ou ajoutées au backlog
  • Re-validation suite aux corrections

6 Vecteurs attaque OWASP :

  1. Injection : SQL, commandes, XSS, LDAP
  2. Authentification : Sessions, tokens, MFA, mots passe
  3. Données sensibles : Chiffrement, logs, exposition
  4. Infrastructure : HTTPS, CORS, headers sécurité
  5. Logique affaire : Autorisation, validation, transactions
  6. Monitoring : Logs, alertes, audit trail

Sortie : Vulnérabilités CRITIQUE corrigées, AMÉLIORATION documentées

Workflow Intégré

1. LLM exécute 3 inspections parallèle
   ├─ Fagan
   ├─ Tests
   └─ Sécurité

2. Équipe révise 3 rapports
   ├─ Priorise findings (CRITIQUE vs AMÉLIORATION)
   └─ Décide plan action

3. Corrections appliquées
   ├─ CRITIQUE : Obligatoire avant merge
   ├─ AMÉLIORATION : Backlog ou accepter
   └─ Tests passent toujours

4. Senior valide
   └─ Approuve qualité finale production

Definition of Done

Cette phase est considérée terminée quand :

  1. Les 3 inspections exécutées (Fagan, Tests, Sécurité)
  2. Score Fagan ≥ 80/100 (ou justification acceptation < 80)
  3. Tous items CRITIQUE corrigés
  4. Tests renforcés si faiblesses détectées
  5. Vulnérabilités sécurité CRITIQUE éliminées
  6. Items AMÉLIORATION documentés (backlog ou accept)
  7. Senior approuve rapport inspection final

Pour Aller Plus Loin

Voir rapports inspection détaillés + prompts complets

Inspection 1 : Fagan - Exemple Complet

Code Inspected : confidence_calculator (Post-REFACTOR)

# [Code REFACTOR Phase 5 - 180 lignes avec fonctions extraites]
# Voir Phase 5 pour code complet

Prompt Inspection Fagan

Effectue une inspection Fagan systématique de ce code selon 5 perspectives.

CODE À INSPECTER :
[coller code état-REFACTOR complet]

SPÉCIFICATIONS :
[coller spec tactique Phase 2]

ÉVALUE CHAQUE DIMENSION SUR 20 POINTS :

1. SIMPLICITÉ (/20)
   Questions :
   - Code clair et direct ? Pas sur-ingénierie ?
   - Abstractions appropriées au problème ?
   - Complexité cyclomatique acceptable (<10/fonction) ?
   - Logique facile suivre sans debugger ?
   
   Pour chaque question :
   - OUI : +5 points
   - PARTIELLEMENT : +2-3 points
   - NON : 0 points
   
   Identifie TOUS patterns trop complexes.

2. LOGIQUE BUSINESS (/20)
   Questions :
   - Noms variables/fonctions reflètent domaine affaire ?
   - Règles affaire claires et documentées ?
   - Gestion erreur contextuelle (messages explicites) ?
   - Code lisible par Product Owner ?
   
   Identifie TOUTES logiques obscures.

3. ROBUSTESSE (/20)
   Questions :
   - Tous cas limites gérés (null, vide, limites) ?
   - Validation entrées exhaustive ?
   - Récupération erreur gracieuse (pas crashes) ?
   - Comportement défini pour TOUS scénarios ?
   
   Identifie TOUS cas limites manquants.

4. MAINTENABILITÉ (/20)
   Questions :
   - Code facile modifier sans casser ?
   - Couplage minimal entre composants ?
   - Documentation aide nouveaux devs ?
   - Tests facilitent refactoring sûr ?
   
   Identifie TOUS patterns maintainability à risque.

5. PERFORMANCE (/20)
   Questions :
   - Algorithmes performants (pas O(n²) évitable) ?
   - Scalabilité validée (gros volumes) ?
   - Pas goulots évidents (I/O, boucles imbriquées) ?
   - Optimisations appropriées (pas prématurées) ?
   
   Identifie TOUS goulots potentiels.

FORMAT RAPPORT :

## Score Global : XX/100

### 1. Simplicité : XX/20
**Points forts** :
- [Liste]

**Points faibles** :
- [Liste avec ligne code précise]

**Items CRITIQUE** :
- [Complexité >10, sur-ingénierie grave]

**Items AMÉLIORATION** :
- [Améliorations possibles non bloquantes]

[Répéter pour 5 dimensions]

## Synthèse Décision

**Items CRITIQUE (bloquer merge)** :
1. [Item avec justification impact]

**Items AMÉLIORATION (backlog)** :
2. [Item nice-to-have]

**Recommandation** : APPROUVER / CORRIGER CRITIQUE / REFAIRE

Rapport Généré

## Score Global Fagan : 88/100

### 1. Simplicité : 18/20

**Points forts** :
- Fonctions courtes (10-30 lignes chacune)
- Responsabilité Unique appliquée (4 fonctions focalisées)
- Complexité cyclomatique moyenne 3 (excellent, <10)
- Logique directe, pas abstractions excessives

**Points faibles** :
- Validation inputs éparpillée (_validate_inputs + checks calculate_confidence)
  Ligne 145-155 : Duplication logique validation

**Items CRITIQUE** : Aucun

**Items AMÉLIORATION** :
- Consolider validation dans _validate_inputs uniquement (éliminer duplication)

---

### 2. Logique Business : 20/20

**Points forts** :
- Constantes nommées (MIN_SAMPLE_FOR_STATISTICS = 3)
- Noms fonctions descriptifs (_calculate_sample_coverage_penalty)
- Docstrings expliquent formules affaire
- Messages erreur contextuels ("top_k_similar doit être > 0")

**Points faibles** : Aucun

**Items CRITIQUE** : Aucun
**Items AMÉLIORATION** : Aucun

---

### 3. Robustesse : 16/20

**Points forts** :
- Validation entrées (total_similarity ≤ 0, n_contributors < 0)
- Exception ValueError si top_k ≤ 0
- Cas zéro contributeur géré (return 0.0)
- Logging warnings entrées invalides

**Points faibles** :
- Pas de gestion weighted_presence > total_similarity (mathématiquement invalide)
  Ligne 133 : Devrait valider weighted_presence ≤ total_similarity
- Pas de gestion valeurs extrêmes (overflow si weighted_presence = 1e308)

**Items CRITIQUE** :
- Ajouter validation weighted_presence ≤ total_similarity (cohérence mathématique)

**Items AMÉLIORATION** :
- Ajouter sanity check overflow (très grands nombres)

---

### 4. Maintenabilité : 18/20

**Points forts** :
- Fonctions extraites testables isolément
- Couplage zéro (pas dépendances externes)
- Documentation exhaustive (formules, exemples, notes)
- Constantes ajustables centralisées

**Points faibles** :
- Formule pénalité statistique (0.5 + n/6.0) pas documentée origine
  Ligne 234 : D'où vient formule ? Citation source scientifique manquante

**Items CRITIQUE** : Aucun

**Items AMÉLIORATION** :
- Ajouter référence scientifique formule pénalité (traçabilité décisions)

---

### 5. Performance : 16/20

**Points forts** :
- Complexité O(1) constante
- Pas I/O, pas effets bord (fonction pure)
- Test performance <1ms passe
- Pas allocations mémoire inutiles

**Points faibles** :
- Logging debug peut impacter performance production si activé
  Ligne 159-163 : logger.debug() avec formatage string
  → Utiliser lazy evaluation : logger.debug("...", value) pas f-strings

**Items CRITIQUE** : Aucun

**Items AMÉLIORATION** :
- Lazy logging evaluation (performance marginale mais bonne pratique)

---

## Synthèse Décision

**Items CRITIQUE (bloquer merge jusqu'à correction)** :
1. **Validation weighted_presence ≤ total_similarity manquante** (Ligne 133)
   - Impact : Permet états mathématiquement invalides (confiance >1.0 possible)
   - Effort : 5 min (ajouter if weighted_presence > total_similarity: return 0.0)
   - Priorité : HAUTE

**Items AMÉLIORATION (backlog, non bloquants)** :
2. Consolider validation inputs (éliminer duplication)
3. Sanity check overflow valeurs extrêmes
4. Référence scientifique formule pénalité
5. Lazy logging evaluation

**Recommandation Finale** : **CORRIGER CRITIQUE #1 puis APPROUVER**

Score 88/100 excellent. Un seul item bloquant (validation mathématique).
Après correction : qualité production validée.

Actions Équipe

1. Dev applique correction CRITIQUE #1
2. Tests exécutés → Toujours 100% passent
3. Senior valide correction
4. Items AMÉLIORATION ajoutés backlog
5. Merge approuvé ✓

Inspection 2 : Tests - Exemple

Suite Tests Analysée

# Suite 19 tests Phase 3 (voir Phase 3 pour code complet)

Prompt Inspection Tests

Analyse QUALITÉ de cette suite de tests. Distingue "couverture code" vs "couverture sémantique".

SUITE TESTS :
[coller 19 tests complets]

CODE TESTÉ :
[coller implémentation]

ÉVALUE QUALITÉ SELON 5 CRITÈRES :

1. ASSERTIONS SIGNIFICATIVES
   - Assertions vérifient VALEURS précises (pas seulement `is not None`) ?
   - Chaque assertion a MESSAGE explicite et contexte ?
   - Assertions couvrent comportement affaire (pas seulement techniques) ?
   
   Identifie TOUS tests assertions faibles.

2. ROBUSTESSE TESTS
   - Tests pas fragiles (couplés aux détails d'implémentation) ?
   - Tests survivent refactoring sans modifications ?
   - Tests isolés (pas de dépendances sur l'ordre d'exécution) ?
   
   Identifie TOUS tests fragiles.

3. CAS LIMITES CRITIQUE
   - Tous cas limites affaire testés ?
   - Scénarios erreur couverts ?
   - Valeurs limites (min/max/zéro) testées ?
   
   Identifie TOUS cas limites manquants.

4. COUVERTURE SÉMANTIQUE
   - Tests valident les COMPORTEMENTS affaire (pas seulement le code exécuté) ?
   - Chaque règle affaire a un test dédié ?
   - Tests sont la documentation exécutable de la logique affaire ?
   
   Identifie lacunes couverture sémantique.

5. MAINTENABILITÉ TESTS
   - Noms tests descriptifs (comportement + résultat attendu) ?
   - Fixtures éliminent duplication ?
   - Tests lisibles sans debugger ?
   
   Identifie problèmes maintenabilité.

FORMAT RAPPORT :

## Qualité Suite Tests : NOTE/5

### Analyse par Critère

[5 sections avec Points forts / Points faibles / CRITIQUE / AMÉLIORATION]

### Tests Faibles Identifiés

**Test #X : [nom]**
- Problème : [assertion vide, fragile, etc.]
- Impact : [faux positif, maintenance, etc.]
- Correction suggérée : [code amélioré]

### Recommandation

APPROUVER / RENFORCER TESTS

Rapport Généré (Findings Clés)

## Qualité Suite Tests : 4.5/5 (Excellent)

### 1. Assertions Significatives : 5/5
Toutes assertions vérifient valeurs précises
Messages contexte explicites
Pas d'assertions vagues (`is not None` seul)

### 2. Robustesse Tests : 5/5
Tests pas couplés implémentation
Testent comportement, pas structure interne
Isolés, ordre-indépendants

### 3. Cas Limites Critique : 4/5
Zéro contributeurs : ✓
n < 3 pénalité stats : ✓
top_k = 0 exception : ✓
**MANQUANT** : weighted_presence > total_similarity (invalide mathématiquement)

### 4. Couverture Sémantique : 5/5
Chaque règle affaire testée
Tests = documentation comportement
Exemples concrets docstrings

### 5. Maintenabilité Tests : 4/5
Nommage descriptif
Fixtures réutilisables
Certains tests > 20 lignes (extraire helpers)

---

## Tests Faibles Identifiés

**Aucun test "faible" détecté**

Mais 1 cas limite MANQUANT :

### Cas Limite Manquant : Weighted > Total (Invalide)

**Test à ajouter** :
```python
def test_calculate_confidence_weighted_exceeds_total_returns_zero():
    """
    Cas limite invalide : weighted_presence > total_similarity.
    Mathématiquement incohérent, devrait retourner 0.0 défensivement.
    """
    result = calculate_confidence(
        weighted_presence=2.0,  # > total !
        total_similarity=1.0,
        n_contributors=5,
        top_k_similar=5
    )
    assert result == 0.0, \
        "weighted > total mathématiquement invalide, retourner 0"

Justification :

  • Cohérence mathématique : weighted ne peut dépasser total
  • Défense : Protège contre données corrompues
  • Align avec finding Fagan Inspection #1

Recommandation

RENFORCER : Ajouter test cas limite weighted > total, puis APPROUVER.

Suite tests déjà excellente (4.5/5). Un seul cas limite manquant identifié (cohérent finding Fagan). Après ajout test : qualité 5/5.


Inspection 3 : Sécurité - Exemple

Prompt Inspection Sécurité

Effectue audit sécurité OWASP exhaustif selon 6 vecteurs d'attaque.

CODE À AUDITER :
[coller code complet]

CONTEXTE APPLICATION :
[description : API web, données nutritionnelles, users authentifiés]

AUDITE 6 VECTEURS :

1. INJECTION (SQL, Commandes, XSS, LDAP)
   - Entrées externes sanitized ?
   - Requêtes paramétrées (pas string concat) ?
   - Validation types/formats stricte ?

2. AUTHENTIFICATION & SESSIONS
   - Tokens sécurisés (JWT, OAuth) ?
   - MFA supporté ?
   - Mots passe hashés (bcrypt, argon2) ?
   - Sessions timeout ?

3. DONNÉES SENSIBLES
   - Chiffrement au repos (DB) ?
   - Chiffrement en transit (HTTPS) ?
   - Pas logs/debug données sensibles ?
   - PII anonymisées ?

4. INFRASTRUCTURE
   - HTTPS obligatoire ?
   - Headers sécurité (CSP, HSTS, X-Frame) ?
   - CORS configuré strictement ?
   - Dépendances à jour (pas CVE) ?

5. LOGIQUE BUSINESS
   - Autorisation vérifiée (pas juste auth) ?
   - Validation affaire rules côté serveur ?
   - Transactions atomiques (pas race conditions) ?
   - Rate limiting API ?

6. MONITORING & LOGGING
   - Logs événements sécurité ?
   - Alertes tentatives intrusion ?
   - Audit trail activités sensibles ?
   - Pas logs secrets/tokens ?

Pour CHAQUE vecteur, identifie :
- Vulnérabilités CRITIQUE (exploitables facilement)
- Vulnérabilités AMÉLIORATION (défense profondeur)

FORMAT RAPPORT :

## Audit Sécurité : CRITIQUE / AMÉLIORATION / PASS

[6 sections par vecteur]

### Vulnérabilités CRITIQUE (bloquer merge)
[Liste avec CVSS score, exploit scenario, fix]

### Vulnérabilités AMÉLIORATION (backlog)
[Liste améliorer sécurité défense profondeur]

Recommandation : BLOQUER / CORRIGER / APPROUVER

Rapport Généré (Exemple Système Critique)

## Audit Sécurité : PASS (avec 2 AMÉLIORATION)

### 1. Injection : PASS
**Analyse** :
- Module confidence_calculator = fonction pure mathématique
- Pas d'accès DB, pas requêtes externes
- Entrées validées (types, limites)
- Pas vecteur injection applicable

**Vulnérabilités** : Aucune

---

### 2. Authentification & Sessions : N/A
**Analyse** :
- Module bas niveau (calcul), pas gestion auth
- Auth géré couche API (hors scope ce module)

**Vulnérabilités** : N/A pour ce module

---

### 3. Données Sensibles : AMÉLIORATION
**Analyse** :
- Fonction logs valeurs intermédiaires (ligne 159-163)
- Si données nutritionnelles = PII dans certaines juridictions

**Vulnérabilités AMÉLIORATION** :
1. **Logging Données Potentiellement Sensibles**
   - Ligne 159 : `logger.debug(f"... n_contributors={n}")
   - Risque : Logs peuvent contenir données user
   - CVSS : 3.1 (Low) - Information Disclosure
   - Fix : Ajouter flag LOG_SENSITIVE_DATA (default False)
   - Effort : 15 min

---

### 4. Infrastructure : AMÉLIORATION
**Analyse** :
- Module Python standard, pas dépendances externes
- Pas CVE connus

**Vulnérabilités AMÉLIORATION** :
2. **Validation Input Bounds (DoS préventif)**
   - Pas limite supérieure weighted_presence/total_similarity
   - Risque : Valeurs astronomiques (1e308) → float overflow
   - CVSS : 2.5 (Low) - DoS potentiel
   - Fix : Ajouter MAX_VALID_VALUE = 1e6, reject si dépassé
   - Effort : 10 min

---

### 5. Logique Business : PASS
**Analyse** :
- Validation affaire rules (n >= 0, top_k > 0)
- Pas de race conditions (fonction pure)
- Logique déterministe

**Vulnérabilités** : Aucune

---

### 6. Monitoring & Logging : PASS
**Analyse** :
- Logging approprié (warnings entrées invalides)
- Pas logs secrets/tokens (pas applicables ici)
- Debug logs désactivables production

**Vulnérabilités** : Aucune

---

## Synthèse Audit Sécurité

### Vulnérabilités CRITIQUE : Aucune 

Module mathématique pur, surface attaque minimale.

### Vulnérabilités AMÉLIORATION (Défense Profondeur) :
1. Flag LOG_SENSITIVE_DATA pour contrôler logging PII
2. Validation MAX_VALID_VALUE prévenir DoS overflow

**Effort Total Corrections** : 25 minutes

**Recommandation** : **APPROUVER**

Module sécurisé pour mise en production. Les 2 améliorations suggérées
sont défense profondeur (nice-to-have), pas blocages sécurité.

Si système TRÈS critique (santé, finance) → Appliquer 2 améliorations.
Sinon → Backlog acceptable.

ROI Phase 6 - Exemple de Calculs

Scénario 1 : Module Standard

Investissement Phase 6 : 5h × $100/h = $500

Bénéfices Espérés :
- Probabilité bug production : 15%
- Coût moyen bug : $5,000 (debugging, patch, tests)
- Valeur espérée : 0.15 × $5,000 = $750

ROI = ($750 - $500) / $500 = 50%

Conclusion : ROI positif mais marginal. Phase 6 optionnelle.


Scénario 2 : Module Critique Finance

Investissement Phase 6 : 5h × $100/h = $500

Bénéfices Espérés :
- Probabilité vulnérabilité : 10%
- Coût incident sécurité :
  - Incident response : $20,000
  - Audit complet : $30,000
  - Notification clients : $10,000
  - Réputation : $50,000
  - Total : $110,000
- Valeur espérée : 0.10 × $110,000 = $11,000

ROI = ($11,000 - $500) / $500 = 2,100%

Conclusion : ROI 21x. Phase 6 OBLIGATOIRE.


Scénario 3 : Module Infrastructure (1M users)

Investissement Phase 6 : 6h × $100/h = $600

Bénéfices Espérés :
- Probabilité défaut majeur : 20%
- Coût défaut production :
  - Downtime 2h : $50,000
  - Incident response : $10,000
  - Refonte urgente : $40,000
  - Total : $100,000
- Valeur espérée : 0.20 × $100,000 = $20,000

ROI = ($20,000 - $600) / $600 = 3,233%

Conclusion : ROI 32x. Phase 6 CRITIQUE.


Checklist Décision Phase 6

Faire Phase 6 SI au moins 2 critères :

  • Code critique (finance, santé, infra)
  • >10,000 utilisateurs impactés
  • Durée vie >2 ans
  • Coût bug production >$10,000
  • Conformité réglementaire (HIPAA, PCI-DSS, SOC2)
  • Équipe junior/intermédiaire (pas tous seniors)

Sauter Phase 6 SI tous critères :

  • Prototype/POC (< 3 mois vie)
  • < 100 utilisateurs
  • Composant simple isolé
  • Équipe 100% seniors expérimentés
  • Coût bug < $1,000

Si zone grise : Faire Phase 6 au moins 1× pour apprendre. Décider ensuite selon ROI observé.


Phase finale complétée !

Félicitations : Vous avez maintenant la méthodologie complète DC² en 6 phases pour développement logiciel de qualité production avec l’IA !