tractatus/public/locales/fr/leader.json
TheFlow 9cafc992c3 docs(leader): full Cultural DNA revision for target audience alignment
**Major Changes:**

1. **Header Subtitle Revised** (inst_088 awakening)
   - Before: "Designed for organisations deploying large language models at scale"
   - After: "If your deployment is low-risk, architectural enforcement is likely unnecessary"
   - Self-selection mechanism: tire-kickers recognize non-relevance

2. **Added Target Audience Disclaimer Section**
   - Blue box after header warning: high-consequence deployments only
   - Lists specific regulations: EU AI Act Article 14, GDPR Article 22, SOC 2 CC6.1
   - Explicit: "If AI governance failure is low-consequence...policy-based may be more appropriate"

3. **Added Governance Assessment Framework Section** (inst_088 awakening)
   - Theatre vs Enforcement diagnostic
   - Core question: "What structurally prevents your AI from executing values decisions?"
   - Answer guide: "policies/training" = theatre, "architectural blocking" = enforcement
   - Links to business case template (assessment, not sales)

4. **Fixed inst_017 Violation**
   - Line 409: "Tractatus ensures decisions..." → "Tractatus provides architecture for decisions..."
   - Removed absolute assurance language

5. **Fixed inst_085 Violation**
   - "A comprehensive AI safety solution" → "An AI safety solution for all contexts"
   - "Proven effective" → "Validated across"
   - Removed abstract governance language

6. **Replaced Footer: "Further Information" → "Assessment Resources"**
   - Removed recruitment language: "pilot partnerships, validation studies, technical consultation"
   - Added assessment focus: Business Case Template, Leadership Questions (FAQ), Research Foundations
   - New framing: "If your regulatory context...these resources support self-evaluation"
   - Evaluation process description (not sales pitch)
   - Contact note: neutral project information link

**Cultural DNA Compliance:**
-  inst_085: Grounded operational language
-  inst_086: Honest uncertainty disclosure (already present)
-  inst_087: One approach framing (already present)
-  inst_088: Awakening over recruiting (major focus of revision)
-  inst_089: Architectural emphasis (already present)

**Translations:**
- All new content translated to German and French via DeepL
- Updated en/leader.json, de/leader.json, fr/leader.json
- 24 new i18n keys added/revised

**Target Audience Outcome:**
Sophisticated leaders with genuine regulatory obligations recognize relevance through assessment frameworks. Leaders with low-risk deployments recognize non-relevance upfront. No recruitment tactics—pure self-selection.

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
2025-10-28 23:58:21 +13:00

169 lines
18 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"page": {
"title": "Pour les Décideurs | Cadre de Sécurité IA Tractatus",
"description": "Gouvernance structurelle de l'IA pour les organisations déployant des systèmes LLM à grande échelle. Cadre de recherche abordant les lacunes architecturales en matière de sécurité de l'IA."
},
"header": {
"badge": "Cadre de Recherche • Développement Précoce",
"title": "Tractatus : Gouvernance Architecturale pour les Systèmes LLM",
"subtitle": "Gouvernance architecturale pour les organisations où l'échec de la gouvernance de l'IA entraîne des conséquences réglementaires. Si votre déploiement présente peu de risques, l'application de l'architecture n'est probablement pas nécessaire."
},
"sections": {
"governance_gap": {
"heading": "La Lacune de Gouvernance",
"intro": "Les approches actuelles de gouvernance de l'IA documents de politique, programmes de formation, directives éthiques reposent sur la conformité volontaire. Les systèmes LLM peuvent contourner ces contrôles simplement en ne les invoquant pas. Lorsqu'un agent IA doit vérifier une politique, il doit choisir de le faire. Lorsqu'il devrait escalader une décision à la surveillance humaine, il doit reconnaître cette obligation.",
"problem": "Cela crée un problème structurel : la gouvernance n'existe que dans la mesure où l'IA la reconnaît. Pour les organisations soumises à l'article 14 du règlement européen sur l'IA (exigences de surveillance humaine) ou déployant l'IA dans des domaines à haut risque, ce modèle volontaire est inadéquat.",
"solution": "Tractatus explore si la gouvernance peut être rendue architecturalement externe difficile à contourner non pas par de meilleurs prompts, mais par une conception de système qui place des points de contrôle en dehors du pouvoir discrétionnaire de l'IA."
},
"architectural_approach": {
"heading": "Approche Architecturale",
"three_layer_title": "Architecture à Trois Couches",
"services_title": "Six Services de Gouvernance",
"arch_layers": {
"layer_1_title": "Couche d'exécution de l'agent",
"layer_1_desc": "Tout système LLM (Claude Code, Copilote, agents personnalisés, LangChain, CrewAI). Le système d'IA gouverné.",
"layer_2_title": "Couche de gouvernance",
"layer_2_desc": "Six services autonomes qui interceptent, valident et documentent les opérations d'IA. Externes à l'exécution de l'IA.",
"layer_3_title": "Couche de stockage persistant",
"layer_3_desc": "Journaux d'audit, règles de gouvernance et historique des instructions immuables. Ne peut être modifié par des messages de l'IA."
},
"services": {
"service_1_title": "BoundaryEnforcer",
"service_1_desc": "Empêche l'IA de prendre des décisions relatives aux valeurs sans l'approbation de l'homme. Renforce les limites des décisions grâce à des contrôles architecturaux.",
"service_2_title": "InstructionPersistenceClassifier",
"service_2_desc": "Empêche les préjugés liés aux modèles de l'emporter sur les instructions explicites. Stocke les directives organisationnelles extérieures au contexte de l'IA.",
"service_3_title": "CrossReferenceValidator",
"service_3_desc": "Valide les actions de l'IA par rapport aux politiques stockées avant leur exécution. Détecte les conflits avec les règles établies.",
"service_4_title": "ContextPressureMonitor",
"service_4_desc": "Suivi de la complexité des sessions, de l'utilisation des jetons, de la durée des conversations. Détecte la dégradation de la qualité des décisions.",
"service_5_title": "MetacognitiveVerifier",
"service_5_desc": "Valide la qualité du raisonnement avant les opérations complexes. Autocontrôle de l'alignement, de la cohérence, des alternatives.",
"service_6_title": "PluralisticDeliberationOrchestrator",
"service_6_desc": "Facilite les délibérations multipartites en cas de conflit de valeurs. Engagement non hiérarchique avec dissidence documentée."
}
},
"governance_capabilities": {
"heading": "Capacités de Gouvernance",
"intro": "Trois démonstrations interactives montrant l'infrastructure de gouvernance en fonctionnement. Celles-ci montrent des mécanismes, pas des scénarios fictifs.",
"audit_trail_title": "Piste d'Audit & Génération de Preuves de Conformité",
"audit_trail_desc": "Journalisation immuable, extraction de preuves, reporting réglementaire",
"continuous_improvement_title": "Amélioration Continue : Incident → Création de Règles",
"continuous_improvement_desc": "Apprentissage à partir des échecs, génération automatisée de règles, validation",
"pluralistic_deliberation_title": "Délibération Pluraliste : Résolution des Conflits de Valeurs",
"pluralistic_deliberation_desc": "Engagement multi-parties prenantes, processus non hiérarchique, documentation des restes moraux",
"sample_heading": "Exemple de structure de journal d'audit",
"immutability_label": "Immutabilité :",
"immutability_text": "Les journaux d'audit sont stockés dans une base de données en annexe seulement. L'IA ne peut pas modifier ou supprimer des entrées.",
"compliance_label": "Preuves de conformité :",
"compliance_text": "Marquage automatique des exigences réglementaires (article 14 de la loi européenne sur l'IA, article 22 du RGPD, etc.)",
"export_label": "Capacités d'exportation :",
"export_text": "Générer des rapports de conformité pour les régulateurs montrant l'application de la surveillance humaine",
"footer_text": "Lorsque l'autorité de régulation demande comment prouver l'efficacité de la surveillance humaine à grande échelle, cette piste d'audit fournit des preuves structurelles indépendantes de la coopération de l'IA.",
"flow_heading": "Flux d'apprentissage en cas d'incident",
"step_1_desc": "CrossReferenceValidator signale une violation de politique",
"step_2_desc": "Analyse automatisée de l'historique des instructions, de l'état du contexte",
"step_3_desc": "Proposition d'une règle de gouvernance pour éviter que cela ne se reproduise",
"step_4_desc": "Le conseil de gouvernance examine et approuve la nouvelle règle",
"step_5_desc": "Règle ajoutée à la mémoire permanente, active immédiatement",
"example_heading": "Exemple de règle générée",
"learning_label": "Apprentissage organisationnel :",
"learning_text": "Lorsqu'une équipe est confrontée à un problème de gouvernance, l'ensemble de l'organisation bénéficie de règles préventives générées automatiquement. L'extension des connaissances en matière de gouvernance ne nécessite pas de documentation manuelle.",
"conflict_label": "Détection des conflits :",
"conflict_text": "Le système d'IA identifie les valeurs concurrentes dans le contexte de la décision (par exemple, l'efficacité par rapport à la transparence, le coût par rapport à l'atténuation des risques, l'innovation par rapport au respect de la réglementation). Le BoundaryEnforcer bloque la décision autonome et fait appel au PluralisticDeliberationOrchestrator.",
"stakeholder_heading": "Processus d'identification des parties prenantes",
"stakeholder_1": "Détection automatique : Le système identifie les cadres de valeurs qui sont en tension (utilitaire, déontologique, éthique de la vertu, contractualiste, etc.)",
"stakeholder_2": "Cartographie des parties prenantes : Identifie les parties ayant un intérêt légitime dans la décision (parties concernées, experts du domaine, autorités de gouvernance, représentants de la communauté).",
"stakeholder_3": "Approbation humaine : Le conseil de gouvernance examine la liste des parties prenantes, ajoute/supprime le cas échéant (TRA-OPS-0002).",
"deliberation_heading": "Délibération non hiérarchique",
"equal_voice_title": "Une voix égale",
"equal_voice_text": "Toutes les parties prenantes présentent leurs points de vue sans hiérarchisation. Les experts techniques ne prennent pas automatiquement le pas sur les préoccupations de la communauté.",
"dissent_title": "Dissidence documentée",
"dissent_text": "Les positions minoritaires sont enregistrées dans leur intégralité. Les parties prenantes dissidentes peuvent expliquer pourquoi le consensus ne respecte pas leur cadre de valeurs.",
"moral_title": "Le reste moral",
"moral_text": "Le système documente les compromis inévitables en matière de valeurs. Même une décision correcte porte atteinte à d'autres valeurs légitimes.",
"precedent_title": "Précédent (non contraignant)",
"precedent_text": "La décision devient un précédent informatif pour des conflits similaires. Mais les différences de contexte font que les précédents guident, et non dictent.",
"record_heading": "Structure du procès-verbal de délibération",
"key_principle": "Principe clé : en cas de conflit de valeurs légitimes, aucun algorithme ne peut déterminer la \"bonne\" réponse. Le Tractatus fournit une architecture pour les décisions à prendre par le biais d'une délibération inclusive avec une documentation complète des compromis, plutôt que l'IA impose un cadre de valeurs unique ou que le décideur rejette les préoccupations des parties prenantes."
},
"development_status": {
"heading": "État du Développement",
"warning_title": "Cadre de Recherche en Phase Initiale",
"warning_text": "Tractatus est une preuve de concept développée sur six mois dans un contexte de projet unique (ce site web). Il démontre des modèles architecturaux pour la gouvernance de l'IA mais n'a pas subi de validation indépendante, de tests d'équipe rouge ou de déploiement multi-organisationnel.",
"validation_title": "Validé vs Non Validé",
"validated_label": "Validé :",
"validated_text": "Le cadre régit avec succès le code Claude dans les flux de travail de développement. L'utilisateur signale une amélioration de l'ordre de grandeur de la productivité pour les opérateurs non techniques qui construisent des systèmes de production.",
"not_validated_label": "Non validé :",
"not_validated_text": "Performance à l'échelle de l'entreprise, complexité de l'intégration avec les systèmes existants, efficacité contre les messages adverses, cohérence entre les plates-formes.",
"limitation_label": "Limitation connue :",
"limitation_text": "Le cadre peut être contourné si l'IA choisit simplement de ne pas utiliser les outils de gouvernance. L'invocation volontaire reste une faiblesse structurelle nécessitant des mécanismes d'application externes."
},
"eu_ai_act": {
"heading": "Considérations du Règlement Européen sur l'IA",
"article_14_title": "Règlement 2024/1689, Article 14 : Surveillance Humaine",
"intro": "La loi européenne sur l'IA (règlement 2024/1689) établit des exigences de supervision humaine pour les systèmes d'IA à haut risque (article 14). Les organisations doivent s'assurer que les systèmes d'IA sont effectivement supervisés par des personnes physiques ayant le pouvoir d'interrompre ou d'ignorer les résultats de l'IA.",
"addresses": "Le Tractatus aborde cette question par le biais de contrôles architecturaux :",
"bullet_1": "Générer des pistes d'audit immuables documentant les processus décisionnels de l'IA",
"bullet_2": "Renforcer les exigences en matière d'approbation humaine pour les décisions fondées sur des valeurs",
"bullet_3": "Fournir des preuves de l'existence de mécanismes de contrôle indépendants de la coopération avec l'IA",
"bullet_4": "Documenter le respect des obligations de transparence et d'archivage",
"disclaimer": "Il ne s'agit pas d'un avis de conformité juridique. Les organisations doivent évaluer si ces modèles architecturaux sont conformes à leurs obligations réglementaires spécifiques en consultant un conseiller juridique.",
"penalties": "Sanctions maximales prévues par la loi européenne sur l'IA : 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial (le montant le plus élevé étant retenu) pour les pratiques d'IA interdites ; 15 millions d'euros ou 3 % pour les autres violations."
},
"research_foundations": {
"heading": "Fondements de Recherche",
"org_theory_title": "Théorie Organisationnelle & Base Philosophique",
"intro": "Tractatus s'appuie sur plus de 40 ans de recherche en théorie organisationnelle : organisation basée sur le temps (Bluedorn, Ancona), orchestration des connaissances (Crossan), autorité post-bureaucratique (Laloux), inertie structurelle (Hannan Freeman).",
"premise": "Principe de base : lorsque la connaissance devient omniprésente grâce à l'IA, l'autorité doit découler d'un horizon temporel approprié et d'une expertise dans le domaine plutôt que d'une position hiérarchique. Les systèmes de gouvernance doivent orchestrer la prise de décision sur des échelles de temps stratégiques, opérationnelles et tactiques.",
"view_pdf": "Voir les fondements complets de la théorie des organisations (PDF)",
"ai_safety_title": "Recherche sur la sécurité de l'IA : Sauvegardes architecturales contre la domination hiérarchique du LLM",
"ai_safety_desc": "Comment le Tractatus protège les valeurs pluralistes du biais du modèle d'IA tout en maintenant des limites de sécurité.",
"pdf_link": "PDF (EN ANGLAIS)",
"read_online": "Lire en ligne"
},
"scope_limitations": {
"heading": "Portée & Limitations",
"title": "Ce que ce n'est pas • Ce qu'il offre",
"not_title": "Tractatus n'est pas :",
"offers_title": "Ce qu'il offre :",
"not_1": "Une solution de sécurité IA pour tous les contextes",
"not_2": "Validation indépendante ou audit de sécurité",
"not_3": "Testé contre les attaques adverses",
"not_4": "Validé par plusieurs organisations",
"not_5": "Un substitut à l'examen de la conformité juridique",
"not_6": "Un produit commercial (cadre de recherche, licence Apache 2.0)",
"offers_1": "Modèles architecturaux pour les contrôles de gouvernance externe",
"offers_2": "Mise en œuvre de référence démontrant la faisabilité",
"offers_3": "Base pour les pilotes organisationnels et les études de validation",
"offers_4": "Preuve que les approches structurelles de la sécurité de l'IA méritent d'être étudiées"
},
"target_audience": {
"heading": "Public cible",
"primary": "Organisations avec des déploiements d'IA à haute conséquence faisant face à des obligations réglementaires : EU AI Act Article 14 (surveillance humaine), GDPR Article 22 (prise de décision automatisée), SOC 2 CC6.1 (contrôles d'accès logiques), réglementations sectorielles.",
"disclaimer": "Si, dans votre contexte, l'échec de la gouvernance de l'IA a peu de conséquences et est facilement réversible, l'application architecturale ajoute de la complexité sans apporter d'avantages proportionnels. Une gouvernance basée sur des politiques peut être plus appropriée."
},
"governance_assessment": {
"heading": "Gouvernance Théâtre vs. mise en œuvre",
"intro": "De nombreuses organisations disposent d'une gouvernance de l'IA, mais ne la mettent pas en œuvre. La question du diagnostic :",
"question": "\"Qu'est-ce qui empêche structurellement votre IA d'exécuter des décisions relatives aux valeurs sans l'approbation de l'homme ?\"",
"answer_theatre": "Si votre réponse est \"politiques\" ou \"formation\" ou \"processus d'examen\" : Vous avez un théâtre de gouvernance (conformité volontaire)",
"answer_enforcement": "Si votre réponse est \"mécanisme de blocage architectural avec piste d'audit\" : Vous avez l'application (Tractatus est une implémentation)",
"consequence": "Le théâtre peut être acceptable si les défaillances de gouvernance ont peu de conséquences. La mise en œuvre devient pertinente lorsque les défaillances entraînent une exposition à la réglementation, des incidents de sécurité ou un risque existentiel pour l'entreprise.",
"template_link": "Cadre d'évaluation : Modèle d'analyse de rentabilité (PDF)"
}
},
"footer": {
"assessment_resources": "Ressources d'évaluation",
"intro": "Si votre contexte réglementaire ou votre profil de risque suggère que la gouvernance architecturale peut être pertinente, ces ressources soutiennent l'auto-évaluation :",
"business_case": "Modèle d'analyse de rentabilité",
"business_case_desc": "Cadre d'évaluation pour déterminer si la gouvernance architecturale répond à vos obligations réglementaires",
"leadership_questions": "Questions courantes sur le leadership",
"leadership_questions_desc": "Gouvernance : théâtre et application, justification des investissements, cadres d'évaluation des risques",
"technical_docs": "Documentation Technique",
"technical_docs_desc": "Base de la théorie organisationnelle, observations empiriques, études de validation",
"research_foundations": "Fondements de la recherche",
"research_foundations_desc": "Base de la théorie organisationnelle, observations empiriques, études de validation",
"evaluation_note": "Processus d'évaluation : Les organisations qui évaluent Tractatus suivent généralement les étapes suivantes : (1) Examen technique des modèles architecturaux, (2) Déploiement pilote dans un environnement de développement, (3) Validation spécifique au contexte avec un conseiller juridique, (4) Décision si les modèles répondent à des exigences spécifiques en matière de réglementation/risque.",
"contact_note": "Informations sur le projet et coordonnées : Page d'accueil"
}
}