- Added diagram_services section to all three language JSON files - Modified interactive-diagram.js to load translations from i18n system - Added language change event listeners to update modals dynamically - Removed hardcoded English serviceData from JavaScript - Modals now fully translate when language is switched
205 lines
No EOL
16 KiB
JSON
205 lines
No EOL
16 KiB
JSON
{
|
||
"breadcrumb": {
|
||
"home": "Accueil",
|
||
"current": "Architecture"
|
||
},
|
||
"hero": {
|
||
"badge": "🔬 RECHERCHE PRÉCOCE • APPROCHE PROMETTEUSE",
|
||
"title": "Explorer la Sécurité Structurelle de l'IA",
|
||
"subtitle": "Tractatus explore la <strong>gouvernance externe</strong> – des frontières architecturales opérant en dehors de l'exécution de l'IA qui peuvent être plus résistantes à la manipulation adversariale que la formation comportementale seule.",
|
||
"challenge_label": "Le Défi:",
|
||
"challenge_text": "La formation comportementale (Constitutional AI, RLHF) est prometteuse mais peut se dégrader sous prompt adversarial, pression contextuelle ou changement de distribution.",
|
||
"approach_label": "Notre Approche:",
|
||
"approach_text": "L'application architecturale externe qui fonctionne indépendamment du raisonnement interne de l'IA – rendant structurellement plus difficile (bien que pas impossible) le contournement par prompting.",
|
||
"cta_architecture": "Voir l'Architecture",
|
||
"cta_docs": "Lire la Documentation"
|
||
},
|
||
"comparison": {
|
||
"heading": "Pourquoi l'Application Externe Peut Aider",
|
||
"behavioral_title": "Formation Comportementale (Constitutional AI)",
|
||
"structural_title": "Application Structurelle (Tractatus)",
|
||
"hypothesis_title": "L'Hypothèse Centrale",
|
||
"hypothesis_text": "<strong>Les jailbreaks fonctionnent souvent en manipulant le raisonnement interne de l'IA.</strong> Les frontières Tractatus opèrent <em>en externe</em> de ce raisonnement – l'IA n'évalue pas directement les règles de gouvernance. Bien que non infaillible, cette séparation architecturale rend la manipulation beaucoup plus difficile.",
|
||
"behavioral_item1": "Vit <strong>à l'intérieur</strong> du modèle IA – accessible aux prompts adversariaux",
|
||
"behavioral_item2": "Se dégrade sous pression contextuelle et longues conversations",
|
||
"behavioral_item3": "Peut être manipulé par des techniques de jailbreak (DAN, jeux de rôle, hypothétiques)",
|
||
"behavioral_item4": "Dépend de la volonté de l'IA de suivre les orientations",
|
||
"behavioral_item5": "Aucune piste d'audit vérifiable indépendante de l'IA",
|
||
"structural_item1": "Vit <strong>à l'extérieur</strong> du modèle IA – non directement accessible aux prompts",
|
||
"structural_item2": "Les services externes visent une application cohérente quel que soit le contexte",
|
||
"structural_item3": "<em>Plus difficile</em> à contourner – les actions de l'IA passent d'abord par la couche de gouvernance",
|
||
"structural_item4": "Résistant architecturalement à la manipulation via l'état interne de l'IA",
|
||
"structural_item5": "Piste d'audit immuable stockée indépendamment de l'exécution de l'IA"
|
||
},
|
||
"architecture_diagram": {
|
||
"title": "Architecture Agnostique de l'Exécution",
|
||
"subtitle": "Tractatus fonctionne avec <strong>tout système IA agentique</strong> – Claude Code, LangChain, AutoGPT, CrewAI ou agents personnalisés. La couche de gouvernance se situe entre votre agent et ses actions.",
|
||
"layer1_title": "1. Couche d'Exécution Agent",
|
||
"layer1_desc": "Votre agent IA (toute plateforme). Gère la planification, le raisonnement, l'utilisation d'outils. Tractatus est agnostique à l'implémentation.",
|
||
"layer2_title": "2. Couche de Gouvernance",
|
||
"layer2_desc": "Six services externes appliquent les frontières, valident les actions, surveillent la pression. <strong>Architecturalement plus difficile à contourner pour l'IA.</strong>",
|
||
"layer3_title": "3. Stockage Persistant",
|
||
"layer3_desc": "Journaux d'audit immuables, règles de gouvernance, historique des instructions. Indépendant de l'exécution de l'IA – ne peut être modifié par des prompts."
|
||
},
|
||
"services": {
|
||
"heading": "Six Services de Gouvernance",
|
||
"boundary": {
|
||
"name": "Boundary­Enforcer",
|
||
"description": "Empêche l'IA de prendre des décisions de valeurs (confidentialité, éthique, direction stratégique). Nécessite l'approbation humaine.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Frontières de valeurs appliquées en externe – plus difficile à manipuler par prompting."
|
||
},
|
||
"instruction": {
|
||
"name": "Instruction­Persistence­Classifier",
|
||
"description": "Stocke les instructions en externe avec des niveaux de persistance (HIGH/MEDIUM/LOW). Vise à réduire la dérive des directives.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Instructions stockées en dehors de l'IA – plus résistantes à la manipulation contextuelle."
|
||
},
|
||
"validator": {
|
||
"name": "Cross­Reference­Validator",
|
||
"description": "Valide les actions de l'IA contre l'historique des instructions. Vise à empêcher le biais de pattern d'outrepasser les directives explicites.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Vérification indépendante – les affirmations de l'IA sont vérifiées contre une source externe."
|
||
},
|
||
"pressure": {
|
||
"name": "Context­Pressure­Monitor",
|
||
"description": "Surveille la dégradation des performances de l'IA. Escalade lorsque la pression contextuelle menace la qualité.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Les métriques objectives peuvent détecter les tentatives de manipulation tôt."
|
||
},
|
||
"metacognitive": {
|
||
"name": "Metacognitive­Verifier",
|
||
"description": "Exige que l'IA pause et vérifie les opérations complexes avant l'exécution. Vérification de sécurité structurelle.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Les portes architecturales visent à appliquer les étapes de vérification."
|
||
},
|
||
"deliberation": {
|
||
"name": "Pluralistic­Deliberation­Orchestrator",
|
||
"description": "Facilite la délibération multi-parties prenantes pour les conflits de valeurs. L'IA fournit la facilitation, pas l'autorité.",
|
||
"promise": "<strong>Promesse Précoce:</strong> Jugement humain requis – escalade architecturalement appliquée pour les valeurs."
|
||
}
|
||
},
|
||
"interactive": {
|
||
"title": "Explorer l'Architecture de Manière Interactive",
|
||
"subtitle": "Cliquez sur n'importe quel nœud de service ou le noyau central pour voir des informations détaillées sur le fonctionnement de la gouvernance.",
|
||
"tip_label": "Astuce:",
|
||
"tip_text": "Cliquez sur le <span class=\"font-semibold text-cyan-600\">\"T\"</span> central pour voir comment tous les services fonctionnent ensemble",
|
||
"panel_default_title": "Explorer les Services de Gouvernance",
|
||
"panel_default_text": "Cliquez sur n'importe quel nœud de service dans le diagramme (cercles colorés) ou le \"T\" central pour en savoir plus sur la façon dont Tractatus applique la sécurité de l'IA."
|
||
},
|
||
"data_viz": {
|
||
"heading": "Framework en Action",
|
||
"subtitle": "Visualisations interactives démontrant comment les services de gouvernance Tractatus surveillent et coordonnent les opérations de l'IA."
|
||
},
|
||
"production": {
|
||
"heading": "Implémentation de Référence en Production",
|
||
"subtitle": "Tractatus est déployé en production en utilisant <strong>Claude Code</strong> comme runtime d'agent. Cela démontre la viabilité réelle du framework.",
|
||
"implementation_title": "Claude Code + Tractatus",
|
||
"implementation_intro": "Notre déploiement en production utilise Claude Code comme runtime d'agent avec le middleware de gouvernance Tractatus. Cette combinaison fournit:",
|
||
"implementation_results_intro": "Résultats du déploiement en production de 6 mois:",
|
||
"result1": "<strong>95% de persistance des instructions</strong> à travers les frontières de session",
|
||
"result2": "<strong>Zéro violation de frontières de valeurs</strong> dans 127 scénarios de test",
|
||
"result3": "<strong>100% de taux de détection</strong> pour les échecs de biais de pattern",
|
||
"result4": "<strong><10ms de surcharge de performance</strong> pour la couche de gouvernance",
|
||
"disclaimer": "*Déploiement à agent unique. Validation indépendante et réplication multi-organisationnelle nécessaires.",
|
||
"testing_title": "Tests en Conditions Réelles",
|
||
"testing_text1": "<strong>Ce n'est pas que de la théorie.</strong> Tractatus fonctionne en production, gérant de vraies charges de travail et détectant de vrais modèles d'échec.",
|
||
"testing_text2": "Les premiers résultats sont <strong>prometteurs</strong> – avec prévention d'incidents documentée – mais cela nécessite une validation indépendante et des tests beaucoup plus larges.",
|
||
"diagram_link": "Voir le Diagramme d'Implémentation Claude Code →"
|
||
},
|
||
"limitations": {
|
||
"heading": "Limitations et Vérification de la Réalité",
|
||
"intro": "<strong>C'est un travail à un stade précoce.</strong> Bien que nous ayons vu des résultats prometteurs dans notre déploiement en production, Tractatus n'a pas été soumis à des tests adversariaux rigoureux ou à une évaluation d'équipe rouge.",
|
||
"quote": "Nous avons une réelle promesse, mais c'est encore au stade de développement précoce. Cela sonne comme si nous avions complètement résolu le problème, ce n'est pas le cas. Nous avons un long chemin à parcourir et il faudra un effort colossal des développeurs dans toute l'industrie pour dompter efficacement l'IA. Ce n'est qu'un début.",
|
||
"quote_attribution": "— Chef de Projet, Framework Tractatus",
|
||
"known_heading": "Limitations Connues:",
|
||
"limitation1": "<strong>Aucun test d'équipe rouge dédié:</strong> Nous ne savons pas dans quelle mesure ces frontières résistent aux attaques adversariales déterminées.",
|
||
"limitation2": "<strong>Validation à petite échelle:</strong> Six mois d'utilisation en production sur un seul projet. Nécessite une réplication multi-organisationnelle.",
|
||
"limitation3": "<strong>Défis d'intégration:</strong> Rétrofit de la gouvernance dans les systèmes existants nécessite un effort d'ingénierie significatif.",
|
||
"limitation4": "<strong>Performance à l'échelle inconnue:</strong> Tests limités aux déploiements à agent unique. Coordination multi-agents non testée.",
|
||
"limitation5": "<strong>Paysage de menaces évolutif:</strong> À mesure que les capacités de l'IA augmentent, de nouveaux modes d'échec émergeront que l'architecture actuelle peut ne pas aborder.",
|
||
"needs_heading": "Ce Dont Nous Avons Besoin:",
|
||
"need1": "Des chercheurs indépendants pour valider (ou réfuter) nos résultats",
|
||
"need2": "Évaluation d'équipe rouge pour trouver les faiblesses et les techniques de contournement",
|
||
"need3": "Déploiements pilotes multi-organisationnels dans différents domaines",
|
||
"need4": "Collaboration à l'échelle de l'industrie sur les normes et modèles de gouvernance",
|
||
"need5": "Études quantitatives mesurant la réduction des incidents et l'analyse coût-bénéfice",
|
||
"conclusion": "Ce framework est un point de départ pour l'exploration, pas une solution finie. Dompter l'IA nécessitera un effort soutenu de l'ensemble de l'industrie – chercheurs, praticiens, régulateurs et éthiciens travaillant ensemble."
|
||
},
|
||
"cta": {
|
||
"heading": "Explorer une Approche Prometteuse pour la Sécurité de l'IA",
|
||
"subtitle": "Tractatus démontre comment l'application structurelle peut compléter la formation comportementale. Nous invitons les chercheurs et praticiens à évaluer, critiquer et construire sur ce travail.",
|
||
"btn_docs": "Lire la Documentation",
|
||
"btn_research": "Voir la Recherche",
|
||
"btn_implementation": "Guide d'Implémentation"
|
||
},
|
||
"diagram_services": {
|
||
"overview": {
|
||
"name": "Couche de Gouvernance Tractatus",
|
||
"shortName": "Aperçu",
|
||
"description": "Six services de gouvernance externes travaillant ensemble pour appliquer les limites de sécurité de l'IA en dehors du runtime de l'IA.",
|
||
"detail1": "Tous les services opèrent en externe à l'IA – rendant la manipulation plus difficile",
|
||
"detail2": "Le stockage des instructions et la validation travaillent ensemble pour prévenir l'effacement des directives",
|
||
"detail3": "L'application des frontières et la délibération coordonnent les décisions de valeurs",
|
||
"detail4": "La surveillance de la pression ajuste les exigences de vérification de manière dynamique",
|
||
"detail5": "Les portes métacognitives assurent que l'IA marque une pause avant les opérations à haut risque",
|
||
"detail6": "Chaque service adresse un mode de défaillance différent dans la sécurité de l'IA",
|
||
"promise": "Application architecturale externe structurellement plus difficile à contourner que la formation comportementale seule."
|
||
},
|
||
"boundary": {
|
||
"name": "BoundaryEnforcer",
|
||
"shortName": "Frontière",
|
||
"description": "Empêche l'IA de prendre des décisions de valeurs (confidentialité, éthique, direction stratégique). Nécessite l'approbation humaine.",
|
||
"detail1": "Applique les limites Tractatus 12.1-12.7",
|
||
"detail2": "Les décisions de valeurs nécessitent architecturalement des humains",
|
||
"detail3": "Empêche la prise de décision autonome de l'IA sur les questions éthiques",
|
||
"detail4": "Application externe - plus difficile à contourner via prompting",
|
||
"promise": "Frontières de valeurs appliquées en externe – plus difficile à manipuler par prompting."
|
||
},
|
||
"instruction": {
|
||
"name": "InstructionPersistenceClassifier",
|
||
"shortName": "Instruction",
|
||
"description": "Stocke les instructions en externe avec des niveaux de persistance (HIGH/MEDIUM/LOW). Vise à réduire l'effacement des directives.",
|
||
"detail1": "Classification basée sur les quadrants (STR/OPS/TAC/SYS/STO)",
|
||
"detail2": "Étiquetage de métadonnées de persistance temporelle",
|
||
"detail3": "Modélisation d'horizon temporel (STRATEGIC, OPERATIONAL, TACTICAL)",
|
||
"detail4": "Stockage externe indépendant du runtime de l'IA",
|
||
"promise": "Instructions stockées en dehors de l'IA – plus résistantes à la manipulation contextuelle."
|
||
},
|
||
"validator": {
|
||
"name": "CrossReferenceValidator",
|
||
"shortName": "Validateur",
|
||
"description": "Valide les actions de l'IA contre l'historique des instructions. Vise à empêcher le biais de pattern de remplacer les directives explicites.",
|
||
"detail1": "Vérifie les affirmations de l'IA avec l'historique des instructions externe",
|
||
"detail2": "Détecte les remplacements basés sur les patterns des directives utilisateur explicites",
|
||
"detail3": "Couche de vérification indépendante",
|
||
"detail4": "Aide à prévenir la dérive des instructions",
|
||
"promise": "Vérification indépendante – affirmations de l'IA vérifiées contre une source externe."
|
||
},
|
||
"pressure": {
|
||
"name": "ContextPressureMonitor",
|
||
"shortName": "Pression",
|
||
"description": "Surveille la dégradation des performances de l'IA. Escalade lorsque la pression contextuelle menace la qualité.",
|
||
"detail1": "Suit l'utilisation des tokens, la complexité, les taux d'erreur",
|
||
"detail2": "Détecte les conditions de fonctionnement dégradées",
|
||
"detail3": "Ajuste les exigences de vérification sous pression",
|
||
"detail4": "Métriques objectives pour le suivi de la qualité",
|
||
"promise": "Les métriques objectives peuvent détecter les tentatives de manipulation tôt."
|
||
},
|
||
"metacognitive": {
|
||
"name": "MetacognitiveVerifier",
|
||
"shortName": "Métacognitif",
|
||
"description": "Exige que l'IA pause et vérifie les opérations complexes avant l'exécution. Vérification de sécurité structurelle.",
|
||
"detail1": "L'IA vérifie elle-même l'alignement, la cohérence, la sécurité avant l'exécution",
|
||
"detail2": "Portes structurelles de pause et vérification",
|
||
"detail3": "Vérification sélective (pas constante)",
|
||
"detail4": "Application architecturale des étapes de réflexion",
|
||
"promise": "Les portes architecturales visent à appliquer les étapes de vérification."
|
||
},
|
||
"deliberation": {
|
||
"name": "PluralisticDeliberationOrchestrator",
|
||
"shortName": "Délibération",
|
||
"description": "Facilite la délibération multi-parties prenantes pour les conflits de valeurs où aucune réponse \"correcte\" unique n'existe.",
|
||
"detail1": "Coordination non hiérarchique pour les conflits de valeurs",
|
||
"detail2": "Représentation des perspectives des parties prenantes",
|
||
"detail3": "Construction de consensus pour les compromis éthiques",
|
||
"detail4": "Adresse le pluralisme des valeurs dans la sécurité de l'IA",
|
||
"promise": "Facilite la délibération à travers les perspectives des parties prenantes pour les conflits de valeurs."
|
||
}
|
||
}
|
||
} |