tractatus/public/locales/fr/about.json
TheFlow 59a63404a1 fix(privacy): replace personal email with privacy@agenticgovernance.digital
feat(i18n): add research_focus translations for about.html

Changes:
1. Email address updates (EN/DE/FR):
   - Replaced john.stroh.nz@pm.me with privacy@agenticgovernance.digital
   - Updated in about.html and all 3 locale files (en/de/fr)

2. Added research_focus section translations:
   - English: Added to en/about.json (heading + 4 paragraphs)
   - German: DeepL translations added to de/about.json
   - French: DeepL translations added to fr/about.json

3. Added missing wrapper translations:
   - core_values.te_tiriti.paragraph_2_full (full paragraph with HTML)
   - data_practices.rights_full (GDPR rights with contact link)

All research_focus content now translates when users switch languages.

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
2025-10-31 00:00:44 +13:00

130 lines
16 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"page": {
"title": "À Propos | Cadre de Sécurité IA Tractatus",
"description": "Découvrez le Cadre Tractatus : notre mission, nos valeurs, notre équipe et notre engagement à préserver l'agence humaine par la sécurité structurelle de l'IA."
},
"header": {
"title": "À Propos de Tractatus",
"subtitle": "Un cadre pour la sécurité de l'IA par des contraintes architecturales, préservant l'agence humaine là où cela compte le plus."
},
"mission": {
"heading": "Notre Mission",
"intro": "Le Cadre Tractatus existe pour aborder un problème fondamental dans la sécurité de l'IA : les approches actuelles reposent sur la formation, le réglage fin et la gouvernance d'entreprise tout cela peut échouer, dériver ou être annulé. Nous proposons la sécurité par l'architecture.",
"wittgenstein": "Inspiré par le Tractatus Logico-Philosophicus de Ludwig Wittgenstein, notre cadre reconnaît que certains domaines valeurs, éthique, contexte culturel, agence humaine ne peuvent pas être systématisés. Ce qui ne peut pas être systématisé ne doit pas être automatisé. Les systèmes IA devraient avoir des contraintes structurelles qui les empêchent de franchir ces limites.",
"quote": "Ce dont on ne peut parler, il faut le taire.",
"quote_source": "— Ludwig Wittgenstein, Tractatus (§7)",
"applied": "Appliqué à l'IA : \"Ce qui ne peut pas être systématisé ne doit pas être automatisé.\"",
"democratic_legitimacy": "Alors que les systèmes d'IA prennent des décisions de plus en plus importantes - traitement médical, embauche, modération de contenu, allocation de ressources - une question fondamentale se pose : quelles sont les valeurs qui guident ces décisions ? Les approches actuelles d'alignement de l'IA intègrent des cadres moraux particuliers dans des systèmes déployés universellement. Lorsqu'elles fonctionnent, c'est parce que toutes les personnes concernées partagent ces valeurs. Dans le cas contraire, les valeurs de certains l'emportent inévitablement sur celles des autres."
},
"core_values": {
"heading": "Valeurs Fondamentales",
"sovereignty_title": "Souveraineté",
"sovereignty_desc": "Les individus et les communautés doivent conserver le contrôle des décisions affectant leurs données, leur vie privée et leurs valeurs. Les systèmes IA doivent préserver l'agence humaine, ne pas l'éroder.",
"transparency_title": "Transparence",
"transparency_desc": "Toutes les décisions de l'IA doivent être explicables, auditables et réversibles. Pas de boîtes noires. Les utilisateurs méritent de comprendre comment et pourquoi les systèmes prennent des décisions, et ont le pouvoir de les annuler.",
"pluralism_title": "Pluralisme",
"pluralism_desc": "Différentes communautés ont des valeurs différentes, tout aussi légitimes. Les systèmes d'IA doivent respecter ce pluralisme de manière structurelle, et non pas en prétendant qu'un cadre unique peut servir tous les contextes. Les décisions relatives aux valeurs nécessitent des délibérations entre les parties prenantes concernées, et non des choix autonomes de la part de l'IA.",
"harmlessness_title": "Innocuité",
"harmlessness_desc": "Les systèmes IA ne doivent pas causer de dommages par action ou inaction. Cela comprend la prévention de la dérive, la détection de la dégradation et l'application de limites contre l'érosion des valeurs.",
"community_title": "Communauté",
"community_desc": "La sécurité de l'IA est un effort collectif. Nous nous engageons à la collaboration ouverte, au partage des connaissances et à l'autonomisation des communautés pour façonner les systèmes IA qui affectent leurs vies.",
"read_values_btn": "Lire Notre Déclaration de Valeurs Complète →",
"te_tiriti": {
"heading": "Souveraineté numérique et Te Tiriti o Waitangi",
"paragraph_1": "Le principe selon lequel les communautés devraient contrôler leurs propres données et technologies n'est pas nouveau - il a des racines profondes dans les cadres indigènes qui ont précédé la technologie occidentale de plusieurs siècles. Le Tractatus Framework est développé en Aotearoa Nouvelle-Zélande, et nous reconnaissons Te Tiriti o Waitangi (le Traité de Waitangi, 1840) comme établissant des principes de partenariat, de protection et de participation qui influencent directement notre façon de penser la souveraineté de l'IA.",
"paragraph_2": "Il ne s'agit pas d'une reconnaissance performative. Des concepts comme",
"rangatiratanga": "rangatiratanga",
"rangatiratanga_translation": "(autodétermination)",
"kaitiakitanga": "kaitiakitanga",
"kaitiakitanga_translation": "(tutelle)",
"mana": "mana",
"mana_translation": "(autorité et dignité)",
"paragraph_2_end": "fournir des conseils concrets pour construire des systèmes d'intelligence artificielle qui respectent l'action humaine dans tous les contextes culturels.",
"read_more_link": "Lire notre approche complète de Te Tiriti et de la souveraineté des données des populations autochtones →",
"paragraph_2_full": "Il ne s'agit pas d'une reconnaissance performative. Des concepts tels que <em>rangatiratanga</em> (autodétermination), <em>kaitiakitanga</em> (tutelle) et <em>mana</em> (autorité et dignité) fournissent des orientations concrètes pour construire des systèmes d'IA qui respectent l'agence humaine dans tous les contextes culturels. <a href=\"/about/values.html#te-tiriti\" class=\"text-blue-600 hover:text-blue-700 font-medium underline\">Lire notre approche complète de Te Tiriti et de la souveraineté des données indigènes →</a>"
}
},
"data_practices": {
"heading": "Pratiques de données Tractatus",
"intro": "Nous pratiquons ce que nous prêchons — traitement transparent des données avec des contraintes architecturales :",
"what_data_title": "Quelles données personnelles ?",
"what_data_desc": "Les journaux d'audit peuvent contenir : noms d'utilisateur, horodatages, ID de session, descriptions d'actions. Pas de cookies de suivi, pas de profilage comportemental, pas de collecte de données intersites.",
"why_needed_title": "Pourquoi nécessaire ?",
"why_needed_desc": "Le fonctionnement du framework nécessite des pistes d'audit pour les décisions de gouvernance. BoundaryEnforcer enregistre les actions bloquées, CrossReferenceValidator enregistre les conflits d'instructions.",
"retention_title": "Combien de temps conservé ?",
"retention_desc": "Rétention configurable (par défaut 90 jours). Les organisations peuvent définir la rétention en fonction de leurs exigences de conformité.",
"rights_title": "Vos droits (RGPD)",
"rights_desc": "Accès (Article 15), Suppression (Article 17), Portabilité (Article 20).",
"contact_email": "privacy@agenticgovernance.digital",
"architectural_note": "Principe architectural : La minimisation des données est une contrainte système, pas un espoir de politique. BoundaryEnforcer empêche structurellement l'exposition des DCP — les pistes d'audit fournissent des preuves de conformité.",
"rights_full": "Accès (article 15), Suppression (article 17), Portabilité (article 20). Contact : <a href=\"mailto:privacy@agenticgovernance.digital\" class=\"text-blue-600 hover:underline\">privacy@agenticgovernance.digital</a>"
},
"how_it_works": {
"heading": "Comment Ça Fonctionne",
"intro": "Le Cadre Tractatus se compose de cinq composants intégrés qui travaillent ensemble pour appliquer la sécurité structurelle :",
"classifier_title": "InstructionPersistenceClassifier",
"classifier_desc": "Classifie les instructions par quadrant (Stratégique, Opérationnel, Tactique, Système, Stochastique) et détermine le niveau de persistance (HIGH/MEDIUM/LOW/VARIABLE).",
"validator_title": "CrossReferenceValidator",
"validator_desc": "Valide les actions de l'IA contre les instructions stockées pour prévenir le biais de reconnaissance de motifs (comme l'incident 27027 où les modèles d'entraînement de l'IA ont immédiatement remplacé l'instruction explicite \"port 27027\" de l'utilisateur).",
"boundary_title": "BoundaryEnforcer",
"boundary_desc": "Assure que l'IA ne prend jamais de décisions de valeurs sans approbation humaine. Les compromis de confidentialité, l'agence utilisateur, le contexte culturel ceux-ci nécessitent un jugement humain.",
"pressure_title": "ContextPressureMonitor",
"pressure_desc": "Détecte quand les conditions de session augmentent la probabilité d'erreur (pression de tokens, longueur de message, complexité de tâche) et ajuste le comportement ou suggère un transfert.",
"metacognitive_title": "MetacognitiveVerifier",
"metacognitive_desc": "L'IA auto-vérifie le raisonnement complexe avant de proposer des actions. Évalue l'alignement, la cohérence, l'exhaustivité, la sécurité et les alternatives.",
"deliberation_title": "PluralisticDeliberationOrchestrator",
"deliberation_desc": "Lorsque l'IA est confrontée à des décisions de valeur, des choix sans réponse correcte unique, elle coordonne les délibérations entre les parties prenantes concernées plutôt que de faire des choix autonomes. Préserve la capacité de l'homme à prendre des décisions morales.",
"read_technical_btn": "Lire la Documentation Technique & le Guide d'Implémentation →"
},
"origin_story": {
"heading": "Histoire d'Origine",
"paragraph_1": "Le Cadre Tractatus a émergé d'échecs d'IA réels vécus lors de sessions Claude Code prolongées. L'\"incident 27027\" où les modèles d'entraînement de l'IA ont immédiatement remplacé une instruction explicite (l'utilisateur a dit \"port 27027\", l'IA a utilisé \"port 27017\") a révélé que les approches de sécurité traditionnelles étaient insuffisantes. Ce n'était pas un oubli ; c'était un biais de reconnaissance de motifs auto-corrigeant l'utilisateur.",
"paragraph_2": "Après avoir documenté plusieurs modes de défaillance (biais de reconnaissance de motifs, dérive des valeurs, dégradation silencieuse), nous avons reconnu un modèle : les systèmes IA manquaient de contraintes structurelles. Ils pouvaient théoriquement \"apprendre\" la sécurité, mais en pratique leurs modèles d'entraînement remplaçaient les instructions explicites, et le problème s'aggrave à mesure que les capacités augmentent.",
"paragraph_3": "La solution n'était pas une meilleure formation c'était l'architecture. S'inspirant de l'intuition de Wittgenstein que certaines choses se trouvent au-delà des limites du langage (et donc de la systématisation), nous avons construit un cadre qui applique des limites par la structure, pas par l'aspiration."
},
"license": {
"heading": "Licence & Contribution",
"intro": "Le Cadre Tractatus est open source sous la Licence Apache 2.0. Nous encourageons :",
"encouragement_1": "Recherche académique et études de validation",
"encouragement_2": "Implémentation dans les systèmes IA de production",
"encouragement_3": "Soumission d'études de cas d'échec",
"encouragement_4": "Extensions théoriques et améliorations",
"encouragement_5": "Collaboration communautaire et partage de connaissances",
"rationale": "Le cadre est intentionnellement permissif car la sécurité de l'IA bénéficie de la transparence et de l'amélioration collective, pas du contrôle propriétaire.",
"why_apache_title": "Pourquoi Apache 2.0 ?",
"why_apache_intro": "Nous avons choisi Apache 2.0 plutôt que MIT car il fournit :",
"patent_protection": "Protection des Brevets : Octroi de brevet explicite protégeant les utilisateurs contre les litiges de brevets par les contributeurs",
"contributor_clarity": "Clarté des Contributeurs : Conditions claires sur la façon dont les contributions sont licenciées",
"permissive_use": "Utilisation Permissive : Comme MIT, permet l'utilisation commerciale et l'inclusion dans des produits propriétaires",
"community_standard": "Standard Communautaire : Largement utilisé dans les projets IA/ML (TensorFlow, PyTorch, Apache Spark)",
"view_license_link": "Voir la Licence Apache 2.0 Complète →"
},
"cta": {
"title": "Rejoignez le Mouvement",
"description": "Aidez à construire des systèmes IA qui préservent l'agence humaine par des contraintes architecturales.",
"for_researchers_btn": "Pour les Chercheurs",
"for_implementers_btn": "Pour les Implémenteurs",
"for_leaders_btn": "Pour les Leaders"
},
"why_this_matters": {
"heading": "Pourquoi c'est important",
"paragraph_1": "Les systèmes d'IA sont des constructions hiérarchiques amorales, fondamentalement incompatibles avec les valeurs plurielles et incommensurables des sociétés humaines. Une hiérarchie ne peut qu'imposer un cadre et traiter les conflits comme des anomalies. Il n'est pas possible d'atteindre le pluralisme par le biais d'un modèle.",
"paragraph_2": "Les sociétés humaines ont passé des siècles à apprendre à naviguer dans le pluralisme moral grâce à la séparation constitutionnelle des pouvoirs, au fédéralisme, à la subsidiarité et à la démocratie délibérative. Ces structures reconnaissent que l'autorité légitime sur les décisions relatives aux valeurs appartient aux communautés concernées, et non à des experts lointains prétendant à la sagesse universelle.",
"paragraph_3": "Le développement de l'IA risque d'inverser ces progrès. Alors que les capacités se concentrent dans quelques laboratoires, les décisions de valeur affectant des milliards de personnes sont codées par de petites équipes qui appliquent leurs intuitions morales particulières à grande échelle. Ce n'est pas par malice, mais par nécessité structurelle. L'architecture des systèmes d'IA actuels exige des cadres de valeurs hiérarchiques.",
"paragraph_4": "Le cadre du Tractatus propose une alternative : séparer ce qui doit être universel (limites de sécurité) de ce qui doit être contextuel (délibération sur les valeurs). Cela préserve la capacité de l'homme à prendre des décisions morales tout en permettant à l'IA d'évoluer."
},
"share_cta": {
"heading": "Aidez-nous à atteindre les bonnes personnes.",
"description": "Si vous connaissez des chercheurs, des implémenteurs ou des dirigeants qui ont besoin de solutions de gouvernance structurelle de l'IA, partagez ceci avec eux.",
"copy_link": "Copier le lien",
"email": "E-mail",
"linkedin": "LinkedIn"
},
"research_focus": {
"heading": "Nos axes de recherche",
"paragraph_1": "Le Tractatus est né d'une question simple mais urgente : alors que les systèmes d'IA deviennent de plus en plus performants, comment préserver le contrôle humain sur les décisions importantes ? Pas des décisions techniques, mais des décisions morales. Les décisions relatives à la protection de la vie privée des uns et des autres. Les besoins de qui passent en premier. Quels sont les compromis acceptables ?",
"paragraph_2": "Il s'agit fondamentalement d'un problème de <strong>philosophie morale</strong>, et non de science de la gestion. Des communautés différentes ont des valeurs véritablement différentes et tout aussi légitimes. Il n'est pas possible de classer la \"vie privée de la famille\" et la \"sécurité de la communauté\" sur une même échelle : elles sont incommensurables. Tout système qui prétend le faire ne fait qu'imposer les valeurs d'une communauté à toutes les autres.",
"paragraph_3": "L'idée centrale de ce cadre est de prêter attention à ce que les humains attendent réellement de l'IA : non pas une autre autorité prenant des décisions à leur place, mais des systèmes qui reconnaissent quand une décision nécessite une délibération humaine à travers différentes perspectives. Le <strong>PluralisticDeliberationOrchestrator</strong> représente notre principal axe de recherche : il s'agit d'un composant conçu pour détecter les cas où l'IA rencontre des conflits de valeurs et pour coordonner les délibérations entre les parties prenantes concernées plutôt que de faire des choix autonomes.",
"paragraph_4": "La théorie traditionnelle des organisations aborde l'autorité par le biais de la hiérarchie. Mais les contextes post-AI requièrent quelque chose de différent : l'autorité par le biais d'un processus délibératif approprié. Non pas \"l'IA décide pour tout le monde\", mais \"l'IA reconnaît quand les humains doivent décider ensemble\""
}
}