- Created /source-code.html — sovereign hosting landing page explaining why we left GitHub, how to access the code, and the sovereignty model - Navbar: GitHub link → Source Code link (desktop + mobile) - Footer: GitHub link → Source Code link - Docs sidebar: GitHub section → Source Code section with sovereign repo - Implementer page: all repository links point to /source-code.html, clone instructions updated, CI/CD code example genericised - FAQ: GitHub Discussions button → Contact Us with email icon - FAQ content: all 4 locales (en/de/fr/mi) rewritten to remove GitHub Actions YAML, GitHub URLs, and GitHub-specific patterns - faq.js fallback content: same changes as locale files - agent-lightning integration page: updated to source-code.html - Project model: example URL changed from GitHub to Codeberg - All locale files updated: navbar.github → navbar.source_code, footer GitHub → source_code, FAQ button text updated in 4 languages Zero GitHub references remain in any HTML, JS, or JSON file (only github-dark.min.css theme name in highlight.js CDN reference). Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
182 lines
16 KiB
JSON
182 lines
16 KiB
JSON
{
|
||
"whats_new": {
|
||
"badge": "Mars 2026",
|
||
"heading": "Nouveautés",
|
||
"card1_label": "Nouvelle recherche",
|
||
"card1_title": "Guardian Agents et la philosophie de la responsabilité de l’IA",
|
||
"card1_desc": "Comment Wittgenstein, Berlin, Ostrom et Te Ao Māori convergent vers les mêmes exigences architecturales pour gouverner l’IA dans des contextes communautaires.",
|
||
"card2_label": "Déployé",
|
||
"card2_title": "Guardian Agents en production",
|
||
"card2_desc": "Vérification en quatre phases utilisant la similarité mathématique, et non la vérification générative. Badges de confiance, analyse au niveau des revendications et apprentissage adaptatif — le tout au niveau du locataire.",
|
||
"card3_label": "Étude de cas",
|
||
"card3_title": "Village : Tractatus en production",
|
||
"card3_desc": "Le premier déploiement de la gouvernance constitutionnelle de l’IA dans une plateforme communautaire en direct. Métriques de production, limites énoncées et ce que nous avons appris depuis octobre 2025."
|
||
},
|
||
"hero": {
|
||
"title": "Gouvernance architecturale pour les systèmes d’IA",
|
||
"subtitle": "Certaines décisions requièrent un jugement humain — imposé par l’architecture, et non laissé à l’appréciation de l’IA, aussi bien formée soit-elle.",
|
||
"cta_research": "Lire la recherche",
|
||
"cta_production": "Le voir en production"
|
||
},
|
||
"problem": {
|
||
"heading": "Le problème",
|
||
"intro": "Les approches actuelles en matière de sécurité de l’IA reposent sur la formation, le réglage fin et la gouvernance d’entreprise — autant d’éléments qui peuvent échouer, dériver ou être ignorés. Lorsque les modèles de formation d’une IA entrent en conflit avec les instructions explicites d’un utilisateur, ce sont les modèles qui l’emportent.",
|
||
"incident_title": "L’incident du 27027",
|
||
"incident_text": "Un utilisateur a demandé à Claude Code d’utiliser le port 27027. Le modèle a utilisé 27017 à la place — non pas par oubli, mais parce que le port par défaut de MongoDB est 27017, et que les a priori statistiques du modèle ont “autocorrigé” l’instruction explicite. Le biais du modèle d’entraînement a pris le pas sur l’intention humaine.",
|
||
"corollary_title": "Du code à la conversation : Le même mécanisme",
|
||
"corollary_p1": "Dans le code, ce biais produit des échecs mesurables — mauvais port, connexion refusée, incident enregistré en 14,7 ms. Mais la même faille architecturale est présente dans chaque conversation d’IA, où elle est beaucoup plus difficile à détecter.",
|
||
"corollary_p2": "Lorsqu’un utilisateur issu d’une culture collectiviste demande des conseils sur la famille, le modèle adopte par défaut un cadre individualiste occidental — parce que c’est ce que reflètent 95 % des données d’apprentissage. Lorsqu’un utilisateur Māori pose une question sur la tutelle des données, le modèle propose un langage axé sur les droits de propriété au lieu de <em>kaitiakitanga</em>. Lorsque quelqu’un s’interroge sur les décisions de fin de vie, le modèle propose par défaut le calcul utilitaire plutôt que le cadre religieux ou culturel de l’utilisateur.",
|
||
"corollary_p3": "Le mécanisme est identique : les distributions de données d’apprentissage prennent le pas sur le contexte réel de l’utilisateur. Dans le code, l’échec est binaire et détectable. Dans la conversation, il est graduel et invisible — les conseils culturellement inappropriés ressemblent à de “bons conseils” pour le système, et souvent pour l’utilisateur. Il n’y a pas de CrossReferenceValidator qui l’attrape en 14,7 ms.",
|
||
"corollary_summary": "Le même mécanisme est à l’œuvre dans toutes les conversations d’IA. Lorsqu’un utilisateur issu d’une culture collectiviste demande des conseils sur la famille, le modèle adopte par défaut un cadre individualiste occidental. Lorsqu’un utilisateur Māori s’interroge sur la tutelle des données, le modèle propose un langage axé sur les droits de propriété. La distribution des données d’apprentissage prend le pas sur le contexte de l’utilisateur — dans le code, l’échec est binaire et détectable, dans la conversation, il est graduel et invisible.",
|
||
"corollary_link": "Lire l’analyse complète →",
|
||
"closing": "Il ne s’agit pas d’un cas particulier, et il n’est pas limité au code. Il s’agit d’une catégorie de défaillance qui s’aggrave au fur et à mesure que les modèles deviennent plus performants : des modèles plus forts produisent des dérogations plus sûres — que la dérogation remplace un numéro de port ou un système de valeurs. La sécurité par la formation seule est insuffisante. Le mode de défaillance est structurel, il opère dans tous les domaines où l’IA agit, et la solution doit être structurelle."
|
||
},
|
||
"approach": {
|
||
"heading": "L’approche",
|
||
"subtitle": "Le Tractatus s’appuie sur quatre traditions intellectuelles, chacune apportant un éclairage distinct à l’architecture.",
|
||
"berlin_title": "Isaiah Berlin — Pluralisme des valeurs",
|
||
"berlin_text": "Certaines valeurs sont véritablement incommensurables. Il n’est pas possible de classer la “vie privée” et la “sécurité” sur une même échelle sans imposer les priorités d’une communauté à toutes les autres. Les systèmes d’IA doivent s’adapter à des cadres moraux pluriels, et non les aplatir.",
|
||
"wittgenstein_title": "Ludwig Wittgenstein — Les limites de ce qui peut être dit",
|
||
"wittgenstein_text": "Certaines décisions peuvent être systématisées et déléguées à l’IA ; d’autres — impliquant des valeurs, une éthique, un contexte culturel — ne peuvent fondamentalement pas l’être. La limite entre le “dicible” (ce qui peut être spécifié, mesuré, vérifié) et ce qui se trouve au-delà est la contrainte fondamentale du cadre. Ce qui ne peut être systématisé ne doit pas être automatisé.",
|
||
"tiriti_title": "Te Tiriti o Waitangi — Souveraineté indigène",
|
||
"tiriti_text": "Les communautés devraient contrôler leurs propres données et les systèmes qui les exploitent. Les concepts de <em>rangatiratanga</em> (autodétermination), <em>kaitiakitanga</em> (tutelle) et <em>mana</em> (dignité) constituent l’antériorité séculaire de la souveraineté numérique.",
|
||
"alexander_title": "Christopher Alexander — Architecture vivante",
|
||
"alexander_text": "La gouvernance est intégrée à l’architecture du système, et non pas ajoutée. Cinq principes (non-séparation, imbrication profonde, gradients, préservation de la structure, processus vivant) guident l’évolution du cadre tout en maintenant la cohérence.",
|
||
"download_pdf": "Télécharger : Les fondements philosophiques du projet Village (PDF)"
|
||
},
|
||
"services": {
|
||
"heading": "Architecture de la gouvernance",
|
||
"subtitle": "Six services de gouvernance sur le chemin critique, plus des Guardian Agents qui vérifient chaque réponse de l’IA. Les contournements nécessitent des drapeaux explicites et sont enregistrés.",
|
||
"guardian_title": "Guardian Agents",
|
||
"guardian_badge": "NOUVEAU — Mars 2026",
|
||
"guardian_desc": "Vérification en quatre phases à l’aide de la similarité de cosinus d’intégration — mesure mathématique et non vérification générative. L’observateur opère dans un domaine épistémique fondamentalement différent de celui du système qu’il surveille, ce qui permet d’éviter les défaillances en mode commun.",
|
||
"guardian_p1": "Vérification des réponses",
|
||
"guardian_p2": "Analyse au niveau de l’allégation",
|
||
"guardian_p3": "Détection des anomalies",
|
||
"guardian_p4": "Apprentissage adaptatif",
|
||
"guardian_cta": "Architecture complète des Guardian Agents →",
|
||
"boundary_desc": "Empêche l’IA de prendre des décisions sur les valeurs. Les compromis en matière de protection de la vie privée, les questions éthiques et le contexte culturel requièrent un jugement humain — imposé par l’architecture.",
|
||
"instruction_desc": "Classe les instructions en fonction de leur persistance (HIGH/MEDIUM/LOW) et du quadrant. Les stocke à l’extérieur afin qu’elles ne puissent pas être remplacées par des modèles d’entraînement.",
|
||
"validator_desc": "Valide les actions de l’IA par rapport aux instructions stockées. Lorsque l’IA propose une action qui entre en conflit avec une instruction explicite, c’est cette dernière qui prévaut.",
|
||
"pressure_desc": "Détecte les conditions de fonctionnement dégradées (pression des jetons, taux d’erreur, complexité) et ajuste l’intensité de la vérification. La réponse graduelle prévient à la fois la fatigue de l’alerte et la dégradation silencieuse.",
|
||
"metacognitive_desc": "L’IA vérifie elle-même l’alignement, la cohérence et la sécurité avant l’exécution. Déclenchement sélectif sur les opérations complexes pour éviter les surcharges sur les tâches de routine.",
|
||
"deliberation_desc": "Lorsque l’IA est confrontée à des conflits de valeurs, elle s’arrête et coordonne les délibérations entre les parties prenantes concernées au lieu de faire des choix autonomes.",
|
||
"cta": "Voir l’architecture complète →"
|
||
},
|
||
"evidence": {
|
||
"badge": "Preuves de production",
|
||
"heading": "Le Tractatus en production : La plateforme Village",
|
||
"subtitle": "Village AI applique les six services de gouvernance à chaque interaction avec l’utilisateur sur une plateforme communautaire en direct.",
|
||
"stat_guardian": "Phases de vérification du Guardian par réponse",
|
||
"stat_services": "Services de gouvernance par réponse",
|
||
"stat_months": "Mois en production",
|
||
"stat_overhead": "Frais généraux de gouvernance par interaction",
|
||
"cta_case_study": "Étude de cas technique →",
|
||
"cta_village_ai": "À propos de Village AI →",
|
||
"limitations_label": "Limites :",
|
||
"limitations_text": "Déploiement à un stade précoce à travers quatre locataires fédérés, métriques auto-déclarées, chevauchement opérateur-développeur. Un audit indépendant et une validation plus large sont prévus pour 2026."
|
||
},
|
||
"roles": {
|
||
"heading": "Explorer par rôle",
|
||
"subtitle": "Le cadre est présenté sous trois angles, chacun ayant une profondeur et une orientation distinctes.",
|
||
"researcher_title": "Pour les chercheurs",
|
||
"researcher_subtitle": "Profondeur académique et technique",
|
||
"researcher_f1": "Fondements formels et preuves",
|
||
"researcher_f2": "Analyse des modes de défaillance",
|
||
"researcher_f3": "Questions de recherche ouvertes",
|
||
"researcher_f4": "Données d'audit issues du déploiement en production",
|
||
"researcher_cta": "Explorer la recherche →",
|
||
"implementer_title": "Pour les implémenteurs",
|
||
"implementer_subtitle": "Code et guides d’intégration",
|
||
"implementer_f1": "Exemples de code fonctionnels",
|
||
"implementer_f2": "Modèles d’intégration de l’API",
|
||
"implementer_f3": "Diagrammes d’architecture de services",
|
||
"implementer_f4": "Modèles de déploiement",
|
||
"implementer_cta": "Voir le guide d’implémentation →",
|
||
"leader_title": "Pour les dirigeants",
|
||
"leader_subtitle": "Gouvernance stratégique de l’IA",
|
||
"leader_f1": "Briefing exécutif et analyse de rentabilité",
|
||
"leader_f2": "Alignement réglementaire (EU AI Act)",
|
||
"leader_f3": "Feuille de route pour la mise en œuvre",
|
||
"leader_f4": "Cadre de gestion des risques",
|
||
"leader_cta": "Voir les ressources de leadership →"
|
||
},
|
||
"papers": {
|
||
"heading": "Alignement architectural",
|
||
"subtitle": "Le document de recherche existe en trois éditions, chacune destinée à un public différent.",
|
||
"academic_title": "Universitaire",
|
||
"academic_desc": "Traitement académique complet avec des preuves formelles, un contexte de risque existentiel et des citations complètes.",
|
||
"community_title": "Communauté",
|
||
"community_desc": "Guide pratique destiné aux organisations qui évaluent le cadre en vue de son adoption.",
|
||
"policymakers_title": "Décideurs politiques",
|
||
"policymakers_desc": "Stratégie réglementaire, infrastructure de certification et recommandations politiques.",
|
||
"pdf_label": "Téléchargements PDF :",
|
||
"read_cta": "Lire →",
|
||
"pdf_academic": "Universitaire",
|
||
"pdf_community": "Communauté",
|
||
"pdf_policymakers": "Décideurs politiques"
|
||
},
|
||
"timeline": {
|
||
"heading": "Évolution de la recherche",
|
||
"subtitle": "D’un incident de numéro de port à des Guardian Agents en production — cinq mois, plus de 3 400 commits sur les deux projets.",
|
||
"oct_2025": "Création du cadre & 6 services de gouvernance",
|
||
"oct_nov_2025": "Principes d’Alexander, Agent Lightning, i18n",
|
||
"dec_2025": "Étude de cas Village & déploiement de Village AI",
|
||
"jan_2026": "Articles de recherche (3 éditions) publiés",
|
||
"cta": "Voir la chronologie complète de la recherche →",
|
||
"date_oct_2025": "Oct 2025",
|
||
"date_oct_nov_2025": "Oct-Nov 2025",
|
||
"date_dec_2025": "Déc 2025",
|
||
"date_jan_2026": "Jan 2026",
|
||
"date_feb_2026": "Fév 2026",
|
||
"feb_2026": "Formation à la souveraineté, recherche de vecteurs de direction",
|
||
"date_mar_2026": "Mars 2026",
|
||
"mar_2026": "Déploiement des Guardian Agents, ouverture du pilote bêta"
|
||
},
|
||
"claims": {
|
||
"heading": "Une note sur les affirmations",
|
||
"text": "Il s’agit d’une recherche préliminaire avec un déploiement fédéré à petite échelle entre quatre locataires. Nous présentons des preuves préliminaires et non des résultats avérés. Le cadre n’a pas fait l’objet d’un audit indépendant ou d’un test contradictoire à grande échelle. Lorsque nous présentons des mesures opérationnelles, elles sont auto-déclarées. Nous pensons que l’approche architecturale mérite d’être approfondie, mais nous ne prétendons pas qu’elle soit généralisable au-delà de ce que les preuves confirment. Le",
|
||
"counter_link": "document de contre-arguments",
|
||
"counter_suffix": "répond directement aux critiques prévisibles."
|
||
},
|
||
"koha": {
|
||
"heading": "Koha — Soutenir cette recherche",
|
||
"intro": "<strong>Koha</strong> (koh-hah) est une pratique Māori de don réciproque qui renforce le lien entre celui qui donne et celui qui reçoit. Cette recherche est en libre accès sous Apache 2.0 — si elle a de la valeur pour vous, votre koha en assure la pérennité.",
|
||
"explanation": "Toute la recherche, la documentation et le code restent disponibles gratuitement, quelle que soit la contribution. Koha n’est pas un paiement — c’est une participation à <em>whanaungatanga</em> (établissement de relations) et <em>manaakitanga</em> (soins réciproques).",
|
||
"option_1": "Unique ou mensuel",
|
||
"option_2": "Transparence financière totale",
|
||
"option_3": "Pas de paywall, jamais",
|
||
"cta": "Offrir Koha →",
|
||
"transparency_link": "Voir notre rapport de transparence financière"
|
||
},
|
||
"footer": {
|
||
"about_heading": "Tractatus Framework",
|
||
"about_text": "Contraintes architecturales pour la sécurité de l’IA qui préservent l’agence humaine par une application structurelle et non aspirationnelle.",
|
||
"documentation_heading": "Documentation",
|
||
"documentation_links": {
|
||
"framework_docs": "Docs du cadre",
|
||
"about": "À propos",
|
||
"core_values": "Valeurs fondamentales",
|
||
"interactive_demo": "Démonstration interactive"
|
||
},
|
||
"support_heading": "Support",
|
||
"support_links": {
|
||
"koha": "Support (Koha)",
|
||
"transparency": "Transparence",
|
||
"media_inquiries": "Demandes des médias",
|
||
"submit_case": "Soumettre une étude de cas"
|
||
},
|
||
"legal_heading": "Juridique",
|
||
"legal_links": {
|
||
"privacy": "Politique de confidentialité",
|
||
"contact": "Nous contacter",
|
||
"source_code": "Code source"
|
||
},
|
||
"te_tiriti_label": "Te Tiriti o Waitangi :",
|
||
"te_tiriti_text": "Nous reconnaissons Te Tiriti o Waitangi et notre engagement en faveur du partenariat, de la protection et de la participation. Ce projet respecte la souveraineté des données Māori (rangatiratanga) et la tutelle collective (kaitiakitanga).",
|
||
"copyright": "John G Stroh. Sous licence",
|
||
"license": "Apache 2.0",
|
||
"location": "Fabriqué en Aotearoa Nouvelle-Zélande 🇳🇿"
|
||
},
|
||
"skip_to_content": "Aller au contenu principal"
|
||
}
|