- 57 files modified, 5 files renamed (home-ai → village-ai) - HTML pages: all user-facing text, data-i18n attributes, anchor IDs, CSS classes - i18n JSON: keys (home_ai → village_ai) and values across en/de/fr/mi - Locale files renamed: home-ai.json → village-ai.json (4 languages) - Main page renamed: home-ai.html → village-ai.html - Research downloads: translated terms updated (French "IA domestique", Māori "AI ā-whare"/"AI kāinga" → "Village AI" per brand name rule) - JavaScript: navbar component, blog post scripts - Markdown: research timeline, steering vectors paper, taonga paper Aligns with community codebase rename (commit 21ab7bc0). "Village" is a brand name — stays untranslated in all languages. Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
155 lines
14 KiB
JSON
155 lines
14 KiB
JSON
{
|
||
"hero": {
|
||
"title": "Gouvernance architecturale pour les systèmes d’IA",
|
||
"subtitle": "Certaines décisions requièrent un jugement humain — imposé par l’architecture, et non laissé à l’appréciation de l’IA, aussi bien formée soit-elle.",
|
||
"cta_research": "Lire la recherche",
|
||
"cta_production": "Le voir en production"
|
||
},
|
||
"problem": {
|
||
"heading": "Le problème",
|
||
"intro": "Les approches actuelles en matière de sécurité de l’IA reposent sur la formation, le réglage fin et la gouvernance d’entreprise — autant d’éléments qui peuvent échouer, dériver ou être ignorés. Lorsque les modèles de formation d’une IA entrent en conflit avec les instructions explicites d’un utilisateur, ce sont les modèles qui l’emportent.",
|
||
"incident_title": "L’incident du 27027",
|
||
"incident_text": "Un utilisateur a demandé à Claude Code d’utiliser le port 27027. Le modèle a utilisé 27017 à la place — non pas par oubli, mais parce que le port par défaut de MongoDB est 27017, et que les a priori statistiques du modèle ont “autocorrigé” l’instruction explicite. Le biais du modèle d’entraînement a pris le pas sur l’intention humaine.",
|
||
"corollary_title": "Du code à la conversation : Le même mécanisme",
|
||
"corollary_p1": "Dans le code, ce biais produit des échecs mesurables — mauvais port, connexion refusée, incident enregistré en 14,7 ms. Mais la même faille architecturale est présente dans chaque conversation d’IA, où elle est beaucoup plus difficile à détecter.",
|
||
"corollary_p2": "Lorsqu’un utilisateur issu d’une culture collectiviste demande des conseils sur la famille, le modèle adopte par défaut un cadre individualiste occidental — parce que c’est ce que reflètent 95 % des données d’apprentissage. Lorsqu’un utilisateur Māori pose une question sur la tutelle des données, le modèle propose un langage axé sur les droits de propriété au lieu de <em>kaitiakitanga</em>. Lorsque quelqu’un s’interroge sur les décisions de fin de vie, le modèle propose par défaut le calcul utilitaire plutôt que le cadre religieux ou culturel de l’utilisateur.",
|
||
"corollary_p3": "Le mécanisme est identique : les distributions de données d’apprentissage prennent le pas sur le contexte réel de l’utilisateur. Dans le code, l’échec est binaire et détectable. Dans la conversation, il est graduel et invisible — les conseils culturellement inappropriés ressemblent à de “bons conseils” pour le système, et souvent pour l’utilisateur. Il n’y a pas de CrossReferenceValidator qui l’attrape en 14,7 ms.",
|
||
"corollary_link": "Lire l’analyse complète →",
|
||
"closing": "Il ne s’agit pas d’un cas particulier, et il n’est pas limité au code. Il s’agit d’une catégorie de défaillance qui s’aggrave au fur et à mesure que les modèles deviennent plus performants : des modèles plus forts produisent des dérogations plus sûres — que la dérogation remplace un numéro de port ou un système de valeurs. La sécurité par la formation seule est insuffisante. Le mode de défaillance est structurel, il opère dans tous les domaines où l’IA agit, et la solution doit être structurelle."
|
||
},
|
||
"approach": {
|
||
"heading": "L’approche",
|
||
"subtitle": "Le Tractatus s’appuie sur quatre traditions intellectuelles, chacune apportant un éclairage distinct à l’architecture.",
|
||
"berlin_title": "Isaiah Berlin — Pluralisme des valeurs",
|
||
"berlin_text": "Certaines valeurs sont véritablement incommensurables. Il n’est pas possible de classer la “vie privée” et la “sécurité” sur une même échelle sans imposer les priorités d’une communauté à toutes les autres. Les systèmes d’IA doivent s’adapter à des cadres moraux pluriels, et non les aplatir.",
|
||
"wittgenstein_title": "Ludwig Wittgenstein — Les limites de ce qui peut être dit",
|
||
"wittgenstein_text": "Certaines décisions peuvent être systématisées et déléguées à l’IA ; d’autres — impliquant des valeurs, une éthique, un contexte culturel — ne peuvent fondamentalement pas l’être. La limite entre le “dicible” (ce qui peut être spécifié, mesuré, vérifié) et ce qui se trouve au-delà est la contrainte fondamentale du cadre. Ce qui ne peut être systématisé ne doit pas être automatisé.",
|
||
"tiriti_title": "Te Tiriti o Waitangi — Souveraineté indigène",
|
||
"tiriti_text": "Les communautés devraient contrôler leurs propres données et les systèmes qui les exploitent. Les concepts de <em>rangatiratanga</em> (autodétermination), <em>kaitiakitanga</em> (tutelle) et <em>mana</em> (dignité) constituent l’antériorité séculaire de la souveraineté numérique.",
|
||
"alexander_title": "Christopher Alexander — Architecture vivante",
|
||
"alexander_text": "La gouvernance est intégrée à l’architecture du système, et non pas ajoutée. Cinq principes (non-séparation, imbrication profonde, gradients, préservation de la structure, processus vivant) guident l’évolution du cadre tout en maintenant la cohérence.",
|
||
"download_pdf": "Télécharger : Les fondements philosophiques du projet Village (PDF)"
|
||
},
|
||
"services": {
|
||
"heading": "Six services de gouvernance",
|
||
"subtitle": "Chaque action d’IA passe par six services externes avant d’être exécutée. La gouvernance opère sur le chemin critique — les contournements nécessitent des drapeaux explicites et sont enregistrés.",
|
||
"boundary_desc": "Empêche l’IA de prendre des décisions sur les valeurs. Les compromis en matière de protection de la vie privée, les questions éthiques et le contexte culturel requièrent un jugement humain — imposé par l’architecture.",
|
||
"instruction_desc": "Classe les instructions en fonction de leur persistance (HIGH/MEDIUM/LOW) et du quadrant. Les stocke à l’extérieur afin qu’elles ne puissent pas être remplacées par des modèles d’entraînement.",
|
||
"validator_desc": "Valide les actions de l’IA par rapport aux instructions stockées. Lorsque l’IA propose une action qui entre en conflit avec une instruction explicite, c’est cette dernière qui prévaut.",
|
||
"pressure_desc": "Détecte les conditions de fonctionnement dégradées (pression des jetons, taux d’erreur, complexité) et ajuste l’intensité de la vérification. La réponse graduelle prévient à la fois la fatigue de l’alerte et la dégradation silencieuse.",
|
||
"metacognitive_desc": "L’IA vérifie elle-même l’alignement, la cohérence et la sécurité avant l’exécution. Déclenchement sélectif sur les opérations complexes pour éviter les surcharges sur les tâches de routine.",
|
||
"deliberation_desc": "Lorsque l’IA est confrontée à des conflits de valeurs, elle s’arrête et coordonne les délibérations entre les parties prenantes concernées au lieu de faire des choix autonomes.",
|
||
"cta": "Voir l’architecture complète →"
|
||
},
|
||
"evidence": {
|
||
"badge": "Preuves de production",
|
||
"heading": "Le Tractatus en production : La plateforme Village",
|
||
"subtitle": "Village AI applique les six services de gouvernance à chaque interaction avec l’utilisateur sur une plateforme communautaire en direct.",
|
||
"stat_services": "Services de gouvernance par réponse",
|
||
"stat_months": "Mois en production",
|
||
"stat_overhead": "Frais généraux de gouvernance par interaction",
|
||
"cta_case_study": "Étude de cas technique →",
|
||
"cta_village_ai": "À propos de Village AI →",
|
||
"limitations_label": "Limites :",
|
||
"limitations_text": "Déploiement à un stade précoce à travers quatre locataires fédérés, métriques auto-déclarées, chevauchement opérateur-développeur. Un audit indépendant et une validation plus large sont prévus pour 2026."
|
||
},
|
||
"roles": {
|
||
"heading": "Explorer par rôle",
|
||
"subtitle": "Le cadre est présenté sous trois angles, chacun ayant une profondeur et une orientation distinctes.",
|
||
"researcher_title": "Pour les chercheurs",
|
||
"researcher_subtitle": "Profondeur académique et technique",
|
||
"researcher_f1": "Fondements formels et preuves",
|
||
"researcher_f2": "Analyse des modes de défaillance",
|
||
"researcher_f3": "Questions de recherche ouvertes",
|
||
"researcher_f4": "171 800+ décisions d'audit analysées",
|
||
"researcher_cta": "Explorer la recherche →",
|
||
"implementer_title": "Pour les implémenteurs",
|
||
"implementer_subtitle": "Code et guides d’intégration",
|
||
"implementer_f1": "Exemples de code fonctionnels",
|
||
"implementer_f2": "Modèles d’intégration de l’API",
|
||
"implementer_f3": "Diagrammes d’architecture de services",
|
||
"implementer_f4": "Modèles de déploiement",
|
||
"implementer_cta": "Voir le guide d’implémentation →",
|
||
"leader_title": "Pour les dirigeants",
|
||
"leader_subtitle": "Gouvernance stratégique de l’IA",
|
||
"leader_f1": "Briefing exécutif et analyse de rentabilité",
|
||
"leader_f2": "Alignement réglementaire (EU AI Act)",
|
||
"leader_f3": "Feuille de route pour la mise en œuvre",
|
||
"leader_f4": "Cadre de gestion des risques",
|
||
"leader_cta": "Voir les ressources de leadership →"
|
||
},
|
||
"papers": {
|
||
"heading": "Alignement architectural",
|
||
"subtitle": "Le document de recherche existe en trois éditions, chacune destinée à un public différent.",
|
||
"academic_title": "Universitaire",
|
||
"academic_desc": "Traitement académique complet avec des preuves formelles, un contexte de risque existentiel et des citations complètes.",
|
||
"community_title": "Communauté",
|
||
"community_desc": "Guide pratique destiné aux organisations qui évaluent le cadre en vue de son adoption.",
|
||
"policymakers_title": "Décideurs politiques",
|
||
"policymakers_desc": "Stratégie réglementaire, infrastructure de certification et recommandations politiques.",
|
||
"pdf_label": "Téléchargements PDF :",
|
||
"read_cta": "Lire →",
|
||
"pdf_academic": "Universitaire",
|
||
"pdf_community": "Communauté",
|
||
"pdf_policymakers": "Décideurs politiques"
|
||
},
|
||
"timeline": {
|
||
"heading": "Évolution de la recherche",
|
||
"subtitle": "D’un incident de numéro de port à une architecture de gouvernance de production, à travers 800 commits et un an de recherche.",
|
||
"oct_2025": "Création du cadre & 6 services de gouvernance",
|
||
"oct_nov_2025": "Principes d’Alexander, Agent Lightning, i18n",
|
||
"dec_2025": "Étude de cas Village & déploiement de Village AI",
|
||
"jan_2026": "Articles de recherche (3 éditions) publiés",
|
||
"cta": "Voir la chronologie complète de la recherche →",
|
||
"date_oct_2025": "Oct 2025",
|
||
"date_oct_nov_2025": "Oct-Nov 2025",
|
||
"date_dec_2025": "Déc 2025",
|
||
"date_jan_2026": "Jan 2026"
|
||
},
|
||
"claims": {
|
||
"heading": "Une note sur les affirmations",
|
||
"text": "Il s’agit d’une recherche préliminaire avec un déploiement fédéré à petite échelle entre quatre locataires. Nous présentons des preuves préliminaires et non des résultats avérés. Le cadre n’a pas fait l’objet d’un audit indépendant ou d’un test contradictoire à grande échelle. Lorsque nous présentons des mesures opérationnelles, elles sont auto-déclarées. Nous pensons que l’approche architecturale mérite d’être approfondie, mais nous ne prétendons pas qu’elle soit généralisable au-delà de ce que les preuves confirment. Le",
|
||
"counter_link": "document de contre-arguments",
|
||
"counter_suffix": "répond directement aux critiques prévisibles."
|
||
},
|
||
"koha": {
|
||
"heading": "Koha — Soutenir cette recherche",
|
||
"intro": "<strong>Koha</strong> (koh-hah) est une pratique Māori de don réciproque qui renforce le lien entre celui qui donne et celui qui reçoit. Cette recherche est en libre accès sous Apache 2.0 — si elle a de la valeur pour vous, votre koha en assure la pérennité.",
|
||
"explanation": "Toute la recherche, la documentation et le code restent disponibles gratuitement, quelle que soit la contribution. Koha n’est pas un paiement — c’est une participation à <em>whanaungatanga</em> (établissement de relations) et <em>manaakitanga</em> (soins réciproques).",
|
||
"option_1": "Unique ou mensuel",
|
||
"option_2": "Transparence financière totale",
|
||
"option_3": "Pas de paywall, jamais",
|
||
"cta": "Offrir Koha →",
|
||
"transparency_link": "Voir notre rapport de transparence financière"
|
||
},
|
||
"footer": {
|
||
"about_heading": "Tractatus Framework",
|
||
"about_text": "Contraintes architecturales pour la sécurité de l’IA qui préservent l’agence humaine par une application structurelle et non aspirationnelle.",
|
||
"documentation_heading": "Documentation",
|
||
"documentation_links": {
|
||
"framework_docs": "Docs du cadre",
|
||
"about": "À propos",
|
||
"core_values": "Valeurs fondamentales",
|
||
"interactive_demo": "Démonstration interactive"
|
||
},
|
||
"support_heading": "Support",
|
||
"support_links": {
|
||
"koha": "Support (Koha)",
|
||
"transparency": "Transparence",
|
||
"media_inquiries": "Demandes des médias",
|
||
"submit_case": "Soumettre une étude de cas"
|
||
},
|
||
"legal_heading": "Juridique",
|
||
"legal_links": {
|
||
"privacy": "Politique de confidentialité",
|
||
"contact": "Nous contacter",
|
||
"github": "GitHub"
|
||
},
|
||
"te_tiriti_label": "Te Tiriti o Waitangi :",
|
||
"te_tiriti_text": "Nous reconnaissons Te Tiriti o Waitangi et notre engagement en faveur du partenariat, de la protection et de la participation. Ce projet respecte la souveraineté des données Māori (rangatiratanga) et la tutelle collective (kaitiakitanga).",
|
||
"copyright": "John G Stroh. Sous licence",
|
||
"license": "Apache 2.0",
|
||
"location": "Fabriqué en Aotearoa Nouvelle-Zélande 🇳🇿"
|
||
},
|
||
"skip_to_content": "Aller au contenu principal"
|
||
}
|