- Added share section with Copy Link, Email, LinkedIn buttons - Translations: EN, DE, FR (Option 3: 'Help us reach the right people') - CSP-compliant JavaScript (no inline handlers) - Professional gray styling, no marketing circus - Target: researchers, implementers, leaders needing AI governance solutions
142 lines
9.5 KiB
JSON
142 lines
9.5 KiB
JSON
{
|
|
"hero": {
|
|
"title": "Framework de Sécurité IA Tractatus",
|
|
"subtitle": "Contraintes structurelles qui obligent les systèmes d'IA à préserver l'agence humaine pour les décisions de valeurs—testé avec Claude Code",
|
|
"cta_architecture": "Architecture du Système",
|
|
"cta_docs": "Lire la Documentation",
|
|
"cta_faq": "FAQ"
|
|
},
|
|
"value_prop": {
|
|
"heading": "Un Point de Départ",
|
|
"text": "L'alignement de l'IA avancée avec les valeurs humaines est parmi les défis les plus importants auxquels nous sommes confrontés. Alors que la croissance des capacités s'accélère sous l'élan des grandes entreprises technologiques, nous affrontons un impératif catégorique : préserver l'autonomie humaine sur les décisions de valeurs, ou risquer de céder complètement le contrôle.<br><br>Au lieu d'espérer que les systèmes d'IA \"se comportent correctement\", nous proposons des contraintes structurelles où certains types de décisions nécessitent un jugement humain. Ces limites architecturales peuvent s'adapter aux normes individuelles, organisationnelles et sociétales—créant une fondation pour une opération d'IA délimitée qui pourrait évoluer plus sûrement avec la croissance des capacités.<br><br>Si cette approche peut fonctionner à grande échelle, Tractatus pourrait représenter un tournant—un chemin où l'IA améliore la capacité humaine sans compromettre la souveraineté humaine. Explorez le framework à travers la perspective qui résonne avec votre travail."
|
|
},
|
|
"paths": {
|
|
"intro": "",
|
|
"researcher": {
|
|
"title": "Chercheur",
|
|
"subtitle": "Profondeur académique & technique",
|
|
"tooltip": "Pour les chercheurs en sécurité IA, universitaires et scientifiques qui étudient les modes de défaillance des LLM et les architectures de gouvernance",
|
|
"description": "Explorez les fondements théoriques, les contraintes architecturales et le contexte académique du framework Tractatus.",
|
|
"features": [
|
|
"Spécifications techniques & preuves",
|
|
"Revue de la recherche académique",
|
|
"Analyse des modes de défaillance",
|
|
"Fondements mathématiques"
|
|
],
|
|
"cta": "Explorer la Recherche"
|
|
},
|
|
"implementer": {
|
|
"title": "Implémenteur",
|
|
"subtitle": "Guides de code & d'intégration",
|
|
"tooltip": "Pour les ingénieurs logiciels, ingénieurs ML et équipes techniques qui construisent des systèmes d'IA en production",
|
|
"description": "Travaillez concrètement avec des guides d'implémentation, de la documentation API et des exemples de code de référence.",
|
|
"features": [
|
|
"Exemples de code fonctionnels",
|
|
"Modèles d'intégration API",
|
|
"Diagrammes d'architecture de service",
|
|
"Meilleures pratiques de déploiement"
|
|
],
|
|
"cta": "Voir le Guide d'Implémentation"
|
|
},
|
|
"leader": {
|
|
"title": "Leader",
|
|
"subtitle": "Sécurité IA Stratégique",
|
|
"tooltip": "Pour les dirigeants d'IA, directeurs de recherche, fondateurs de startups et décideurs stratégiques qui établissent la politique de sécurité IA",
|
|
"description": "Naviguez dans le cas d'affaires, les exigences de conformité et les avantages concurrentiels de la sécurité IA structurelle.",
|
|
"features": [
|
|
"Briefing exécutif & cas d'affaires",
|
|
"Gestion des risques & conformité (EU AI Act)",
|
|
"Feuille de route d'implémentation & ROI",
|
|
"Analyse de l'avantage concurrentiel"
|
|
],
|
|
"cta": "Voir les Ressources Leadership"
|
|
}
|
|
},
|
|
"capabilities": {
|
|
"heading": "Capacités du Framework",
|
|
"items": [
|
|
{
|
|
"title": "Classification des Instructions",
|
|
"description": "Classification basée sur des quadrants (STR/OPS/TAC/SYS/STO) avec étiquetage de métadonnées de persistence temporelle"
|
|
},
|
|
{
|
|
"title": "Validation Croisée",
|
|
"description": "Valide les actions de l'IA contre les instructions explicites de l'utilisateur pour empêcher les remplacements basés sur des motifs"
|
|
},
|
|
{
|
|
"title": "Application des Frontières",
|
|
"description": "Implémente les frontières Tractatus 12.1-12.7 - les décisions de valeurs nécessitent architecturalement des humains"
|
|
},
|
|
{
|
|
"title": "Surveillance de la Pression",
|
|
"description": "Détecte les conditions de fonctionnement dégradées (pression de jetons, erreurs, complexité) et ajuste la vérification"
|
|
},
|
|
{
|
|
"title": "Vérification Métacognitive",
|
|
"description": "L'IA auto-vérifie l'alignement, la cohérence, la sécurité avant l'exécution - pause-et-vérification structurelle"
|
|
},
|
|
{
|
|
"title": "Délibération Pluraliste",
|
|
"description": "Délibération de valeurs multi-parties prenantes sans hiérarchie - facilite la prise de décision humaine pour les valeurs incommensurables"
|
|
}
|
|
]
|
|
},
|
|
"validation": {
|
|
"heading": "Validation en Conditions Réelles",
|
|
"performance_evidence": {
|
|
"heading": "Preuves Préliminaires : Sécurité et Performance Pourraient Être Alignées",
|
|
"paragraph_1": "Le déploiement en production révèle un schéma inattendu : <strong>les contraintes structurelles semblent améliorer la fiabilité de l'IA plutôt que de la limiter</strong>. Les utilisateurs rapportent avoir accompli en une session gouvernée ce qui nécessitait auparavant 3 à 5 tentatives avec Claude Code non gouverné—obtenant des taux d'erreur nettement inférieurs et des résultats de meilleure qualité sous gouvernance architecturale.",
|
|
"paragraph_2": "Le mécanisme semble être la <strong>prévention de conditions de fonctionnement dégradées</strong> : les limites architecturales arrêtent les échecs de pression contextuelle, la dérive d'instruction et les remplacements basés sur des motifs avant qu'ils ne se transforment en erreurs mettant fin à la session. En maintenant l'intégrité opérationnelle tout au long des longues interactions, le framework crée les conditions pour une production soutenue de haute qualité.",
|
|
"paragraph_3": "<strong>Si ce schéma se confirme à grande échelle</strong>, il remet en question une hypothèse fondamentale bloquant l'adoption de la sécurité de l'IA—que les mesures de gouvernance échangent la performance contre la sécurité. Au lieu de cela, ces résultats suggèrent que les contraintes structurelles pourraient être un chemin vers des systèmes d'IA <em>à la fois</em> plus sûrs <em>et</em> plus capables. La validation statistique est en cours.",
|
|
"methodology_note": "<strong>Note méthodologique :</strong> Résultats basés sur des rapports qualitatifs d'utilisateurs provenant du déploiement en production. Des expériences contrôlées et la collecte de métriques quantitatives sont prévues pour la phase de validation."
|
|
},
|
|
"case_27027": {
|
|
"badge": "Incident de Biais de Motif",
|
|
"type": "Démo Interactive",
|
|
"title": "L'Incident 27027",
|
|
"description": "Incident de production réel où Claude Code a utilisé par défaut le port 27017 (motif d'entraînement) malgré l'instruction explicite de l'utilisateur d'utiliser le port 27027. Le CrossReferenceValidator a détecté le conflit et bloqué l'exécution—démontrant comment la reconnaissance de motifs peut remplacer les instructions sous pression contextuelle.",
|
|
"why_matters": "Pourquoi c'est important : Ce mode de défaillance s'aggrave à mesure que les modèles s'améliorent—une reconnaissance de motifs plus forte signifie une tendance de remplacement plus forte. Les contraintes architecturales restent nécessaires quel que soit le niveau de capacité.",
|
|
"cta": "Voir la Démo Interactive"
|
|
},
|
|
"resources": {
|
|
"text": "Études de cas supplémentaires et résultats de recherche documentés dans des articles techniques",
|
|
"cta": "Parcourir les Études de Cas →"
|
|
}
|
|
},
|
|
"share_cta": {
|
|
"heading": "Aidez-nous à atteindre les bonnes personnes.",
|
|
"description": "Si vous connaissez des chercheurs, des implémenteurs ou des dirigeants qui ont besoin de solutions de gouvernance structurelle de l'IA, partagez ceci avec eux.",
|
|
"copy_link": "Copier le lien",
|
|
"email": "E-mail",
|
|
"linkedin": "LinkedIn"
|
|
},
|
|
"footer": {
|
|
"about_heading": "Tractatus Framework",
|
|
"about_text": "Contraintes architecturales pour la sécurité de l'IA qui préservent l'autonomie humaine par des garanties structurelles, et non aspirationnelles.",
|
|
"documentation_heading": "Documentation",
|
|
"documentation_links": {
|
|
"framework_docs": "Documentation du Framework",
|
|
"about": "À propos",
|
|
"core_values": "Valeurs fondamentales",
|
|
"interactive_demo": "Démo interactive"
|
|
},
|
|
"support_heading": "Support",
|
|
"support_links": {
|
|
"koha": "Support (Koha)",
|
|
"transparency": "Transparence",
|
|
"media_inquiries": "Demandes des médias",
|
|
"submit_case": "Soumettre une étude de cas"
|
|
},
|
|
"legal_heading": "Légal",
|
|
"legal_links": {
|
|
"privacy": "Politique de confidentialité",
|
|
"contact": "Nous contacter",
|
|
"github": "GitHub"
|
|
},
|
|
"te_tiriti_label": "Te Tiriti o Waitangi :",
|
|
"te_tiriti_text": "Nous reconnaissons Te Tiriti o Waitangi et notre engagement envers le partenariat, la protection et la participation. Ce projet respecte la souveraineté des données māori (rangatiratanga) et la tutelle collective (kaitiakitanga).",
|
|
"copyright": "John G Stroh. Sous licence",
|
|
"license": "Apache 2.0",
|
|
"location": "Fabriqué en Aotearoa Nouvelle-Zélande 🇳🇿"
|
|
}
|
|
}
|