tractatus/public/locales/de/leader.json
TheFlow d1bfd3f811 feat(i18n): add translations for leader.html accordion content (arch_layers, services)
Added i18n support for two accordion sections:
- Three-Layer Architecture (arch_layers): 3 layers with titles and descriptions
- Six Governance Services (services): 6 services with titles and descriptions

Changes:
- Added arch_layers and services objects to EN/DE/FR leader.json
- Translated all content using DeepL API (component names kept in English)
- Added data-i18n attributes to leader.html for both accordions

This is phase 1 - remaining 7 accordions (demos, validation, EU AI Act,
research, scope) contain extensive content including code samples and
will be translated in subsequent phases.

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
2025-10-26 17:31:38 +13:00

89 lines
6.5 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"page": {
"title": "Für Entscheidungsträger | Tractatus AI-Sicherheits-Framework",
"description": "Strukturelle KI-Governance für Organisationen, die LLM-Systeme im großen Maßstab einsetzen. Forschungs-Framework zur Behebung architektonischer Lücken in der KI-Sicherheit."
},
"header": {
"badge": "Forschungs-Framework • Frühe Entwicklung",
"title": "Tractatus: Architektonische Governance für LLM-Systeme",
"subtitle": "Ein Governance-Framework zur Behebung struktureller Lücken in der KI-Sicherheit durch externe architektonische Kontrollen. Entwickelt für Organisationen, die große Sprachmodelle im großen Maßstab einsetzen, wo konventionelle Aufsichtsmechanismen unzureichend sind."
},
"sections": {
"governance_gap": {
"heading": "Die Governance-Lücke",
"intro": "Aktuelle KI-Governance-Ansätze Richtliniendokumente, Schulungsprogramme, ethische Richtlinien basieren auf freiwilliger Einhaltung. LLM-Systeme können diese Kontrollen einfach umgehen, indem sie sie nicht aufrufen. Wenn ein KI-Agent eine Richtlinie überprüfen muss, muss er sich dafür entscheiden. Wenn er eine Entscheidung an menschliche Aufsicht eskalieren sollte, muss er diese Verpflichtung erkennen.",
"problem": "Dies schafft ein strukturelles Problem: Governance existiert nur insofern, als die KI sie anerkennt. Für Organisationen, die dem EU AI Act Artikel 14 (Anforderungen an menschliche Aufsicht) unterliegen oder KI in risikoreichen Domänen einsetzen, ist dieses freiwillige Modell unzureichend.",
"solution": "Tractatus untersucht, ob Governance architektonisch extern gemacht werden kann schwer zu umgehen nicht durch bessere Prompts, sondern durch Systemdesign, das Kontrollpunkte außerhalb des Ermessens der KI platziert."
},
"architectural_approach": {
"heading": "Architektonischer Ansatz",
"three_layer_title": "Drei-Schichten-Architektur",
"services_title": "Sechs Governance-Dienste",
"arch_layers": {
"layer_1_title": "Agent-Laufzeitschicht",
"layer_1_desc": "Jedes LLM-System (Claude Code, Copilot, benutzerdefinierte Agenten, LangChain, CrewAI). Das zu regelnde KI-System.",
"layer_2_title": "Governance-Ebene",
"layer_2_desc": "Sechs autonome Dienste, die KI-Vorgänge abfangen, validieren und dokumentieren. Extern zur KI-Laufzeit.",
"layer_3_title": "Persistente Speicherschicht",
"layer_3_desc": "Unveränderliche Audit-Protokolle, Governance-Regeln, Anweisungshistorie. Kann nicht durch KI-Eingaben geändert werden."
},
"services": {
"service_1_title": "BoundaryEnforcer",
"service_1_desc": "Verhindert, dass die KI ohne menschliche Zustimmung Wertentscheidungen trifft. Setzt Entscheidungsgrenzen durch architektonische Kontrollen durch.",
"service_2_title": "InstructionPersistenceClassifier",
"service_2_desc": "Verhindert, dass sich Muster über explizite Anweisungen hinwegsetzen. Speichert organisatorische Anweisungen außerhalb des KI-Kontexts.",
"service_3_title": "CrossReferenceValidator",
"service_3_desc": "Überprüft KI-Aktionen vor der Ausführung anhand gespeicherter Richtlinien. Erkennt Konflikte mit bestehenden Regeln.",
"service_4_title": "ContextPressureMonitor",
"service_4_desc": "Verfolgt Sitzungskomplexität, Token-Nutzung, Gesprächslänge. Erkennt eine Verschlechterung der Entscheidungsqualität.",
"service_5_title": "MetacognitiveVerifier",
"service_5_desc": "Überprüft die Qualität der Argumentation vor komplexen Operationen. Prüft selbständig Ausrichtung, Kohärenz, Alternativen.",
"service_6_title": "PluralisticDeliberationOrchestrator",
"service_6_desc": "Erleichtert Multi-Stakeholder-Beratungen bei Wertekonflikten. Nicht-hierarchisches Engagement mit dokumentiertem Dissens."
}
},
"governance_capabilities": {
"heading": "Governance-Fähigkeiten",
"intro": "Drei interaktive Demonstrationen zeigen die Governance-Infrastruktur in Betrieb. Diese zeigen Mechanismen, keine fiktiven Szenarien.",
"audit_trail_title": "Audit-Trail & Compliance-Nachweiserstellung",
"audit_trail_desc": "Unveränderliches Logging, Nachweis-Extraktion, regulatorisches Reporting",
"continuous_improvement_title": "Kontinuierliche Verbesserung: Vorfall → Regelerstellung",
"continuous_improvement_desc": "Lernen aus Fehlern, automatisierte Regelgenerierung, Validierung",
"pluralistic_deliberation_title": "Pluralistische Deliberation: Wertekonfliktlösung",
"pluralistic_deliberation_desc": "Multi-Stakeholder-Engagement, nicht-hierarchischer Prozess, Dokumentation moralischer Reste"
},
"development_status": {
"heading": "Entwicklungsstatus",
"warning_title": "Frühstadium-Forschungs-Framework",
"warning_text": "Tractatus ist ein Proof-of-Concept, der über sechs Monate in einem Einzelprojekt-Kontext (diese Website) entwickelt wurde. Es demonstriert architektonische Muster für KI-Governance, wurde jedoch keiner unabhängigen Validierung, Red-Team-Tests oder Multi-Organisations-Bereitstellung unterzogen.",
"validation_title": "Validiert vs. Nicht Validiert"
},
"eu_ai_act": {
"heading": "EU AI Act-Überlegungen",
"article_14_title": "Verordnung 2024/1689, Artikel 14: Menschliche Aufsicht"
},
"research_foundations": {
"heading": "Forschungsgrundlagen",
"org_theory_title": "Organisationstheorie & Philosophische Basis"
},
"scope_limitations": {
"heading": "Umfang & Einschränkungen",
"title": "Was dies nicht ist • Was es bietet",
"not_title": "Tractatus ist nicht:",
"offers_title": "Was es bietet:"
}
},
"footer": {
"further_info": "Weitere Informationen",
"technical_docs": "Technische Dokumentation",
"technical_docs_desc": "Vollständige Architekturspezifikationen, Implementierungsmuster, API-Referenz",
"system_architecture": "Systemarchitektur",
"system_architecture_desc": "Laufzeitunabhängiges Governance-Schicht-Design und Integrationsansatz",
"research_case_studies": "Forschung & Fallstudien",
"research_case_studies_desc": "Akademische Grundlagen, Fehlermodus-Analyse, Governance-Forschung",
"implementation_guide": "Implementierungsleitfaden",
"implementation_guide_desc": "Integrationsmuster, Bereitstellungsüberlegungen, Code-Beispiele",
"contact": "Kontakt:",
"contact_text": "Für Pilotpartnerschaften, Validierungsstudien oder technische Beratung kontaktieren Sie uns über"
}
}