SUMMARY: Fixed missing translations for the performance evidence section that was previously only available in English. All 3 languages now properly support the "Preliminary Evidence: Safety and Performance May Be Aligned" content. CHANGES MADE: 1. Added to en/homepage.json (lines 86-92): - validation.performance_evidence.heading - validation.performance_evidence.paragraph_1 - validation.performance_evidence.paragraph_2 - validation.performance_evidence.paragraph_3 - validation.performance_evidence.methodology_note 2. Added to de/homepage.json (lines 86-92): - German translations of all performance evidence content - Removed obsolete subtitle with incorrect claims 3. Added to fr/homepage.json (lines 86-92): - French translations of all performance evidence content - Removed obsolete subtitle with incorrect claims 4. Updated index.html (lines 349, 350, 353, 356, 363): - Added data-i18n and data-i18n-html attributes - Heading: data-i18n="validation.performance_evidence.heading" - Paragraphs: data-i18n-html for proper HTML rendering - Methodology note: data-i18n-html TRANSLATIONS: English: - "Preliminary Evidence: Safety and Performance May Be Aligned" - 3-5× productivity improvement messaging - Mechanism explanation - Statistical validation ongoing German: - "Vorläufige Erkenntnisse: Sicherheit und Leistung könnten aufeinander abgestimmt sein" - Equivalent messaging with proper German grammar - Technical terminology accurately translated French: - "Preuves Préliminaires : Sécurité et Performance Pourraient Être Alignées" - Equivalent messaging with proper French grammar - Technical terminology accurately translated IMPACT: ✓ Performance evidence now displays correctly in all 3 languages ✓ German and French users no longer see English-only content ✓ i18n system properly handles all validation section content ✓ Static HTML serves as proper fallback before JavaScript loads 🤖 Generated with Claude Code (https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
135 lines
8.7 KiB
JSON
135 lines
8.7 KiB
JSON
{
|
|
"hero": {
|
|
"title": "Tractatus AI-Sicherheits-Framework",
|
|
"subtitle": "Strukturelle Beschränkungen, die KI-Systeme dazu verpflichten, die menschliche Entscheidungsfreiheit bei Wertefragen zu wahren—getestet mit Claude Code",
|
|
"cta_architecture": "Systemarchitektur",
|
|
"cta_docs": "Dokumentation lesen",
|
|
"cta_faq": "Häufig gestellte Fragen"
|
|
},
|
|
"value_prop": {
|
|
"heading": "Ein Ausgangspunkt",
|
|
"text": "Die Ausrichtung fortschrittlicher KI auf menschliche Werte gehört zu den folgenreichsten Herausforderungen, denen wir gegenüberstehen. Während das Wachstum der Fähigkeiten unter dem Momentum großer Technologiekonzerne beschleunigt, stehen wir vor einem kategorischen Imperativ: die menschliche Entscheidungsfreiheit bei Wertefragen bewahren oder riskieren, die Kontrolle vollständig abzugeben.<br><br>Anstatt zu hoffen, dass KI-Systeme \"sich richtig verhalten\", schlagen wir strukturelle Beschränkungen vor, bei denen bestimmte Entscheidungstypen menschliches Urteilsvermögen erfordern. Diese architektonischen Grenzen können sich an individuelle, organisatorische und gesellschaftliche Normen anpassen—und schaffen eine Grundlage für begrenzte KI-Operationen, die möglicherweise sicherer mit dem Wachstum der Fähigkeiten skalieren.<br><br>Wenn dieser Ansatz im großen Maßstab funktionieren kann, könnte Tractatus einen Wendepunkt darstellen—einen Weg, bei dem KI die menschlichen Fähigkeiten verbessert, ohne die menschliche Souveränität zu beeinträchtigen. Erkunden Sie das Framework aus der Perspektive, die mit Ihrer Arbeit resoniert."
|
|
},
|
|
"paths": {
|
|
"intro": "",
|
|
"researcher": {
|
|
"title": "Forscher",
|
|
"subtitle": "Akademische & technische Tiefe",
|
|
"tooltip": "Für KI-Sicherheitsforscher, Akademiker und Wissenschaftler, die LLM-Fehlermodelle und Governance-Architekturen untersuchen",
|
|
"description": "Erkunden Sie die theoretischen Grundlagen, architektonischen Beschränkungen und den wissenschaftlichen Kontext des Tractatus-Frameworks.",
|
|
"features": [
|
|
"Technische Spezifikationen & Beweise",
|
|
"Akademische Forschungsübersicht",
|
|
"Fehlermodusanalyse",
|
|
"Mathematische Grundlagen"
|
|
],
|
|
"cta": "Forschung erkunden"
|
|
},
|
|
"implementer": {
|
|
"title": "Implementierer",
|
|
"subtitle": "Code & Integrationsleitfäden",
|
|
"tooltip": "Für Softwareingenieure, ML-Ingenieure und technische Teams, die Produktions-KI-Systeme entwickeln",
|
|
"description": "Arbeiten Sie praktisch mit Implementierungsleitfäden, API-Dokumentation und Referenz-Codebeispielen.",
|
|
"features": [
|
|
"Funktionierende Codebeispiele",
|
|
"API-Integrationsmuster",
|
|
"Service-Architekturdiagramme",
|
|
"Best Practices für die Bereitstellung"
|
|
],
|
|
"cta": "Implementierungsleitfaden anzeigen"
|
|
},
|
|
"leader": {
|
|
"title": "Führungskraft",
|
|
"subtitle": "Strategische KI-Sicherheit",
|
|
"tooltip": "Für KI-Führungskräfte, Forschungsdirektoren, Startup-Gründer und strategische Entscheidungsträger, die KI-Sicherheitsrichtlinien festlegen",
|
|
"description": "Navigieren Sie durch den Business Case, Compliance-Anforderungen und Wettbewerbsvorteile der strukturellen KI-Sicherheit.",
|
|
"features": [
|
|
"Executive Briefing & Business Case",
|
|
"Risikomanagement & Compliance (EU AI Act)",
|
|
"Implementierungs-Roadmap & ROI",
|
|
"Wettbewerbsvorteilsanalyse"
|
|
],
|
|
"cta": "Führungsressourcen anzeigen"
|
|
}
|
|
},
|
|
"capabilities": {
|
|
"heading": "Framework-Fähigkeiten",
|
|
"items": [
|
|
{
|
|
"title": "Instruktionsklassifizierung",
|
|
"description": "Quadratenbasierte Klassifizierung (STR/OPS/TAC/SYS/STO) mit Zeitpersistenz-Metadaten-Tagging"
|
|
},
|
|
{
|
|
"title": "Kreuzreferenzvalidierung",
|
|
"description": "Validiert KI-Aktionen gegen explizite Benutzeranweisungen, um musterbasierte Überschreibungen zu verhindern"
|
|
},
|
|
{
|
|
"title": "Grenzendurchsetzung",
|
|
"description": "Implementiert Tractatus 12.1-12.7-Grenzen - Werteentscheidungen erfordern architektonisch Menschen"
|
|
},
|
|
{
|
|
"title": "Drucküberwachung",
|
|
"description": "Erkennt verschlechterte Betriebsbedingungen (Token-Druck, Fehler, Komplexität) und passt die Verifizierung an"
|
|
},
|
|
{
|
|
"title": "Metakognitive Verifizierung",
|
|
"description": "KI überprüft Ausrichtung, Kohärenz, Sicherheit vor der Ausführung - strukturelle Pause-und-Verifizierung"
|
|
},
|
|
{
|
|
"title": "Pluralistische Beratung",
|
|
"description": "Multi-Stakeholder-Werteberatung ohne Hierarchie - erleichtert menschliche Entscheidungsfindung für inkommensurable Werte"
|
|
}
|
|
]
|
|
},
|
|
"validation": {
|
|
"heading": "Reale Validierung",
|
|
"performance_evidence": {
|
|
"heading": "Vorläufige Erkenntnisse: Sicherheit und Leistung könnten aufeinander abgestimmt sein",
|
|
"paragraph_1": "Die Produktionsbereitstellung zeigt ein unerwartetes Muster: <strong>Strukturelle Beschränkungen scheinen die KI-Zuverlässigkeit zu verbessern, anstatt sie einzuschränken</strong>. Nutzer berichten, dass sie in einer verwalteten Sitzung das erreichen, was zuvor 3-5 Versuche mit unverwalteten Claude Code erforderte—bei deutlich niedrigeren Fehlerquoten und qualitativ hochwertigeren Ergebnissen unter architektonischer Governance.",
|
|
"paragraph_2": "Der Mechanismus scheint die <strong>Verhinderung verschlechterter Betriebsbedingungen</strong> zu sein: Architektonische Grenzen stoppen Kontextdruckausfälle, Instruktionsdrift und musterbasierte Überschreibungen, bevor sie sich zu sitzungsbeendenden Fehlern aufschaukeln. Durch die Aufrechterhaltung der operativen Integrität während langer Interaktionen schafft das Framework Bedingungen für nachhaltig hochwertige Ergebnisse.",
|
|
"paragraph_3": "<strong>Wenn sich dieses Muster im großen Maßstab bestätigt</strong>, stellt es eine zentrale Annahme in Frage, die die Einführung von KI-Sicherheit blockiert—dass Governance-Maßnahmen Leistung gegen Sicherheit eintauschen. Stattdessen deuten diese Erkenntnisse darauf hin, dass strukturelle Beschränkungen ein Weg zu <em>sowohl</em> sichereren <em>als auch</em> leistungsfähigeren KI-Systemen sein könnten. Die statistische Validierung läuft.",
|
|
"methodology_note": "<strong>Methodenhinweis:</strong> Erkenntnisse basieren auf qualitativen Nutzerberichten aus der Produktionsbereitstellung. Kontrollierte Experimente und quantitative Metrikenerfassung sind für die Validierungsphase geplant."
|
|
},
|
|
"case_27027": {
|
|
"badge": "Muster-Bias-Vorfall",
|
|
"type": "Interaktive Demo",
|
|
"title": "Der 27027-Vorfall",
|
|
"description": "Echter Produktionsvorfall, bei dem Claude Code standardmäßig Port 27017 (Trainingsmuster) verwendete, obwohl der Benutzer explizit angewiesen hatte, Port 27027 zu verwenden. CrossReferenceValidator erkannte den Konflikt und blockierte die Ausführung—demonstriert, wie Mustererkennung Anweisungen unter Kontextdruck überschreiben kann.",
|
|
"why_matters": "Warum das wichtig ist: Dieser Fehlermodus verschlimmert sich, wenn Modelle sich verbessern—stärkere Mustererkennung bedeutet stärkere Überschreibungstendenz. Architektonische Beschränkungen bleiben unabhängig vom Fähigkeitsniveau notwendig.",
|
|
"cta": "Interaktive Demo anzeigen"
|
|
},
|
|
"resources": {
|
|
"text": "Zusätzliche Fallstudien und Forschungsergebnisse in technischen Papieren dokumentiert",
|
|
"cta": "Fallstudien durchsuchen →"
|
|
}
|
|
},
|
|
"footer": {
|
|
"about_heading": "Tractatus Framework",
|
|
"about_text": "Architektonische Beschränkungen für KI-Sicherheit, die menschliche Entscheidungsfreiheit durch strukturelle, nicht aspirationale, Garantien wahren.",
|
|
"documentation_heading": "Dokumentation",
|
|
"documentation_links": {
|
|
"framework_docs": "Framework-Dokumentation",
|
|
"about": "Über uns",
|
|
"core_values": "Grundwerte",
|
|
"interactive_demo": "Interaktive Demo"
|
|
},
|
|
"support_heading": "Unterstützung",
|
|
"support_links": {
|
|
"koha": "Unterstützung (Koha)",
|
|
"transparency": "Transparenz",
|
|
"media_inquiries": "Medienanfragen",
|
|
"submit_case": "Fallstudie einreichen"
|
|
},
|
|
"legal_heading": "Rechtliches",
|
|
"legal_links": {
|
|
"privacy": "Datenschutzerklärung",
|
|
"contact": "Kontakt",
|
|
"github": "GitHub"
|
|
},
|
|
"te_tiriti_label": "Te Tiriti o Waitangi:",
|
|
"te_tiriti_text": "Wir erkennen Te Tiriti o Waitangi und unser Bekenntnis zu Partnerschaft, Schutz und Teilhabe an. Dieses Projekt respektiert die Māori-Datensouveränität (rangatiratanga) und kollektive Vormundschaft (kaitiakitanga).",
|
|
"copyright": "John G Stroh. Lizenziert unter",
|
|
"license": "Apache 2.0",
|
|
"location": "Hergestellt in Aotearoa Neuseeland 🇳🇿"
|
|
}
|
|
}
|