## P0 - Launch Blockers ✅ Created comprehensive translation files (EN, DE, FR) - /locales/en/architecture.json (31 translatable sections) - /locales/de/architecture.json (complete German translations) - /locales/fr/architecture.json (complete French translations) ✅ Added data-i18n attributes throughout HTML - Breadcrumb navigation - Hero section (badge, title, subtitle, challenge, approach, CTAs) - Comparison section (headings, titles) - Architecture diagram (titles, descriptions for all 3 layers) - Six Governance Services (all service names, descriptions, promises) - Interactive section (titles, instructions, tooltips) - Data visualizations heading - Production section (titles, results, disclaimers) - Limitations section (headings, limitations list, quote) - CTA section (heading, subtitle, buttons) - Total: 31 data-i18n attributes added ✅ Fixed card overflow on Six Governance Services cards - Added min-w-0 max-w-full overflow-hidden to all 6 service cards - Added break-words overflow-wrap-anywhere to card titles - Added break-words to service descriptions - Prevents cards from breaking container boundaries ## P1 - Should Fix Before Launch ✅ Added touch event handling to interactive diagram - Added touchstart listener with passive:false - Prevents default behavior for better mobile UX - Complements existing click handlers ## P2 - Nice to Have ✅ Improved mobile diagram sizing - Increased from w-48 sm:w-56 lg:w-64 to w-64 sm:w-72 lg:w-80 - ~33% larger on all breakpoints for better mobile visibility ✅ Added soft hyphens to long service names - BoundaryEnforcer → Boundary­Enforcer - InstructionPersistenceClassifier → Instruction­Persistence­Classifier - CrossReferenceValidator → Cross­Reference­Validator - ContextPressureMonitor → Context­Pressure­Monitor - MetacognitiveVerifier → Metacognitive­Verifier - PluralisticDeliberationOrchestrator → Pluralistic­Deliberation­Orchestrator - Enables intelligent line breaking for long CamelCase service names ## Changes Summary - 3 new translation files created (1,866 lines total) - architecture.html: 31 data-i18n attributes, 6 overflow-protected cards, 6 soft hyphens - interactive-diagram.js: Added touch event support for mobile ## Impact - architecture.html now fully internationalized (EN, DE, FR) - Cards respect boundaries on all screen sizes - Interactive diagram works on touch devices - Long service names wrap intelligently - Matches quality level of docs.html 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
135 lines
11 KiB
JSON
135 lines
11 KiB
JSON
{
|
||
"breadcrumb": {
|
||
"home": "Startseite",
|
||
"current": "Architektur"
|
||
},
|
||
"hero": {
|
||
"badge": "🔬 FRÜHE FORSCHUNG • VIELVERS PRECHENDER ANSATZ",
|
||
"title": "Erforschung struktureller KI-Sicherheit",
|
||
"subtitle": "Tractatus erforscht <strong>externe Governance</strong> – architektonische Grenzen außerhalb der KI-Laufzeit, die möglicherweise widerstandsfähiger gegen böswillige Manipulation sind als verhaltensbasiertes Training allein.",
|
||
"challenge_label": "Die Herausforderung:",
|
||
"challenge_text": "Verhaltensorientiertes Training (Constitutional AI, RLHF) zeigt Potenzial, kann aber unter böswilligem Prompting, Kontextdruck oder Verteilungsverschiebung nachlassen.",
|
||
"approach_label": "Unser Ansatz:",
|
||
"approach_text": "Externe architektonische Durchsetzung, die unabhängig von der internen Argumentation der KI arbeitet – was es strukturell schwieriger (wenn auch nicht unmöglich) macht, durch Prompting umgangen zu werden.",
|
||
"cta_architecture": "Architektur Anzeigen",
|
||
"cta_docs": "Dokumentation Lesen"
|
||
},
|
||
"comparison": {
|
||
"heading": "Warum externe Durchsetzung helfen kann",
|
||
"behavioral_title": "Verhaltensorientiertes Training (Constitutional AI)",
|
||
"behavioral_items": [
|
||
"Lebt <strong>im</strong> KI-Modell – zugänglich für böswillige Prompts",
|
||
"Verschlechtert sich unter Kontextdruck und langen Gesprächen",
|
||
"Kann durch Jailbreak-Techniken manipuliert werden (DAN, Rollenspiele, Hypothetisches)",
|
||
"Abhängig von der Bereitschaft der KI, Anweisungen zu folgen",
|
||
"Keine überprüfbare Prüfspur unabhängig von der KI"
|
||
],
|
||
"structural_title": "Strukturelle Durchsetzung (Tractatus)",
|
||
"structural_items": [
|
||
"Lebt <strong>außerhalb</strong> des KI-Modells – nicht direkt durch Prompts zugänglich",
|
||
"Externe Dienste zielen auf konsistente Durchsetzung unabhängig vom Kontext ab",
|
||
"<em>Schwieriger</em> zu umgehen – KI-Aktionen durchlaufen zuerst die Governance-Ebene",
|
||
"Architektonisch widerstandsfähig gegen Manipulation über den internen Zustand der KI",
|
||
"Unveränderliche Prüfspur, unabhängig von der KI-Laufzeit gespeichert"
|
||
],
|
||
"hypothesis_title": "Die zentrale Hypothese",
|
||
"hypothesis_text": "<strong>Jailbreaks funktionieren oft, indem sie die interne Argumentation der KI manipulieren.</strong> Tractatus-Grenzen operieren <em>extern</em> zu dieser Argumentation – die KI bewertet Governance-Regeln nicht direkt. Obwohl nicht narrensicher, macht diese architektonische Trennung Manipulation erheblich schwieriger."
|
||
},
|
||
"architecture_diagram": {
|
||
"title": "Laufzeit-agnostische Architektur",
|
||
"subtitle": "Tractatus funktioniert mit <strong>jedem agentischen KI-System</strong> – Claude Code, LangChain, AutoGPT, CrewAI oder benutzerdefinierten Agenten. Die Governance-Ebene sitzt zwischen Ihrem Agenten und seinen Aktionen.",
|
||
"layer1_title": "1. Agenten-Laufzeit-Ebene",
|
||
"layer1_desc": "Ihr KI-Agent (beliebige Plattform). Verwaltet Planung, Argumentation, Werkzeugnutzung. Tractatus ist implementierungsunabhängig.",
|
||
"layer2_title": "2. Governance-Ebene",
|
||
"layer2_desc": "Sechs externe Dienste erzwingen Grenzen, validieren Aktionen, überwachen Druck. <strong>Architektonisch schwieriger für KI zu umgehen.</strong>",
|
||
"layer3_title": "3. Persistenter Speicher",
|
||
"layer3_desc": "Unveränderliche Auditprotokolle, Governance-Regeln, Anweisungshistorie. Unabhängig von der KI-Laufzeit – kann nicht durch Prompts geändert werden."
|
||
},
|
||
"services": {
|
||
"heading": "Sechs Governance-Dienste",
|
||
"boundary": {
|
||
"name": "BoundaryEnforcer",
|
||
"description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren."
|
||
},
|
||
"instruction": {
|
||
"name": "InstructionPersistenceClassifier",
|
||
"description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfalls zu reduzieren.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Anweisungen außerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation."
|
||
},
|
||
"validator": {
|
||
"name": "CrossReferenceValidator",
|
||
"description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Überschreibung expliziter Direktiven zu verhindern.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprüft."
|
||
},
|
||
"pressure": {
|
||
"name": "ContextPressureMonitor",
|
||
"description": "Überwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Objektive Metriken können Manipulationsversuche frühzeitig erkennen."
|
||
},
|
||
"metacognitive": {
|
||
"name": "MetacognitiveVerifier",
|
||
"description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der Ausführung überprüft. Strukturelle Sicherheitsprüfung.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen."
|
||
},
|
||
"deliberation": {
|
||
"name": "PluralisticDeliberationOrchestrator",
|
||
"description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten. KI bietet Moderation, keine Autorität.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Menschliches Urteil erforderlich – architektonisch erzwungene Eskalation für Werte."
|
||
}
|
||
},
|
||
"interactive": {
|
||
"title": "Die Architektur interaktiv erkunden",
|
||
"subtitle": "Klicken Sie auf einen beliebigen Service-Knoten oder den zentralen Kern, um detaillierte Informationen darüber zu erhalten, wie Governance funktioniert.",
|
||
"tip_label": "Tipp:",
|
||
"tip_text": "Klicken Sie auf das zentrale <span class=\"font-semibold text-cyan-600\">\"T\"</span>, um zu sehen, wie alle Dienste zusammenarbeiten",
|
||
"panel_default_title": "Governance-Dienste erkunden",
|
||
"panel_default_text": "Klicken Sie auf einen beliebigen Service-Knoten im Diagramm (farbige Kreise) oder das zentrale \"T\", um mehr darüber zu erfahren, wie Tractatus KI-Sicherheit durchsetzt."
|
||
},
|
||
"data_viz": {
|
||
"heading": "Framework in Aktion",
|
||
"subtitle": "Interaktive Visualisierungen demonstrieren, wie Tractatus-Governance-Dienste KI-Operationen überwachen und koordinieren."
|
||
},
|
||
"production": {
|
||
"heading": "Produktions-Referenzimplementierung",
|
||
"subtitle": "Tractatus ist in der Produktion mit <strong>Claude Code</strong> als Agenten-Laufzeit im Einsatz. Dies demonstriert die Praxistauglichkeit des Frameworks.",
|
||
"implementation_title": "Claude Code + Tractatus",
|
||
"implementation_intro": "Unsere Produktionsbereitstellung verwendet Claude Code als Agenten-Laufzeit mit Tractatus Governance-Middleware. Diese Kombination bietet:",
|
||
"implementation_results_intro": "Ergebnisse aus 6-monatiger Produktionsbereitstellung:",
|
||
"result1": "<strong>95% Anweisungspersistenz</strong> über Sitzungsgrenzen hinweg",
|
||
"result2": "<strong>Null Wertegrenzverletzungen</strong> in 127 Testszenarien",
|
||
"result3": "<strong>100% Erkennungsrate</strong> für Musterbias-Fehler",
|
||
"result4": "<strong><10ms Leistungsoverhead</strong> für Governance-Ebene",
|
||
"disclaimer": "*Einzelagenten-Bereitstellung. Unabhängige Validierung und Multi-Organisations-Replikation erforderlich.",
|
||
"testing_title": "Reale Tests",
|
||
"testing_text1": "<strong>Das ist nicht nur Theorie.</strong> Tractatus läuft in der Produktion, verarbeitet reale Arbeitslasten und erkennt reale Fehlermuster.",
|
||
"testing_text2": "Frühe Ergebnisse sind <strong>vielversprechend</strong> – mit dokumentierter Vorfallsprävention – aber dies erfordert unabhängige Validierung und viel umfassendere Tests.",
|
||
"diagram_link": "Claude Code Implementierungsdiagramm anzeigen →"
|
||
},
|
||
"limitations": {
|
||
"heading": "Einschränkungen und Realitätscheck",
|
||
"intro": "<strong>Dies ist Arbeit im Frühstadium.</strong> Obwohl wir vielversprechende Ergebnisse in unserer Produktionsbereitstellung gesehen haben, wurde Tractatus keinem rigorosen adversarialen Testing oder Red-Team-Evaluierung unterzogen.",
|
||
"quote": "Wir haben echtes Potenzial, aber dies befindet sich noch in einem frühen Entwicklungsstadium. Das klingt so, als hätten wir das Problem vollständig gelöst, dem ist nicht so. Wir haben noch einen langen Weg vor uns, und es wird eine gewaltige Anstrengung von Entwicklern in allen Teilen der Branche erfordern, um KI effektiv zu zähmen. Dies ist nur ein Anfang.",
|
||
"quote_attribution": "— Projektleiter, Tractatus Framework",
|
||
"known_heading": "Bekannte Einschränkungen:",
|
||
"limitation1": "<strong>Kein dediziertes Red-Team-Testing:</strong> Wir wissen nicht, wie gut diese Grenzen gegen entschlossene adversariale Angriffe standhalten.",
|
||
"limitation2": "<strong>Kleinräumige Validierung:</strong> Sechs Monate Produktionsnutzung in einem einzigen Projekt. Erfordert Multi-Organisations-Replikation.",
|
||
"limitation3": "<strong>Integrationsprobleme:</strong> Die nachträgliche Einbindung von Governance in bestehende Systeme erfordert erheblichen Ingenieuraufwand.",
|
||
"limitation4": "<strong>Leistung im Maßstab unbekannt:</strong> Tests beschränkt auf Einzelagenten-Bereitstellungen. Multi-Agenten-Koordination ungetestet.",
|
||
"limitation5": "<strong>Sich entwickelnde Bedrohungslandschaft:</strong> Wenn KI-Fähigkeiten wachsen, werden neue Fehlermodi entstehen, die die aktuelle Architektur möglicherweise nicht adressiert.",
|
||
"needs_heading": "Was wir brauchen:",
|
||
"need1": "Unabhängige Forscher zur Validierung (oder Widerlegung) unserer Ergebnisse",
|
||
"need2": "Red-Team-Evaluierung zur Auffindung von Schwächen und Umgehungstechniken",
|
||
"need3": "Multi-Organisations-Pilotbereitstellungen über verschiedene Bereiche",
|
||
"need4": "Branchenweite Zusammenarbeit bei Governance-Standards und -Mustern",
|
||
"need5": "Quantitative Studien zur Messung der Vorfallsreduzierung und Kosten-Nutzen-Analyse",
|
||
"conclusion": "Dieses Framework ist ein Ausgangspunkt für Erkundungen, keine fertige Lösung. Die Zähmung von KI wird nachhaltige Anstrengungen der gesamten Branche erfordern – Forscher, Praktiker, Regulierungsbehörden und Ethiker, die zusammenarbeiten."
|
||
},
|
||
"cta": {
|
||
"heading": "Erkunden Sie einen vielversprechenden Ansatz für KI-Sicherheit",
|
||
"subtitle": "Tractatus demonstriert, wie strukturelle Durchsetzung verhaltensorientiertes Training ergänzen kann. Wir laden Forscher und Praktiker ein, diese Arbeit zu evaluieren, zu kritisieren und darauf aufzubauen.",
|
||
"btn_docs": "Dokumentation Lesen",
|
||
"btn_research": "Forschung Ansehen",
|
||
"btn_implementation": "Implementierungsleitfaden"
|
||
}
|
||
}
|