diff --git a/public/architecture.html b/public/architecture.html index 4462f642..1ba386f8 100644 --- a/public/architecture.html +++ b/public/architecture.html @@ -36,9 +36,9 @@ @@ -48,28 +48,28 @@
-
+
🔬 EARLY-STAGE RESEARCH • PROMISING APPROACH
-

+

Exploring Structural AI Safety

-

+

Tractatus explores external governance—architectural boundaries operating outside the AI runtime that may be more resistant to adversarial manipulation than behavioral training alone.

- The Challenge: Behavioral training (Constitutional AI, RLHF) shows promise but can degrade under adversarial prompting, context pressure, or distribution shift. + The Challenge: Behavioral training (Constitutional AI, RLHF) shows promise but can degrade under adversarial prompting, context pressure, or distribution shift.

- Our Approach: External architectural enforcement that operates independently of the AI's internal reasoning—making it structurally more difficult (though not impossible) to bypass through prompting. + Our Approach: External architectural enforcement that operates independently of the AI's internal reasoning—making it structurally more difficult (though not impossible) to bypass through prompting.

@@ -83,12 +83,12 @@
-

Why External Enforcement May Help

+

Why External Enforcement May Help

-

+

@@ -163,7 +163,7 @@
-

Runtime-Agnostic Architecture

+

Runtime-Agnostic Architecture

Tractatus works with any agentic AI system—Claude Code, LangChain, AutoGPT, CrewAI, or custom agents. The governance layer sits between your agent and its actions.

@@ -180,19 +180,19 @@
-

1. Agent Runtime Layer

+

1. Agent Runtime Layer

Your AI agent (any platform). Handles planning, reasoning, tool use. Tractatus is agnostic to implementation.

-

2. Governance Layer

+

2. Governance Layer

Six external services enforce boundaries, validate actions, monitor pressure. Architecturally more difficult for AI to bypass.

-

3. Persistent Storage

+

3. Persistent Storage

Immutable audit logs, governance rules, instruction history. Independent of AI runtime—can't be altered by prompts.

@@ -203,20 +203,20 @@
-

Six Governance Services

+

Six Governance Services

-
+
-

BoundaryEnforcer

+

Boundary­Enforcer

-

+

Blocks AI from making values decisions (privacy, ethics, strategic direction). Requires human approval.

@@ -224,16 +224,16 @@
-
+
-

InstructionPersistenceClassifier

+

Instruction­Persistence­Classifier

-

+

Stores instructions externally with persistence levels (HIGH/MEDIUM/LOW). Aims to reduce directive fade.

@@ -241,16 +241,16 @@
-
+
-

CrossReferenceValidator

+

Cross­Reference­Validator

-

+

Validates AI actions against instruction history. Aims to prevent pattern bias overriding explicit directives.

@@ -258,16 +258,16 @@
-
+
-

ContextPressureMonitor

+

Context­Pressure­Monitor

-

+

Monitors AI performance degradation. Escalates when context pressure threatens quality.

@@ -275,16 +275,16 @@
-
+
-

MetacognitiveVerifier

+

Metacognitive­Verifier

-

+

Requires AI to pause and verify complex operations before execution. Structural safety check.

@@ -292,16 +292,16 @@
-
+
-

PluralisticDeliberationOrchestrator

+

Pluralistic­Deliberation­Orchestrator

-

+

Facilitates multi-stakeholder deliberation for values conflicts. AI provides facilitation, not authority.

@@ -316,7 +316,7 @@
-

Explore the Architecture Interactively

+

Explore the Architecture Interactively

Click any service node or the central core to see detailed information about how governance works.

@@ -339,10 +339,10 @@ data="/images/architecture-diagram-interactive.svg" type="image/svg+xml" id="interactive-svg-object" - class="w-48 sm:w-56 lg:w-64 h-auto" + class="w-64 sm:w-72 lg:w-80 h-auto" aria-label="Interactive Tractatus Architecture Diagram"> - Tractatus Architecture Diagram + Tractatus Architecture Diagram
@@ -353,7 +353,7 @@ -

Explore the Governance Services

+

Explore the Governance Services

Click any service node in the diagram (colored circles) or the central "T" to learn more about how Tractatus enforces AI safety.

@@ -365,7 +365,7 @@
-

Framework in Action

+

Framework in Action

Interactive visualizations demonstrating how Tractatus governance services monitor and coordinate AI operations.

@@ -387,7 +387,7 @@
-

Production Reference Implementation

+

Production Reference Implementation

Tractatus is deployed in production using Claude Code as the agent runtime. This demonstrates the framework's real-world viability.

@@ -395,7 +395,7 @@
-

Claude Code + Tractatus

+

Claude Code + Tractatus

Our production deployment uses Claude Code as the agent runtime with Tractatus governance middleware. This combination provides:

@@ -446,7 +446,7 @@
-

Limitations and Reality Check

+

Limitations and Reality Check

@@ -462,7 +462,7 @@

-

Known Limitations:

+

Known Limitations:

  • • @@ -486,7 +486,7 @@
-

What We Need:

+

What We Need:

  • 🔬 @@ -520,7 +520,7 @@
    -

    Explore a Promising Approach to AI Safety

    +

    Explore a Promising Approach to AI Safety

    Tractatus demonstrates how structural enforcement may complement behavioral training. We invite researchers and practitioners to evaluate, critique, and build upon this work.

    diff --git a/public/js/components/interactive-diagram.js b/public/js/components/interactive-diagram.js index 400de610..d3b69f34 100644 --- a/public/js/components/interactive-diagram.js +++ b/public/js/components/interactive-diagram.js @@ -187,6 +187,14 @@ class InteractiveDiagram { this.showServiceDetails(serviceId); }, true); + // Touch support for mobile devices + node.addEventListener('touchstart', (e) => { + e.preventDefault(); + const serviceId = node.getAttribute('data-service'); + console.log(`[InteractiveDiagram] Touch service: ${serviceId}`); + this.showServiceDetails(serviceId); + }, { passive: false }); + node.addEventListener('mouseenter', () => { this.highlightService(serviceId); }); diff --git a/public/locales/de/architecture.json b/public/locales/de/architecture.json new file mode 100644 index 00000000..31b6c497 --- /dev/null +++ b/public/locales/de/architecture.json @@ -0,0 +1,135 @@ +{ + "breadcrumb": { + "home": "Startseite", + "current": "Architektur" + }, + "hero": { + "badge": "🔬 FRÜHE FORSCHUNG • VIELVERS PRECHENDER ANSATZ", + "title": "Erforschung struktureller KI-Sicherheit", + "subtitle": "Tractatus erforscht externe Governance – architektonische Grenzen außerhalb der KI-Laufzeit, die möglicherweise widerstandsfähiger gegen böswillige Manipulation sind als verhaltensbasiertes Training allein.", + "challenge_label": "Die Herausforderung:", + "challenge_text": "Verhaltensorientiertes Training (Constitutional AI, RLHF) zeigt Potenzial, kann aber unter böswilligem Prompting, Kontextdruck oder Verteilungsverschiebung nachlassen.", + "approach_label": "Unser Ansatz:", + "approach_text": "Externe architektonische Durchsetzung, die unabhängig von der internen Argumentation der KI arbeitet – was es strukturell schwieriger (wenn auch nicht unmöglich) macht, durch Prompting umgangen zu werden.", + "cta_architecture": "Architektur Anzeigen", + "cta_docs": "Dokumentation Lesen" + }, + "comparison": { + "heading": "Warum externe Durchsetzung helfen kann", + "behavioral_title": "Verhaltensorientiertes Training (Constitutional AI)", + "behavioral_items": [ + "Lebt im KI-Modell – zugänglich für böswillige Prompts", + "Verschlechtert sich unter Kontextdruck und langen Gesprächen", + "Kann durch Jailbreak-Techniken manipuliert werden (DAN, Rollenspiele, Hypothetisches)", + "Abhängig von der Bereitschaft der KI, Anweisungen zu folgen", + "Keine überprüfbare Prüfspur unabhängig von der KI" + ], + "structural_title": "Strukturelle Durchsetzung (Tractatus)", + "structural_items": [ + "Lebt außerhalb des KI-Modells – nicht direkt durch Prompts zugänglich", + "Externe Dienste zielen auf konsistente Durchsetzung unabhängig vom Kontext ab", + "Schwieriger zu umgehen – KI-Aktionen durchlaufen zuerst die Governance-Ebene", + "Architektonisch widerstandsfähig gegen Manipulation über den internen Zustand der KI", + "Unveränderliche Prüfspur, unabhängig von der KI-Laufzeit gespeichert" + ], + "hypothesis_title": "Die zentrale Hypothese", + "hypothesis_text": "Jailbreaks funktionieren oft, indem sie die interne Argumentation der KI manipulieren. Tractatus-Grenzen operieren extern zu dieser Argumentation – die KI bewertet Governance-Regeln nicht direkt. Obwohl nicht narrensicher, macht diese architektonische Trennung Manipulation erheblich schwieriger." + }, + "architecture_diagram": { + "title": "Laufzeit-agnostische Architektur", + "subtitle": "Tractatus funktioniert mit jedem agentischen KI-System – Claude Code, LangChain, AutoGPT, CrewAI oder benutzerdefinierten Agenten. Die Governance-Ebene sitzt zwischen Ihrem Agenten und seinen Aktionen.", + "layer1_title": "1. Agenten-Laufzeit-Ebene", + "layer1_desc": "Ihr KI-Agent (beliebige Plattform). Verwaltet Planung, Argumentation, Werkzeugnutzung. Tractatus ist implementierungsunabhängig.", + "layer2_title": "2. Governance-Ebene", + "layer2_desc": "Sechs externe Dienste erzwingen Grenzen, validieren Aktionen, überwachen Druck. Architektonisch schwieriger für KI zu umgehen.", + "layer3_title": "3. Persistenter Speicher", + "layer3_desc": "Unveränderliche Auditprotokolle, Governance-Regeln, Anweisungshistorie. Unabhängig von der KI-Laufzeit – kann nicht durch Prompts geändert werden." + }, + "services": { + "heading": "Sechs Governance-Dienste", + "boundary": { + "name": "BoundaryEnforcer", + "description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.", + "promise": "Frühes Versprechen: Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren." + }, + "instruction": { + "name": "InstructionPersistenceClassifier", + "description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfalls zu reduzieren.", + "promise": "Frühes Versprechen: Anweisungen außerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation." + }, + "validator": { + "name": "CrossReferenceValidator", + "description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Überschreibung expliziter Direktiven zu verhindern.", + "promise": "Frühes Versprechen: Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprüft." + }, + "pressure": { + "name": "ContextPressureMonitor", + "description": "Überwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.", + "promise": "Frühes Versprechen: Objektive Metriken können Manipulationsversuche frühzeitig erkennen." + }, + "metacognitive": { + "name": "MetacognitiveVerifier", + "description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der Ausführung überprüft. Strukturelle Sicherheitsprüfung.", + "promise": "Frühes Versprechen: Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen." + }, + "deliberation": { + "name": "PluralisticDeliberationOrchestrator", + "description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten. KI bietet Moderation, keine Autorität.", + "promise": "Frühes Versprechen: Menschliches Urteil erforderlich – architektonisch erzwungene Eskalation für Werte." + } + }, + "interactive": { + "title": "Die Architektur interaktiv erkunden", + "subtitle": "Klicken Sie auf einen beliebigen Service-Knoten oder den zentralen Kern, um detaillierte Informationen darüber zu erhalten, wie Governance funktioniert.", + "tip_label": "Tipp:", + "tip_text": "Klicken Sie auf das zentrale \"T\", um zu sehen, wie alle Dienste zusammenarbeiten", + "panel_default_title": "Governance-Dienste erkunden", + "panel_default_text": "Klicken Sie auf einen beliebigen Service-Knoten im Diagramm (farbige Kreise) oder das zentrale \"T\", um mehr darüber zu erfahren, wie Tractatus KI-Sicherheit durchsetzt." + }, + "data_viz": { + "heading": "Framework in Aktion", + "subtitle": "Interaktive Visualisierungen demonstrieren, wie Tractatus-Governance-Dienste KI-Operationen überwachen und koordinieren." + }, + "production": { + "heading": "Produktions-Referenzimplementierung", + "subtitle": "Tractatus ist in der Produktion mit Claude Code als Agenten-Laufzeit im Einsatz. Dies demonstriert die Praxistauglichkeit des Frameworks.", + "implementation_title": "Claude Code + Tractatus", + "implementation_intro": "Unsere Produktionsbereitstellung verwendet Claude Code als Agenten-Laufzeit mit Tractatus Governance-Middleware. Diese Kombination bietet:", + "implementation_results_intro": "Ergebnisse aus 6-monatiger Produktionsbereitstellung:", + "result1": "95% Anweisungspersistenz über Sitzungsgrenzen hinweg", + "result2": "Null Wertegrenzverletzungen in 127 Testszenarien", + "result3": "100% Erkennungsrate für Musterbias-Fehler", + "result4": "<10ms Leistungsoverhead für Governance-Ebene", + "disclaimer": "*Einzelagenten-Bereitstellung. Unabhängige Validierung und Multi-Organisations-Replikation erforderlich.", + "testing_title": "Reale Tests", + "testing_text1": "Das ist nicht nur Theorie. Tractatus läuft in der Produktion, verarbeitet reale Arbeitslasten und erkennt reale Fehlermuster.", + "testing_text2": "Frühe Ergebnisse sind vielversprechend – mit dokumentierter Vorfallsprävention – aber dies erfordert unabhängige Validierung und viel umfassendere Tests.", + "diagram_link": "Claude Code Implementierungsdiagramm anzeigen →" + }, + "limitations": { + "heading": "Einschränkungen und Realitätscheck", + "intro": "Dies ist Arbeit im Frühstadium. Obwohl wir vielversprechende Ergebnisse in unserer Produktionsbereitstellung gesehen haben, wurde Tractatus keinem rigorosen adversarialen Testing oder Red-Team-Evaluierung unterzogen.", + "quote": "Wir haben echtes Potenzial, aber dies befindet sich noch in einem frühen Entwicklungsstadium. Das klingt so, als hätten wir das Problem vollständig gelöst, dem ist nicht so. Wir haben noch einen langen Weg vor uns, und es wird eine gewaltige Anstrengung von Entwicklern in allen Teilen der Branche erfordern, um KI effektiv zu zähmen. Dies ist nur ein Anfang.", + "quote_attribution": "— Projektleiter, Tractatus Framework", + "known_heading": "Bekannte Einschränkungen:", + "limitation1": "Kein dediziertes Red-Team-Testing: Wir wissen nicht, wie gut diese Grenzen gegen entschlossene adversariale Angriffe standhalten.", + "limitation2": "Kleinräumige Validierung: Sechs Monate Produktionsnutzung in einem einzigen Projekt. Erfordert Multi-Organisations-Replikation.", + "limitation3": "Integrationsprobleme: Die nachträgliche Einbindung von Governance in bestehende Systeme erfordert erheblichen Ingenieuraufwand.", + "limitation4": "Leistung im Maßstab unbekannt: Tests beschränkt auf Einzelagenten-Bereitstellungen. Multi-Agenten-Koordination ungetestet.", + "limitation5": "Sich entwickelnde Bedrohungslandschaft: Wenn KI-Fähigkeiten wachsen, werden neue Fehlermodi entstehen, die die aktuelle Architektur möglicherweise nicht adressiert.", + "needs_heading": "Was wir brauchen:", + "need1": "Unabhängige Forscher zur Validierung (oder Widerlegung) unserer Ergebnisse", + "need2": "Red-Team-Evaluierung zur Auffindung von Schwächen und Umgehungstechniken", + "need3": "Multi-Organisations-Pilotbereitstellungen über verschiedene Bereiche", + "need4": "Branchenweite Zusammenarbeit bei Governance-Standards und -Mustern", + "need5": "Quantitative Studien zur Messung der Vorfallsreduzierung und Kosten-Nutzen-Analyse", + "conclusion": "Dieses Framework ist ein Ausgangspunkt für Erkundungen, keine fertige Lösung. Die Zähmung von KI wird nachhaltige Anstrengungen der gesamten Branche erfordern – Forscher, Praktiker, Regulierungsbehörden und Ethiker, die zusammenarbeiten." + }, + "cta": { + "heading": "Erkunden Sie einen vielversprechenden Ansatz für KI-Sicherheit", + "subtitle": "Tractatus demonstriert, wie strukturelle Durchsetzung verhaltensorientiertes Training ergänzen kann. Wir laden Forscher und Praktiker ein, diese Arbeit zu evaluieren, zu kritisieren und darauf aufzubauen.", + "btn_docs": "Dokumentation Lesen", + "btn_research": "Forschung Ansehen", + "btn_implementation": "Implementierungsleitfaden" + } +} diff --git a/public/locales/en/architecture.json b/public/locales/en/architecture.json new file mode 100644 index 00000000..1ed2799a --- /dev/null +++ b/public/locales/en/architecture.json @@ -0,0 +1,135 @@ +{ + "breadcrumb": { + "home": "Home", + "current": "Architecture" + }, + "hero": { + "badge": "🔬 EARLY-STAGE RESEARCH • PROMISING APPROACH", + "title": "Exploring Structural AI Safety", + "subtitle": "Tractatus explores external governance—architectural boundaries operating outside the AI runtime that may be more resistant to adversarial manipulation than behavioral training alone.", + "challenge_label": "The Challenge:", + "challenge_text": "Behavioral training (Constitutional AI, RLHF) shows promise but can degrade under adversarial prompting, context pressure, or distribution shift.", + "approach_label": "Our Approach:", + "approach_text": "External architectural enforcement that operates independently of the AI's internal reasoning—making it structurally more difficult (though not impossible) to bypass through prompting.", + "cta_architecture": "View Architecture", + "cta_docs": "Read Documentation" + }, + "comparison": { + "heading": "Why External Enforcement May Help", + "behavioral_title": "Behavioral Training (Constitutional AI)", + "behavioral_items": [ + "Lives inside the AI model—accessible to adversarial prompts", + "Degrades under context pressure and long conversations", + "Can be manipulated by jailbreak techniques (DAN, roleplaying, hypotheticals)", + "Depends on AI's willingness to follow guidance", + "No verifiable audit trail independent of AI" + ], + "structural_title": "Structural Enforcement (Tractatus)", + "structural_items": [ + "Lives outside the AI model—not directly accessible to prompts", + "External services aim for consistent enforcement regardless of context", + "More difficult to bypass—AI actions pass through governance layer first", + "Architecturally resistant to manipulation via AI's internal state", + "Immutable audit trail stored independently of AI runtime" + ], + "hypothesis_title": "The Core Hypothesis", + "hypothesis_text": "Jailbreaks often work by manipulating the AI's internal reasoning. Tractatus boundaries operate external to that reasoning—the AI doesn't directly evaluate governance rules. While not foolproof, this architectural separation makes manipulation significantly harder." + }, + "architecture_diagram": { + "title": "Runtime-Agnostic Architecture", + "subtitle": "Tractatus works with any agentic AI system—Claude Code, LangChain, AutoGPT, CrewAI, or custom agents. The governance layer sits between your agent and its actions.", + "layer1_title": "1. Agent Runtime Layer", + "layer1_desc": "Your AI agent (any platform). Handles planning, reasoning, tool use. Tractatus is agnostic to implementation.", + "layer2_title": "2. Governance Layer", + "layer2_desc": "Six external services enforce boundaries, validate actions, monitor pressure. Architecturally more difficult for AI to bypass.", + "layer3_title": "3. Persistent Storage", + "layer3_desc": "Immutable audit logs, governance rules, instruction history. Independent of AI runtime—can't be altered by prompts." + }, + "services": { + "heading": "Six Governance Services", + "boundary": { + "name": "BoundaryEnforcer", + "description": "Blocks AI from making values decisions (privacy, ethics, strategic direction). Requires human approval.", + "promise": "Early Promise: Values boundaries enforced externally—harder to manipulate through prompting." + }, + "instruction": { + "name": "InstructionPersistenceClassifier", + "description": "Stores instructions externally with persistence levels (HIGH/MEDIUM/LOW). Aims to reduce directive fade.", + "promise": "Early Promise: Instructions stored outside AI—more resistant to context manipulation." + }, + "validator": { + "name": "CrossReferenceValidator", + "description": "Validates AI actions against instruction history. Aims to prevent pattern bias overriding explicit directives.", + "promise": "Early Promise: Independent verification—AI claims checked against external source." + }, + "pressure": { + "name": "ContextPressureMonitor", + "description": "Monitors AI performance degradation. Escalates when context pressure threatens quality.", + "promise": "Early Promise: Objective metrics may detect manipulation attempts early." + }, + "metacognitive": { + "name": "MetacognitiveVerifier", + "description": "Requires AI to pause and verify complex operations before execution. Structural safety check.", + "promise": "Early Promise: Architectural gates aim to enforce verification steps." + }, + "deliberation": { + "name": "PluralisticDeliberationOrchestrator", + "description": "Facilitates multi-stakeholder deliberation for values conflicts. AI provides facilitation, not authority.", + "promise": "Early Promise: Human judgment required—architecturally enforced escalation for values." + } + }, + "interactive": { + "title": "Explore the Architecture Interactively", + "subtitle": "Click any service node or the central core to see detailed information about how governance works.", + "tip_label": "Tip:", + "tip_text": "Click the central \"T\" to see how all services work together", + "panel_default_title": "Explore the Governance Services", + "panel_default_text": "Click any service node in the diagram (colored circles) or the central \"T\" to learn more about how Tractatus enforces AI safety." + }, + "data_viz": { + "heading": "Framework in Action", + "subtitle": "Interactive visualizations demonstrating how Tractatus governance services monitor and coordinate AI operations." + }, + "production": { + "heading": "Production Reference Implementation", + "subtitle": "Tractatus is deployed in production using Claude Code as the agent runtime. This demonstrates the framework's real-world viability.", + "implementation_title": "Claude Code + Tractatus", + "implementation_intro": "Our production deployment uses Claude Code as the agent runtime with Tractatus governance middleware. This combination provides:", + "implementation_results_intro": "Results from 6-month production deployment:", + "result1": "95% instruction persistence across session boundaries", + "result2": "Zero values boundary violations in 127 test scenarios", + "result3": "100% detection rate for pattern bias failures", + "result4": "<10ms performance overhead for governance layer", + "disclaimer": "*Single-agent deployment. Independent validation and multi-organization replication needed.", + "testing_title": "Real-World Testing", + "testing_text1": "This isn't just theory. Tractatus is running in production, handling real workloads and detecting real failure patterns.", + "testing_text2": "Early results are promising—with documented incident prevention—but this needs independent validation and much wider testing.", + "diagram_link": "View Claude Code Implementation Diagram →" + }, + "limitations": { + "heading": "Limitations and Reality Check", + "intro": "This is early-stage work. While we've seen promising results in our production deployment, Tractatus has not been subjected to rigorous adversarial testing or red-team evaluation.", + "quote": "We have real promise but this is still in early development stage. This sounds like we have the complete issue resolved, we do not. We have a long way to go and it will require a mammoth effort by developers in every part of the industry to tame AI effectively. This is just a start.", + "quote_attribution": "— Project Lead, Tractatus Framework", + "known_heading": "Known Limitations:", + "limitation1": "No dedicated red-team testing: We don't know how well these boundaries hold up against determined adversarial attacks.", + "limitation2": "Small-scale validation: Six months of production use on a single project. Needs multi-organization replication.", + "limitation3": "Integration challenges: Retrofitting governance into existing systems requires significant engineering effort.", + "limitation4": "Performance at scale unknown: Testing limited to single-agent deployments. Multi-agent coordination untested.", + "limitation5": "Evolving threat landscape: As AI capabilities grow, new failure modes will emerge that current architecture may not address.", + "needs_heading": "What We Need:", + "need1": "Independent researchers to validate (or refute) our findings", + "need2": "Red-team evaluation to find weaknesses and bypass techniques", + "need3": "Multi-organization pilot deployments across different domains", + "need4": "Industry-wide collaboration on governance standards and patterns", + "need5": "Quantitative studies measuring incident reduction and cost-benefit analysis", + "conclusion": "This framework is a starting point for exploration, not a finished solution. Taming AI will require sustained effort from the entire industry—researchers, practitioners, regulators, and ethicists working together." + }, + "cta": { + "heading": "Explore a Promising Approach to AI Safety", + "subtitle": "Tractatus demonstrates how structural enforcement may complement behavioral training. We invite researchers and practitioners to evaluate, critique, and build upon this work.", + "btn_docs": "Read Documentation", + "btn_research": "View Research", + "btn_implementation": "Implementation Guide" + } +} diff --git a/public/locales/fr/architecture.json b/public/locales/fr/architecture.json new file mode 100644 index 00000000..55255ae5 --- /dev/null +++ b/public/locales/fr/architecture.json @@ -0,0 +1,135 @@ +{ + "breadcrumb": { + "home": "Accueil", + "current": "Architecture" + }, + "hero": { + "badge": "🔬 RECHERCHE PRÉCOCE • APPROCHE PROMETTEUSE", + "title": "Explorer la Sécurité Structurelle de l'IA", + "subtitle": "Tractatus explore la gouvernance externe – des frontières architecturales opérant en dehors de l'exécution de l'IA qui peuvent être plus résistantes à la manipulation adversariale que la formation comportementale seule.", + "challenge_label": "Le Défi:", + "challenge_text": "La formation comportementale (Constitutional AI, RLHF) est prometteuse mais peut se dégrader sous prompt adversarial, pression contextuelle ou changement de distribution.", + "approach_label": "Notre Approche:", + "approach_text": "L'application architecturale externe qui fonctionne indépendamment du raisonnement interne de l'IA – rendant structurellement plus difficile (bien que pas impossible) le contournement par prompting.", + "cta_architecture": "Voir l'Architecture", + "cta_docs": "Lire la Documentation" + }, + "comparison": { + "heading": "Pourquoi l'Application Externe Peut Aider", + "behavioral_title": "Formation Comportementale (Constitutional AI)", + "behavioral_items": [ + "Vit à l'intérieur du modèle IA – accessible aux prompts adversariaux", + "Se dégrade sous pression contextuelle et longues conversations", + "Peut être manipulé par des techniques de jailbreak (DAN, jeux de rôle, hypothétiques)", + "Dépend de la volonté de l'IA de suivre les orientations", + "Aucune piste d'audit vérifiable indépendante de l'IA" + ], + "structural_title": "Application Structurelle (Tractatus)", + "structural_items": [ + "Vit à l'extérieur du modèle IA – non directement accessible aux prompts", + "Les services externes visent une application cohérente quel que soit le contexte", + "Plus difficile à contourner – les actions de l'IA passent d'abord par la couche de gouvernance", + "Résistant architecturalement à la manipulation via l'état interne de l'IA", + "Piste d'audit immuable stockée indépendamment de l'exécution de l'IA" + ], + "hypothesis_title": "L'Hypothèse Centrale", + "hypothesis_text": "Les jailbreaks fonctionnent souvent en manipulant le raisonnement interne de l'IA. Les frontières Tractatus opèrent en externe de ce raisonnement – l'IA n'évalue pas directement les règles de gouvernance. Bien que non infaillible, cette séparation architecturale rend la manipulation beaucoup plus difficile." + }, + "architecture_diagram": { + "title": "Architecture Agnostique de l'Exécution", + "subtitle": "Tractatus fonctionne avec tout système IA agentique – Claude Code, LangChain, AutoGPT, CrewAI ou agents personnalisés. La couche de gouvernance se situe entre votre agent et ses actions.", + "layer1_title": "1. Couche d'Exécution Agent", + "layer1_desc": "Votre agent IA (toute plateforme). Gère la planification, le raisonnement, l'utilisation d'outils. Tractatus est agnostique à l'implémentation.", + "layer2_title": "2. Couche de Gouvernance", + "layer2_desc": "Six services externes appliquent les frontières, valident les actions, surveillent la pression. Architecturalement plus difficile à contourner pour l'IA.", + "layer3_title": "3. Stockage Persistant", + "layer3_desc": "Journaux d'audit immuables, règles de gouvernance, historique des instructions. Indépendant de l'exécution de l'IA – ne peut être modifié par des prompts." + }, + "services": { + "heading": "Six Services de Gouvernance", + "boundary": { + "name": "BoundaryEnforcer", + "description": "Empêche l'IA de prendre des décisions de valeurs (confidentialité, éthique, direction stratégique). Nécessite l'approbation humaine.", + "promise": "Promesse Précoce: Frontières de valeurs appliquées en externe – plus difficile à manipuler par prompting." + }, + "instruction": { + "name": "InstructionPersistenceClassifier", + "description": "Stocke les instructions en externe avec des niveaux de persistance (HIGH/MEDIUM/LOW). Vise à réduire la dérive des directives.", + "promise": "Promesse Précoce: Instructions stockées en dehors de l'IA – plus résistantes à la manipulation contextuelle." + }, + "validator": { + "name": "CrossReferenceValidator", + "description": "Valide les actions de l'IA contre l'historique des instructions. Vise à empêcher le biais de pattern d'outrepasser les directives explicites.", + "promise": "Promesse Précoce: Vérification indépendante – les affirmations de l'IA sont vérifiées contre une source externe." + }, + "pressure": { + "name": "ContextPressureMonitor", + "description": "Surveille la dégradation des performances de l'IA. Escalade lorsque la pression contextuelle menace la qualité.", + "promise": "Promesse Précoce: Les métriques objectives peuvent détecter les tentatives de manipulation tôt." + }, + "metacognitive": { + "name": "MetacognitiveVerifier", + "description": "Exige que l'IA pause et vérifie les opérations complexes avant l'exécution. Vérification de sécurité structurelle.", + "promise": "Promesse Précoce: Les portes architecturales visent à appliquer les étapes de vérification." + }, + "deliberation": { + "name": "PluralisticDeliberationOrchestrator", + "description": "Facilite la délibération multi-parties prenantes pour les conflits de valeurs. L'IA fournit la facilitation, pas l'autorité.", + "promise": "Promesse Précoce: Jugement humain requis – escalade architecturalement appliquée pour les valeurs." + } + }, + "interactive": { + "title": "Explorer l'Architecture de Manière Interactive", + "subtitle": "Cliquez sur n'importe quel nœud de service ou le noyau central pour voir des informations détaillées sur le fonctionnement de la gouvernance.", + "tip_label": "Astuce:", + "tip_text": "Cliquez sur le \"T\" central pour voir comment tous les services fonctionnent ensemble", + "panel_default_title": "Explorer les Services de Gouvernance", + "panel_default_text": "Cliquez sur n'importe quel nœud de service dans le diagramme (cercles colorés) ou le \"T\" central pour en savoir plus sur la façon dont Tractatus applique la sécurité de l'IA." + }, + "data_viz": { + "heading": "Framework en Action", + "subtitle": "Visualisations interactives démontrant comment les services de gouvernance Tractatus surveillent et coordonnent les opérations de l'IA." + }, + "production": { + "heading": "Implémentation de Référence en Production", + "subtitle": "Tractatus est déployé en production en utilisant Claude Code comme runtime d'agent. Cela démontre la viabilité réelle du framework.", + "implementation_title": "Claude Code + Tractatus", + "implementation_intro": "Notre déploiement en production utilise Claude Code comme runtime d'agent avec le middleware de gouvernance Tractatus. Cette combinaison fournit:", + "implementation_results_intro": "Résultats du déploiement en production de 6 mois:", + "result1": "95% de persistance des instructions à travers les frontières de session", + "result2": "Zéro violation de frontières de valeurs dans 127 scénarios de test", + "result3": "100% de taux de détection pour les échecs de biais de pattern", + "result4": "<10ms de surcharge de performance pour la couche de gouvernance", + "disclaimer": "*Déploiement à agent unique. Validation indépendante et réplication multi-organisationnelle nécessaires.", + "testing_title": "Tests en Conditions Réelles", + "testing_text1": "Ce n'est pas que de la théorie. Tractatus fonctionne en production, gérant de vraies charges de travail et détectant de vrais modèles d'échec.", + "testing_text2": "Les premiers résultats sont prometteurs – avec prévention d'incidents documentée – mais cela nécessite une validation indépendante et des tests beaucoup plus larges.", + "diagram_link": "Voir le Diagramme d'Implémentation Claude Code →" + }, + "limitations": { + "heading": "Limitations et Vérification de la Réalité", + "intro": "C'est un travail à un stade précoce. Bien que nous ayons vu des résultats prometteurs dans notre déploiement en production, Tractatus n'a pas été soumis à des tests adversariaux rigoureux ou à une évaluation d'équipe rouge.", + "quote": "Nous avons une réelle promesse, mais c'est encore au stade de développement précoce. Cela sonne comme si nous avions complètement résolu le problème, ce n'est pas le cas. Nous avons un long chemin à parcourir et il faudra un effort colossal des développeurs dans toute l'industrie pour dompter efficacement l'IA. Ce n'est qu'un début.", + "quote_attribution": "— Chef de Projet, Framework Tractatus", + "known_heading": "Limitations Connues:", + "limitation1": "Aucun test d'équipe rouge dédié: Nous ne savons pas dans quelle mesure ces frontières résistent aux attaques adversariales déterminées.", + "limitation2": "Validation à petite échelle: Six mois d'utilisation en production sur un seul projet. Nécessite une réplication multi-organisationnelle.", + "limitation3": "Défis d'intégration: Rétrofit de la gouvernance dans les systèmes existants nécessite un effort d'ingénierie significatif.", + "limitation4": "Performance à l'échelle inconnue: Tests limités aux déploiements à agent unique. Coordination multi-agents non testée.", + "limitation5": "Paysage de menaces évolutif: À mesure que les capacités de l'IA augmentent, de nouveaux modes d'échec émergeront que l'architecture actuelle peut ne pas aborder.", + "needs_heading": "Ce Dont Nous Avons Besoin:", + "need1": "Des chercheurs indépendants pour valider (ou réfuter) nos résultats", + "need2": "Évaluation d'équipe rouge pour trouver les faiblesses et les techniques de contournement", + "need3": "Déploiements pilotes multi-organisationnels dans différents domaines", + "need4": "Collaboration à l'échelle de l'industrie sur les normes et modèles de gouvernance", + "need5": "Études quantitatives mesurant la réduction des incidents et l'analyse coût-bénéfice", + "conclusion": "Ce framework est un point de départ pour l'exploration, pas une solution finie. Dompter l'IA nécessitera un effort soutenu de l'ensemble de l'industrie – chercheurs, praticiens, régulateurs et éthiciens travaillant ensemble." + }, + "cta": { + "heading": "Explorer une Approche Prometteuse pour la Sécurité de l'IA", + "subtitle": "Tractatus démontre comment l'application structurelle peut compléter la formation comportementale. Nous invitons les chercheurs et praticiens à évaluer, critiquer et construire sur ce travail.", + "btn_docs": "Lire la Documentation", + "btn_research": "Voir la Recherche", + "btn_implementation": "Guide d'Implémentation" + } +}