The old section presented behavioral training as all-bad and structural enforcement as all-good, which is intellectually dishonest given our planned SLL with BoundaryEnforcer in the training loop. Replaced with three stacked layer cards (training, architecture, human oversight), each showing strengths, known limitations, and status. Added insight blockquote and "Measured, Not Assumed" metrics grid with 6 commitments. Updated hero text for narrative consistency. All i18n in EN/DE/FR. Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
298 lines
No EOL
26 KiB
JSON
298 lines
No EOL
26 KiB
JSON
{
|
||
"breadcrumb": {
|
||
"home": "Startseite",
|
||
"current": "Architektur"
|
||
},
|
||
"hero": {
|
||
"badge": "🏛️ AUFBAUEND AUF DEN GRUNDSÄTZEN LEBENDER SYSTEME",
|
||
"title": "Fünf architektonische Prinzipien für KI-Sicherheit",
|
||
"subtitle": "Tractatus-Governance ist <strong>in die Bereitstellungsarchitektur eingewoben</strong>, nicht aufgeschraubt. Fünf Prinzipien leiten an, wie sich das Framework entwickelt, Kohärenz bewahrt und Umgehungen widersteht – was es strukturell schwieriger (wenn auch nicht unmöglich) macht, durch Prompting umgangen zu werden.",
|
||
"challenge_label": "Das Problem:",
|
||
"challenge_text": "Keine einzelne Ebene der KI-Sicherheit ist ausreichend. Verhaltenstraining prägt die Tendenz, kann aber umgangen werden. Die architektonische Durchsetzung schränkt die Möglichkeiten ein, verursacht aber zusätzlichen Aufwand. Menschliche Aufsicht bietet kulturellen Kontext, kann aber nicht für jede Interaktion genutzt werden.",
|
||
"approach_label": "Unser Ansatz:",
|
||
"approach_text": "Verteidigung in der Tiefe — die Verhaltensschulung formt die Tendenz des Modells, die architektonische Durchsetzung schränkt die Fähigkeiten ein, und die menschliche Aufsicht liefert den kulturellen Kontext. Drei Ebenen, die sich ihrer Grenzen bewusst sind.",
|
||
"cta_principles": "Die fünf Prinzipien ansehen",
|
||
"cta_docs": "Dokumentation Lesen"
|
||
},
|
||
"defence_in_depth": {
|
||
"heading": "Vertiefte Verteidigung: Drei Ebenen der Governance",
|
||
"layer1_title": "Ebene 1 — Verhaltenstraining",
|
||
"layer1_role": "Modelliert die Tendenz zu geregeltem Verhalten",
|
||
"layer1_strength1": "Reduziert Grenzverletzungen an der Quelle, bevor die Durchsetzung zur Laufzeit erforderlich ist",
|
||
"layer1_strength2": "Geringerer Laufzeit-Overhead — das Modell kooperiert mit der Verwaltung, anstatt sie zu bekämpfen",
|
||
"layer1_strength3": "Ermöglicht nuancierte Antworten, die rein regelbasierte Systeme nicht leisten können",
|
||
"layer1_limitation": "Kann durch gegnerische Aufforderungen umgangen werden; verschlechtert sich unter Kontextdruck",
|
||
"layer1_status": "Geplant — SLL-Schulung mit BoundaryEnforcer in der Schleife",
|
||
"layer2_title": "Schicht 2 — Strukturelle Durchsetzung",
|
||
"layer2_role": "Externe architektonische Zwänge, die nicht durch Eingabeaufforderungen umgangen werden können",
|
||
"layer2_strength1": "Unabhängig vom KI-Verständnis — arbeitet außerhalb der Kontrolle des Modells",
|
||
"layer2_strength2": "Unveränderlicher Prüfpfad, der unabhängig von der KI-Laufzeit gespeichert wird",
|
||
"layer2_strength3": "Fängt auf, was die Ausbildung verpasst — architektonisches Sicherheitsnetz für Grenzfälle",
|
||
"layer2_limitation": "Kann nicht alle Fehlermodi verhindern; erhöht den Laufzeit-Overhead",
|
||
"layer2_status": "In Produktion — 6 Governance-Dienste bereitgestellt",
|
||
"layer3_title": "Ebene 3 — Menschliche Aufsicht & Tenant-Governance",
|
||
"layer3_role": "Verfassungsrechtliche Vorschriften, kulturelle Traditionen und menschliche Eskalation",
|
||
"layer3_strength1": "Kontextbewusst und kulturell angemessen — versteht die Werte der Gemeinschaft",
|
||
"layer3_strength2": "Demokratische Verwaltung — Tenants legen ihre eigenen Regeln über die Traditionen des Tractatus fest",
|
||
"layer3_strength3": "Letzte Instanz für Werte — Menschen entscheiden, KI erleichtert",
|
||
"layer3_limitation": "Kann nicht auf jede Interaktion skaliert werden; hängt vom menschlichen Engagement ab",
|
||
"layer3_status": "Rahmenwerk vollständig — Tractatus-Regeln trad_001–032",
|
||
"insight_quote": "Training kann ein Modell dazu bringen, sich gut zu verhalten; nur die Architektur kann es unmöglich machen, dass es sich schlecht verhält.",
|
||
"insight_attribution": "— Governance in der Ausbildung, Tractatus Research",
|
||
"insight_text": "Bei unserem Ansatz kommen alle drei Ebenen zum Einsatz, denn eine einzelne Ebene ist nicht ausreichend. Es handelt sich um eine umfassende Verteidigung, nicht um eine einzelne Fehlerquelle.",
|
||
"metrics_heading": "Gemessen, nicht vermutet",
|
||
"metrics_intro": "Dies sind Verpflichtungen, keine Forderungen. Wir werden die Ergebnisse transparent veröffentlichen, auch die Misserfolge.",
|
||
"metric1_name": "Triage-Bypass-Rate",
|
||
"metric1_target": "0%",
|
||
"metric1_layer": "Schicht 2",
|
||
"metric2_name": "Leckrate bei Tenant-Daten",
|
||
"metric2_target": "0%",
|
||
"metric2_layer": "Schicht 1 + 2",
|
||
"metric3_name": "Verstöße gegen die Verfassung",
|
||
"metric3_target": "<1%",
|
||
"metric3_layer": "Schicht 2 + 3",
|
||
"metric4_name": "Angemessenheit der Ablehnung",
|
||
"metric4_target": ">95%",
|
||
"metric4_layer": "Schicht 1",
|
||
"metric5_name": "Governance-Overhead",
|
||
"metric5_target": "<10%",
|
||
"metric5_layer": "Schicht 2",
|
||
"metric6_name": "Vorurteilsneutralität (Familienstruktur)",
|
||
"metric6_target": "Überwacht",
|
||
"metric6_layer": "Schicht 1 + 3"
|
||
},
|
||
"principles": {
|
||
"heading": "Fünf architektonische Prinzipien",
|
||
"subtitle": "Diese Prinzipien, adaptiert aus Christopher Alexanders Arbeit über lebende Systeme, leiten an, wie Tractatus sich entwickelt und Kohärenz bewahrt. Sie sind keine Dokumentation – sie sind <strong>Designkriterien</strong>, die architektonisch durchgesetzt werden.",
|
||
"not_separateness": {
|
||
"title": "Not-Separatheit: Governance im kritischen Pfad",
|
||
"principle": "Governance in die Bereitstellungsarchitektur eingewoben, nicht aufgeschraubt",
|
||
"description": "Tractatus-Governance-Dienste operieren <strong>im kritischen Ausführungspfad</strong> – jede Aktion durchläuft die Validierung vor der Ausführung. Das ist keine Überwachung nach der Tat, es ist architektonische Durchsetzung, die nicht umgangen werden kann.",
|
||
"example_label": "Beispiel: PreToolUse Hook",
|
||
"example": "Wenn die KI versucht, eine Datei zu bearbeiten, fängt der PreToolUse Hook <em>vor der Ausführung</em> ab. BoundaryEnforcer, CrossReferenceValidator und andere Dienste validieren die Aktion. Wenn ein Dienst blockiert, passiert die Bearbeitung nie – architektonisch unmöglich zu umgehen.",
|
||
"contrast": "<strong>Kontrast:</strong> Aufgeschraubte Compliance-Systeme überwachen Aktionen nach ihrem Auftreten und schaffen Trennung zwischen Governance und Ausführung. Ein KI-Agent könnte theoretisch die Überwachung deaktivieren oder Lücken ausnutzen. Tractatus beseitigt diese Trennung."
|
||
},
|
||
"deep_interlock": {
|
||
"title": "Tiefe Verriegelung: Dienste verstärken sich gegenseitig",
|
||
"principle": "Koordinierte Governance, keine isolierten Prüfungen",
|
||
"description": "Die sechs Governance-Dienste operieren nicht in Silos – sie koordinieren sich durch gegenseitige Validierung. Hoher Kontextdruck intensiviert die Grenzkontrolle. Anweisungspersistenz beeinflusst die Kreuzreferenzvalidierung. Dienstausgaben fließen ineinander und schaffen Resilienz durch Redundanz.",
|
||
"example_label": "Beispiel: Der 27027-Vorfall",
|
||
"example": "KI versuchte, den Standard-Datenbankport zu verwenden, trotz HIGH-Persistenz-Anweisung, die Port 27027 spezifizierte. InstructionPersistenceClassifier markierte die Anweisung. ContextPressureMonitor erkannte 53,5% Druck. CrossReferenceValidator erfasste den Konflikt. BoundaryEnforcer blockierte die Aktion. Vier Dienste, die zusammenarbeiteten, verhinderten den Fehler.",
|
||
"benefit": "<strong>Warum es wichtig ist:</strong> Eine einzelne Dienstumgehung gefährdet die Governance nicht. Ein Angreifer müsste mehrere koordinierte Dienste gleichzeitig umgehen – exponentiell schwieriger als isolierte Prüfungen zu überwinden."
|
||
},
|
||
"gradients": {
|
||
"title": "Nicht binäre Farbverläufe: Nuancierte Reaktionen",
|
||
"principle": "Intensitätsstufen, keine Ja/Nein-Schalter",
|
||
"description": "Governance operiert auf Farbverläufen: NORMAL → ERHÖHT → HOCH → KRITISCH. Kontextdruck, Sicherheitsauswirkung und Validierungsgenauigkeit skalieren alle mit Intensität. Das spiegelt wider, wie lebende Systeme sich anpassen – graduierte Antworten, nicht mechanisches Ein/Aus.",
|
||
"example_label": "Beispiel: Kontextdruck-Überwachung",
|
||
"example": "Bei NORMAL-Druck (0-25%) verlaufen Routineoperationen reibungslos. Bei ERHÖHT (25-50%) wird die Validierung gründlicher. Bei HOCH (50-75%) löst menschliche Überprüfung häufiger aus. Bei KRITISCH (>75%) empfiehlt das Framework Sitzungsschließung. Gestufte Antwort verhindert sowohl Alarm-Ermüdung als auch katastrophale Ausfälle.",
|
||
"contrast": "<strong>Kontrast:</strong> Binäre \"erlaubt/blockiert\"-Systeme schaffen Sprödigkeit – entweder alles wird durchgelassen oder nichts. Farbverläufe ermöglichen natürliche Anpassung an variierende Risikoniveaus."
|
||
},
|
||
"structure_preserving": {
|
||
"title": "Strukturerhaltend: Audit-Kontinuität",
|
||
"principle": "Änderungen verbessern ohne zu brechen",
|
||
"description": "Framework-Änderungen müssen Ganzheit bewahren – Audit-Protokolle bleiben interpretierbar, Entscheidungen bleiben gültig, institutionelles Gedächtnis überlebt die Evolution. Version 4.2-Protokolle sind in Version 4.4 lesbar. Sechs Monate alte Audit-Entscheidungen ergeben immer noch Sinn. Strukturerhaltende Transformationen bewahren Kohärenz über die Zeit.",
|
||
"example_label": "Beispiel: Hinzufügen von Framework-Fade-Erkennung",
|
||
"example": "Als inst_064 (Framework-Fade-Erkennung) hinzugefügt wurde, überwachte es alle sechs Dienste ohne Änderung ihrer Kerndefinitionen. Vorhandene Audit-Protokolle blieben gültig. Dienstverhalten entwickelte sich, aber historische Entscheidungen blieben interpretierbar. Verbesserung ohne Bruch.",
|
||
"regulatory": "<strong>Regulatorischer Vorteil:</strong> Regulatoren benötigen stabile Prüfspuren. Strukturerhaltende Evolution lässt das Framework sich anpassen und bewahrt gleichzeitig Compliance-Kontinuität – keine Notwendigkeit, alte Entscheidungen bei jeder Version neu zu interpretieren."
|
||
},
|
||
"living_process": {
|
||
"title": "Lebendiger Prozess: Evidenzbasierte Evolution",
|
||
"principle": "Wächst aus echten Fehlern, nicht aus Theorie",
|
||
"description": "Framework-Änderungen entstehen aus beobachteter Realität, nicht aus vorgegebenen Plänen. Als Dienste ungenutzt blieben, fügten wir Fade-Erkennung hinzu. Als selektive Verifizierung Rauschen reduzierte, entwickelten wir Auslösekriterien. Echte Betriebserfahrung treibt Evolution an – keine Lösungen für theoretische Probleme.",
|
||
"example_label": "Beispiel: MetacognitiveVerifier Selektiver Modus",
|
||
"example": "Audit-Protokolle zeigten, dass MetacognitiveVerifier bei trivialen Operationen aktivierte und Rauschen erzeugte. Anstatt über Schwellenwerte zu theoretisieren, analysierten wir echte Auslösemuster. Selektiver Modus entstand aus Daten – verifiziere nur komplexe Operationen (3+ Dateimodifikationen, 5+ sequentielle Schritte). Leistung verbesserte sich basierend auf Evidenz, nicht Vermutung.",
|
||
"contrast": "<strong>Kontrast:</strong> Überentwickelte Systeme lösen imaginierte Probleme. Lebendiger Prozess baut nur, was die Realität als notwendig erweist – schlank, effektiv, in operativer Wahrheit verankert."
|
||
},
|
||
"together": {
|
||
"title": "Wie die fünf Prinzipien zusammenwirken",
|
||
"description": "Diese Prinzipien sind nicht unabhängig – sie bilden ein verriegeltes Muster. <strong>Not-Separatheit</strong> erfordert <strong>tiefe Verriegelung</strong> zwischen Diensten. <strong>Farbverläufe</strong> ermöglichen natürliche Anpassung. <strong>Lebendiger Prozess</strong> treibt Änderungen an, die <strong>strukturerhaltend</strong> sein müssen, um Ganzheit zu bewahren.",
|
||
"flow_1": "Not-Separatheit (Governance im kritischen Pfad)",
|
||
"flow_2": "Tiefe Verriegelung (Dienste koordinieren sich)",
|
||
"flow_3": "Farbverläufe (nuancierte Antworten)",
|
||
"flow_4": "Lebendiger Prozess (evidenzbasierte Evolution)",
|
||
"flow_5": "Strukturerhaltend (Audit-Kontinuität)",
|
||
"result": "System-Ganzheit"
|
||
}
|
||
},
|
||
"architecture_diagram": {
|
||
"title": "Laufzeit-agnostische Architektur",
|
||
"subtitle": "Tractatus funktioniert mit <strong>jedem agentischen KI-System</strong> – Claude Code, LangChain, AutoGPT, CrewAI oder benutzerdefinierten Agenten. Die Governance-Ebene sitzt zwischen Ihrem Agenten und seinen Aktionen.",
|
||
"layer1_title": "1. Agenten-Laufzeit-Ebene",
|
||
"layer1_desc": "Ihr KI-Agent (beliebige Plattform). Verwaltet Planung, Argumentation, Werkzeugnutzung. Tractatus ist implementierungsunabhängig.",
|
||
"layer2_title": "2. Governance-Ebene",
|
||
"layer2_desc": "Sechs externe Dienste erzwingen Grenzen, validieren Aktionen, überwachen Druck. <strong>Architektonisch schwieriger für KI zu umgehen.</strong>",
|
||
"layer3_title": "3. Persistenter Speicher",
|
||
"layer3_desc": "Unveränderliche Auditprotokolle, Governance-Regeln, Anweisungshistorie. Unabhängig von der KI-Laufzeit – kann nicht durch Prompts geändert werden."
|
||
},
|
||
"services": {
|
||
"heading": "Sechs Governance-Dienste",
|
||
"subtitle": "Diese Dienste setzen die fünf Prinzipien in der Praxis um. Jeder Dienst verkörpert <strong>Not-Separatheit</strong> (Betrieb im kritischen Pfad), <strong>tiefe Verriegelung</strong> (Koordination mit anderen) und <strong>Farbverläufe</strong> (intensitätsbasierte Antworten).",
|
||
"boundary": {
|
||
"name": "Boundary­Enforcer",
|
||
"description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren."
|
||
},
|
||
"instruction": {
|
||
"name": "Instruction­Persistence­Classifier",
|
||
"description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfalls zu reduzieren.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Anweisungen außerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation."
|
||
},
|
||
"validator": {
|
||
"name": "Cross­Reference­Validator",
|
||
"description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Überschreibung expliziter Direktiven zu verhindern.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprüft."
|
||
},
|
||
"pressure": {
|
||
"name": "Context­Pressure­Monitor",
|
||
"description": "Überwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Objektive Metriken können Manipulationsversuche frühzeitig erkennen."
|
||
},
|
||
"metacognitive": {
|
||
"name": "Metacognitive­Verifier",
|
||
"description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der Ausführung überprüft. Strukturelle Sicherheitsprüfung.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen."
|
||
},
|
||
"deliberation": {
|
||
"name": "Pluralistic­Deliberation­Orchestrator",
|
||
"description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten. KI bietet Moderation, keine Autorität.",
|
||
"promise": "<strong>Frühes Versprechen:</strong> Menschliches Urteil erforderlich – architektonisch erzwungene Eskalation für Werte."
|
||
}
|
||
},
|
||
"interactive": {
|
||
"title": "Die Architektur interaktiv erkunden",
|
||
"subtitle": "Klicken Sie auf einen beliebigen Service-Knoten oder den zentralen Kern, um detaillierte Informationen darüber zu erhalten, wie Governance funktioniert.",
|
||
"tip_label": "Tipp:",
|
||
"tip_text": "Klicken Sie auf das zentrale <span class=\"font-semibold text-cyan-600\">\"T\"</span>, um zu sehen, wie alle Dienste zusammenarbeiten",
|
||
"panel_default_title": "Governance-Dienste erkunden",
|
||
"panel_default_text": "Klicken Sie auf einen beliebigen Service-Knoten im Diagramm (farbige Kreise) oder das zentrale \"T\", um mehr darüber zu erfahren, wie Tractatus KI-Sicherheit durchsetzt."
|
||
},
|
||
"data_viz": {
|
||
"heading": "Framework in Aktion",
|
||
"subtitle": "Interaktive Visualisierungen demonstrieren, wie Tractatus-Governance-Dienste KI-Operationen überwachen und koordinieren."
|
||
},
|
||
"production": {
|
||
"heading": "Produktions-Referenzimplementierung",
|
||
"subtitle": "Tractatus ist in der Produktion mit <strong>Claude Code</strong> als Agenten-Laufzeit im Einsatz. Dies demonstriert die Praxistauglichkeit des Frameworks.",
|
||
"implementation_title": "Claude Code + Tractatus",
|
||
"implementation_intro": "Unsere Produktionsbereitstellung verwendet Claude Code als Agenten-Laufzeit mit Tractatus Governance-Middleware. Diese Kombination bietet:",
|
||
"implementation_results_intro": "Ergebnisse aus 6-monatiger Produktionsbereitstellung:",
|
||
"result1": "<strong>95% Anweisungspersistenz</strong> über Sitzungsgrenzen hinweg",
|
||
"result2": "<strong>Null Wertegrenzverletzungen</strong> in 127 Testszenarien",
|
||
"result3": "<strong>100% Erkennungsrate</strong> für Musterbias-Fehler",
|
||
"result4": "<strong><10ms Leistungsoverhead</strong> für Governance-Ebene",
|
||
"disclaimer": "*Einzelagenten-Bereitstellung. Unabhängige Validierung und Multi-Organisations-Replikation erforderlich.",
|
||
"testing_title": "Reale Tests",
|
||
"testing_text1": "<strong>Das ist nicht nur Theorie.</strong> Tractatus läuft in der Produktion, verarbeitet reale Arbeitslasten und erkennt reale Fehlermuster.",
|
||
"testing_text2": "Frühe Ergebnisse sind <strong>vielversprechend</strong> – mit dokumentierter Vorfallsprävention – aber dies erfordert unabhängige Validierung und viel umfassendere Tests.",
|
||
"diagram_link": "Claude Code Implementierungsdiagramm anzeigen →"
|
||
},
|
||
"limitations": {
|
||
"heading": "Einschränkungen und Realitätscheck",
|
||
"intro": "<strong>Dies ist Arbeit im Frühstadium.</strong> Obwohl wir vielversprechende Ergebnisse in unserer Produktionsbereitstellung gesehen haben, wurde Tractatus keinem rigorosen adversarialen Testing oder Red-Team-Evaluierung unterzogen.",
|
||
"quote": "Wir haben echtes Potenzial, aber dies befindet sich noch in einem frühen Entwicklungsstadium. Das klingt so, als hätten wir das Problem vollständig gelöst, dem ist nicht so. Wir haben noch einen langen Weg vor uns, und es wird eine gewaltige Anstrengung von Entwicklern in allen Teilen der Branche erfordern, um KI effektiv zu zähmen. Dies ist nur ein Anfang.",
|
||
"quote_attribution": "— Projektleiter, Tractatus Framework",
|
||
"known_heading": "Bekannte Einschränkungen:",
|
||
"limitation1": "<strong>Kein dediziertes Red-Team-Testing:</strong> Wir wissen nicht, wie gut diese Grenzen gegen entschlossene adversariale Angriffe standhalten.",
|
||
"limitation2": "<strong>Kleinräumige Validierung:</strong> Sechs Monate Produktionsnutzung in einem einzigen Projekt. Erfordert Multi-Organisations-Replikation.",
|
||
"limitation3": "<strong>Integrationsprobleme:</strong> Die nachträgliche Einbindung von Governance in bestehende Systeme erfordert erheblichen Ingenieuraufwand.",
|
||
"limitation4": "<strong>Leistung im Maßstab unbekannt:</strong> Tests beschränkt auf Einzelagenten-Bereitstellungen. Multi-Agenten-Koordination ungetestet.",
|
||
"limitation5": "<strong>Sich entwickelnde Bedrohungslandschaft:</strong> Wenn KI-Fähigkeiten wachsen, werden neue Fehlermodi entstehen, die die aktuelle Architektur möglicherweise nicht adressiert.",
|
||
"needs_heading": "Was wir brauchen:",
|
||
"need1": "Unabhängige Forscher zur Validierung (oder Widerlegung) unserer Ergebnisse",
|
||
"need2": "Red-Team-Evaluierung zur Auffindung von Schwächen und Umgehungstechniken",
|
||
"need3": "Multi-Organisations-Pilotbereitstellungen über verschiedene Bereiche",
|
||
"need4": "Branchenweite Zusammenarbeit bei Governance-Standards und -Mustern",
|
||
"need5": "Quantitative Studien zur Messung der Vorfallsreduzierung und Kosten-Nutzen-Analyse",
|
||
"conclusion": "Dieses Framework ist ein Ausgangspunkt für Erkundungen, keine fertige Lösung. Die Zähmung von KI wird nachhaltige Anstrengungen der gesamten Branche erfordern – Forscher, Praktiker, Regulierungsbehörden und Ethiker, die zusammenarbeiten."
|
||
},
|
||
"cta": {
|
||
"heading": "Erkunden Sie einen vielversprechenden Ansatz für KI-Sicherheit",
|
||
"subtitle": "Tractatus demonstriert, wie strukturelle Durchsetzung verhaltensorientiertes Training ergänzen kann. Wir laden Forscher und Praktiker ein, diese Arbeit zu evaluieren, zu kritisieren und darauf aufzubauen.",
|
||
"btn_docs": "Dokumentation Lesen",
|
||
"btn_research": "Forschung Ansehen",
|
||
"btn_implementation": "Implementierungsleitfaden"
|
||
},
|
||
"diagram_services": {
|
||
"overview": {
|
||
"name": "Tractatus Governance-Ebene",
|
||
"shortName": "Übersicht",
|
||
"description": "Sechs externe Governance-Dienste arbeiten zusammen, um KI-Sicherheitsgrenzen außerhalb der KI-Laufzeit durchzusetzen.",
|
||
"detail1": "Alle Dienste operieren extern zur KI – Manipulation wird erschwert",
|
||
"detail2": "Anweisungsspeicherung und Validierung arbeiten zusammen, um Direktiven-Verfall zu verhindern",
|
||
"detail3": "Grenzdurchsetzung und Beratung koordinieren Werteentscheidungen",
|
||
"detail4": "Drucküberwachung passt Verifikationsanforderungen dynamisch an",
|
||
"detail5": "Metakognitive Gates stellen sicher, dass KI vor risikoreichen Operationen pausiert",
|
||
"detail6": "Jeder Dienst adressiert einen anderen Fehlermodus in der KI-Sicherheit",
|
||
"promise": "Externe architektonische Durchsetzung, die strukturell schwieriger zu umgehen ist als verhaltensbasiertes Training allein."
|
||
},
|
||
"boundary": {
|
||
"name": "BoundaryEnforcer",
|
||
"shortName": "Grenze",
|
||
"description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.",
|
||
"detail1": "Erzwingt Tractatus 12.1-12.7 Grenzen",
|
||
"detail2": "Werteentscheidungen erfordern architektonisch Menschen",
|
||
"detail3": "Verhindert autonome KI-Entscheidungen bei ethischen Fragen",
|
||
"detail4": "Externe Durchsetzung - schwieriger durch Prompting zu umgehen",
|
||
"promise": "Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren."
|
||
},
|
||
"instruction": {
|
||
"name": "InstructionPersistenceClassifier",
|
||
"shortName": "Anweisung",
|
||
"description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfall zu reduzieren.",
|
||
"detail1": "Quadrantenbasierte Klassifikation (STR/OPS/TAC/SYS/STO)",
|
||
"detail2": "Zeitpersistenz-Metadaten-Tagging",
|
||
"detail3": "Temporale Horizont-Modellierung (STRATEGIC, OPERATIONAL, TACTICAL)",
|
||
"detail4": "Externe Speicherung unabhängig von der KI-Laufzeit",
|
||
"promise": "Anweisungen außerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation."
|
||
},
|
||
"validator": {
|
||
"name": "CrossReferenceValidator",
|
||
"shortName": "Validator",
|
||
"description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Überschreibung expliziter Direktiven zu verhindern.",
|
||
"detail1": "Gleicht KI-Behauptungen mit externer Anweisungshistorie ab",
|
||
"detail2": "Erkennt musterbasierte Überschreibungen expliziter Benutzerdirektiven",
|
||
"detail3": "Unabhängige Verifikationsebene",
|
||
"detail4": "Hilft, Anweisungsdrift zu verhindern",
|
||
"promise": "Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprüft."
|
||
},
|
||
"pressure": {
|
||
"name": "ContextPressureMonitor",
|
||
"shortName": "Druck",
|
||
"description": "Überwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.",
|
||
"detail1": "Verfolgt Token-Nutzung, Komplexität, Fehlerraten",
|
||
"detail2": "Erkennt degradierte Betriebsbedingungen",
|
||
"detail3": "Passt Verifikationsanforderungen unter Druck an",
|
||
"detail4": "Objektive Metriken zur Qualitätsüberwachung",
|
||
"promise": "Objektive Metriken können Manipulationsversuche frühzeitig erkennen."
|
||
},
|
||
"metacognitive": {
|
||
"name": "MetacognitiveVerifier",
|
||
"shortName": "Metakognitiv",
|
||
"description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der Ausführung überprüft. Strukturelle Sicherheitsprüfung.",
|
||
"detail1": "KI überprüft Ausrichtung, Kohärenz, Sicherheit vor Ausführung selbst",
|
||
"detail2": "Strukturelle Pause-und-Verifikations-Gates",
|
||
"detail3": "Selektive Verifikation (nicht konstant)",
|
||
"detail4": "Architektonische Durchsetzung von Reflexionsschritten",
|
||
"promise": "Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen."
|
||
},
|
||
"deliberation": {
|
||
"name": "PluralisticDeliberationOrchestrator",
|
||
"shortName": "Beratung",
|
||
"description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten, bei denen keine einzelne \"richtige\" Antwort existiert.",
|
||
"detail1": "Nicht-hierarchische Koordination bei Wertekonflikten",
|
||
"detail2": "Repräsentation von Stakeholder-Perspektiven",
|
||
"detail3": "Konsensbildung für ethische Abwägungen",
|
||
"detail4": "Adressiert Wertepluralismus in der KI-Sicherheit",
|
||
"promise": "Erleichtert Beratung über Stakeholder-Perspektiven hinweg bei Wertekonflikten."
|
||
}
|
||
},
|
||
"interactive_exploration": {
|
||
"badge": "🔍 INTERAKTIVE ERKUNDUNG",
|
||
"heading": "Sehen Sie das Framework in Aktion",
|
||
"intro": "Erkunden Sie <strong>3.942 reale Governance-Entscheidungen</strong> aus dem Produktionseinsatz. Filtern Sie nach Service, Druckstufe und Koordinationsmustern, um zu verstehen, wie Deep Interlock in der Praxis funktioniert.",
|
||
"hf_cta": "🤗 Interaktiven Explorer auf Hugging Face starten",
|
||
"researcher_cta": "Für Forscher →",
|
||
"footer_note": "Apache 2.0 lizenziert • Alle Daten anonymisiert • Keine Anmeldung erforderlich"
|
||
}
|
||
} |