{ "breadcrumb": { "home": "Startseite", "current": "Architektur" }, "hero": { "badge": "🏛️ AUFBAUEND AUF DEN GRUNDSĂ„TZEN LEBENDER SYSTEME", "title": "FĂĽnf architektonische Prinzipien fĂĽr KI-Sicherheit", "subtitle": "Tractatus-Governance ist in die Bereitstellungsarchitektur eingewoben, nicht aufgeschraubt. FĂĽnf Prinzipien leiten an, wie sich das Framework entwickelt, Kohärenz bewahrt und Umgehungen widersteht – was es strukturell schwieriger (wenn auch nicht unmöglich) macht, durch Prompting umgangen zu werden.", "challenge_label": "Das Problem:", "challenge_text": "Verhaltensorientiertes Training kann durch geschickt formulierte Prompts manipuliert werden. KI-Governance, die ausschlieĂźlich auf interner Argumentation basiert, ist anfällig fĂĽr Jailbreaks.", "approach_label": "Unser Ansatz:", "approach_text": "Architektonische Durchsetzung im kritischen AusfĂĽhrungspfad – Governance-Dienste validieren jede Aktion vor der AusfĂĽhrung, unabhängig von der internen Argumentation der KI.", "cta_principles": "Die fĂĽnf Prinzipien ansehen", "cta_docs": "Dokumentation Lesen" }, "comparison": { "heading": "Warum externe Durchsetzung helfen kann", "behavioral_title": "Verhaltensorientiertes Training (Constitutional AI)", "structural_title": "Strukturelle Durchsetzung (Tractatus)", "hypothesis_title": "Die zentrale Hypothese", "hypothesis_text": "Jailbreaks funktionieren oft, indem sie die interne Argumentation der KI manipulieren. Tractatus-Grenzen operieren extern zu dieser Argumentation – die KI bewertet Governance-Regeln nicht direkt. Obwohl nicht narrensicher, macht diese architektonische Trennung Manipulation erheblich schwieriger.", "behavioral_item1": "Lebt im KI-Modell – zugänglich fĂĽr böswillige Prompts", "behavioral_item2": "Verschlechtert sich unter Kontextdruck und langen Gesprächen", "behavioral_item3": "Kann durch Jailbreak-Techniken manipuliert werden (DAN, Rollenspiele, Hypothetisches)", "behavioral_item4": "Abhängig von der Bereitschaft der KI, Anweisungen zu folgen", "behavioral_item5": "Keine ĂĽberprĂĽfbare PrĂĽfspur unabhängig von der KI", "structural_item1": "Lebt auĂźerhalb des KI-Modells – nicht direkt durch Prompts zugänglich", "structural_item2": "Externe Dienste zielen auf konsistente Durchsetzung unabhängig vom Kontext ab", "structural_item3": "Schwieriger zu umgehen – KI-Aktionen durchlaufen zuerst die Governance-Ebene", "structural_item4": "Architektonisch widerstandsfähig gegen Manipulation ĂĽber den internen Zustand der KI", "structural_item5": "Unveränderliche PrĂĽfspur, unabhängig von der KI-Laufzeit gespeichert" }, "principles": { "heading": "FĂĽnf architektonische Prinzipien", "subtitle": "Diese Prinzipien, adaptiert aus Christopher Alexanders Arbeit ĂĽber lebende Systeme, leiten an, wie Tractatus sich entwickelt und Kohärenz bewahrt. Sie sind keine Dokumentation – sie sind Designkriterien, die architektonisch durchgesetzt werden.", "not_separateness": { "title": "Not-Separatheit: Governance im kritischen Pfad", "principle": "Governance in die Bereitstellungsarchitektur eingewoben, nicht aufgeschraubt", "description": "Tractatus-Governance-Dienste operieren im kritischen AusfĂĽhrungspfad – jede Aktion durchläuft die Validierung vor der AusfĂĽhrung. Das ist keine Ăśberwachung nach der Tat, es ist architektonische Durchsetzung, die nicht umgangen werden kann.", "example_label": "Beispiel: PreToolUse Hook", "example": "Wenn die KI versucht, eine Datei zu bearbeiten, fängt der PreToolUse Hook vor der AusfĂĽhrung ab. BoundaryEnforcer, CrossReferenceValidator und andere Dienste validieren die Aktion. Wenn ein Dienst blockiert, passiert die Bearbeitung nie – architektonisch unmöglich zu umgehen.", "contrast": "Kontrast: Aufgeschraubte Compliance-Systeme ĂĽberwachen Aktionen nach ihrem Auftreten und schaffen Trennung zwischen Governance und AusfĂĽhrung. Ein KI-Agent könnte theoretisch die Ăśberwachung deaktivieren oder LĂĽcken ausnutzen. Tractatus beseitigt diese Trennung." }, "deep_interlock": { "title": "Tiefe Verriegelung: Dienste verstärken sich gegenseitig", "principle": "Koordinierte Governance, keine isolierten PrĂĽfungen", "description": "Die sechs Governance-Dienste operieren nicht in Silos – sie koordinieren sich durch gegenseitige Validierung. Hoher Kontextdruck intensiviert die Grenzkontrolle. Anweisungspersistenz beeinflusst die Kreuzreferenzvalidierung. Dienstausgaben flieĂźen ineinander und schaffen Resilienz durch Redundanz.", "example_label": "Beispiel: Der 27027-Vorfall", "example": "KI versuchte, den Standard-Datenbankport zu verwenden, trotz HIGH-Persistenz-Anweisung, die Port 27027 spezifizierte. InstructionPersistenceClassifier markierte die Anweisung. ContextPressureMonitor erkannte 53,5% Druck. CrossReferenceValidator erfasste den Konflikt. BoundaryEnforcer blockierte die Aktion. Vier Dienste, die zusammenarbeiteten, verhinderten den Fehler.", "benefit": "Warum es wichtig ist: Eine einzelne Dienstumgehung gefährdet die Governance nicht. Ein Angreifer mĂĽsste mehrere koordinierte Dienste gleichzeitig umgehen – exponentiell schwieriger als isolierte PrĂĽfungen zu ĂĽberwinden." }, "gradients": { "title": "Nicht binäre Farbverläufe: Nuancierte Reaktionen", "principle": "Intensitätsstufen, keine Ja/Nein-Schalter", "description": "Governance operiert auf Farbverläufen: NORMAL → ERHĂ–HT → HOCH → KRITISCH. Kontextdruck, Sicherheitsauswirkung und Validierungsgenauigkeit skalieren alle mit Intensität. Das spiegelt wider, wie lebende Systeme sich anpassen – graduierte Antworten, nicht mechanisches Ein/Aus.", "example_label": "Beispiel: Kontextdruck-Ăśberwachung", "example": "Bei NORMAL-Druck (0-25%) verlaufen Routineoperationen reibungslos. Bei ERHĂ–HT (25-50%) wird die Validierung grĂĽndlicher. Bei HOCH (50-75%) löst menschliche ĂśberprĂĽfung häufiger aus. Bei KRITISCH (>75%) empfiehlt das Framework SitzungsschlieĂźung. Gestufte Antwort verhindert sowohl Alarm-ErmĂĽdung als auch katastrophale Ausfälle.", "contrast": "Kontrast: Binäre \"erlaubt/blockiert\"-Systeme schaffen Sprödigkeit – entweder alles wird durchgelassen oder nichts. Farbverläufe ermöglichen natĂĽrliche Anpassung an variierende Risikoniveaus." }, "structure_preserving": { "title": "Strukturerhaltend: Audit-Kontinuität", "principle": "Ă„nderungen verbessern ohne zu brechen", "description": "Framework-Ă„nderungen mĂĽssen Ganzheit bewahren – Audit-Protokolle bleiben interpretierbar, Entscheidungen bleiben gĂĽltig, institutionelles Gedächtnis ĂĽberlebt die Evolution. Version 4.2-Protokolle sind in Version 4.4 lesbar. Sechs Monate alte Audit-Entscheidungen ergeben immer noch Sinn. Strukturerhaltende Transformationen bewahren Kohärenz ĂĽber die Zeit.", "example_label": "Beispiel: HinzufĂĽgen von Framework-Fade-Erkennung", "example": "Als inst_064 (Framework-Fade-Erkennung) hinzugefĂĽgt wurde, ĂĽberwachte es alle sechs Dienste ohne Ă„nderung ihrer Kerndefinitionen. Vorhandene Audit-Protokolle blieben gĂĽltig. Dienstverhalten entwickelte sich, aber historische Entscheidungen blieben interpretierbar. Verbesserung ohne Bruch.", "regulatory": "Regulatorischer Vorteil: Regulatoren benötigen stabile PrĂĽfspuren. Strukturerhaltende Evolution lässt das Framework sich anpassen und bewahrt gleichzeitig Compliance-Kontinuität – keine Notwendigkeit, alte Entscheidungen bei jeder Version neu zu interpretieren." }, "living_process": { "title": "Lebendiger Prozess: Evidenzbasierte Evolution", "principle": "Wächst aus echten Fehlern, nicht aus Theorie", "description": "Framework-Ă„nderungen entstehen aus beobachteter Realität, nicht aus vorgegebenen Plänen. Als Dienste ungenutzt blieben, fĂĽgten wir Fade-Erkennung hinzu. Als selektive Verifizierung Rauschen reduzierte, entwickelten wir Auslösekriterien. Echte Betriebserfahrung treibt Evolution an – keine Lösungen fĂĽr theoretische Probleme.", "example_label": "Beispiel: MetacognitiveVerifier Selektiver Modus", "example": "Audit-Protokolle zeigten, dass MetacognitiveVerifier bei trivialen Operationen aktivierte und Rauschen erzeugte. Anstatt ĂĽber Schwellenwerte zu theoretisieren, analysierten wir echte Auslösemuster. Selektiver Modus entstand aus Daten – verifiziere nur komplexe Operationen (3+ Dateimodifikationen, 5+ sequentielle Schritte). Leistung verbesserte sich basierend auf Evidenz, nicht Vermutung.", "contrast": "Kontrast: Ăśberentwickelte Systeme lösen imaginierte Probleme. Lebendiger Prozess baut nur, was die Realität als notwendig erweist – schlank, effektiv, in operativer Wahrheit verankert." }, "together": { "title": "Wie die fĂĽnf Prinzipien zusammenwirken", "description": "Diese Prinzipien sind nicht unabhängig – sie bilden ein verriegeltes Muster. Not-Separatheit erfordert tiefe Verriegelung zwischen Diensten. Farbverläufe ermöglichen natĂĽrliche Anpassung. Lebendiger Prozess treibt Ă„nderungen an, die strukturerhaltend sein mĂĽssen, um Ganzheit zu bewahren.", "flow_1": "Not-Separatheit (Governance im kritischen Pfad)", "flow_2": "Tiefe Verriegelung (Dienste koordinieren sich)", "flow_3": "Farbverläufe (nuancierte Antworten)", "flow_4": "Lebendiger Prozess (evidenzbasierte Evolution)", "flow_5": "Strukturerhaltend (Audit-Kontinuität)", "result": "System-Ganzheit" } }, "architecture_diagram": { "title": "Laufzeit-agnostische Architektur", "subtitle": "Tractatus funktioniert mit jedem agentischen KI-System – Claude Code, LangChain, AutoGPT, CrewAI oder benutzerdefinierten Agenten. Die Governance-Ebene sitzt zwischen Ihrem Agenten und seinen Aktionen.", "layer1_title": "1. Agenten-Laufzeit-Ebene", "layer1_desc": "Ihr KI-Agent (beliebige Plattform). Verwaltet Planung, Argumentation, Werkzeugnutzung. Tractatus ist implementierungsunabhängig.", "layer2_title": "2. Governance-Ebene", "layer2_desc": "Sechs externe Dienste erzwingen Grenzen, validieren Aktionen, ĂĽberwachen Druck. Architektonisch schwieriger fĂĽr KI zu umgehen.", "layer3_title": "3. Persistenter Speicher", "layer3_desc": "Unveränderliche Auditprotokolle, Governance-Regeln, Anweisungshistorie. Unabhängig von der KI-Laufzeit – kann nicht durch Prompts geändert werden." }, "services": { "heading": "Sechs Governance-Dienste", "subtitle": "Diese Dienste setzen die fĂĽnf Prinzipien in der Praxis um. Jeder Dienst verkörpert Not-Separatheit (Betrieb im kritischen Pfad), tiefe Verriegelung (Koordination mit anderen) und Farbverläufe (intensitätsbasierte Antworten).", "boundary": { "name": "Boundary­Enforcer", "description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.", "promise": "FrĂĽhes Versprechen: Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren." }, "instruction": { "name": "Instruction­Persistence­Classifier", "description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfalls zu reduzieren.", "promise": "FrĂĽhes Versprechen: Anweisungen auĂźerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation." }, "validator": { "name": "Cross­Reference­Validator", "description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Ăśberschreibung expliziter Direktiven zu verhindern.", "promise": "FrĂĽhes Versprechen: Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprĂĽft." }, "pressure": { "name": "Context­Pressure­Monitor", "description": "Ăśberwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.", "promise": "FrĂĽhes Versprechen: Objektive Metriken können Manipulationsversuche frĂĽhzeitig erkennen." }, "metacognitive": { "name": "Metacognitive­Verifier", "description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der AusfĂĽhrung ĂĽberprĂĽft. Strukturelle SicherheitsprĂĽfung.", "promise": "FrĂĽhes Versprechen: Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen." }, "deliberation": { "name": "Pluralistic­Deliberation­Orchestrator", "description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten. KI bietet Moderation, keine Autorität.", "promise": "FrĂĽhes Versprechen: Menschliches Urteil erforderlich – architektonisch erzwungene Eskalation fĂĽr Werte." } }, "interactive": { "title": "Die Architektur interaktiv erkunden", "subtitle": "Klicken Sie auf einen beliebigen Service-Knoten oder den zentralen Kern, um detaillierte Informationen darĂĽber zu erhalten, wie Governance funktioniert.", "tip_label": "Tipp:", "tip_text": "Klicken Sie auf das zentrale \"T\", um zu sehen, wie alle Dienste zusammenarbeiten", "panel_default_title": "Governance-Dienste erkunden", "panel_default_text": "Klicken Sie auf einen beliebigen Service-Knoten im Diagramm (farbige Kreise) oder das zentrale \"T\", um mehr darĂĽber zu erfahren, wie Tractatus KI-Sicherheit durchsetzt." }, "data_viz": { "heading": "Framework in Aktion", "subtitle": "Interaktive Visualisierungen demonstrieren, wie Tractatus-Governance-Dienste KI-Operationen ĂĽberwachen und koordinieren." }, "production": { "heading": "Produktions-Referenzimplementierung", "subtitle": "Tractatus ist in der Produktion mit Claude Code als Agenten-Laufzeit im Einsatz. Dies demonstriert die Praxistauglichkeit des Frameworks.", "implementation_title": "Claude Code + Tractatus", "implementation_intro": "Unsere Produktionsbereitstellung verwendet Claude Code als Agenten-Laufzeit mit Tractatus Governance-Middleware. Diese Kombination bietet:", "implementation_results_intro": "Ergebnisse aus 6-monatiger Produktionsbereitstellung:", "result1": "95% Anweisungspersistenz ĂĽber Sitzungsgrenzen hinweg", "result2": "Null Wertegrenzverletzungen in 127 Testszenarien", "result3": "100% Erkennungsrate fĂĽr Musterbias-Fehler", "result4": "<10ms Leistungsoverhead fĂĽr Governance-Ebene", "disclaimer": "*Einzelagenten-Bereitstellung. Unabhängige Validierung und Multi-Organisations-Replikation erforderlich.", "testing_title": "Reale Tests", "testing_text1": "Das ist nicht nur Theorie. Tractatus läuft in der Produktion, verarbeitet reale Arbeitslasten und erkennt reale Fehlermuster.", "testing_text2": "FrĂĽhe Ergebnisse sind vielversprechend – mit dokumentierter Vorfallsprävention – aber dies erfordert unabhängige Validierung und viel umfassendere Tests.", "diagram_link": "Claude Code Implementierungsdiagramm anzeigen →" }, "limitations": { "heading": "Einschränkungen und Realitätscheck", "intro": "Dies ist Arbeit im FrĂĽhstadium. Obwohl wir vielversprechende Ergebnisse in unserer Produktionsbereitstellung gesehen haben, wurde Tractatus keinem rigorosen adversarialen Testing oder Red-Team-Evaluierung unterzogen.", "quote": "Wir haben echtes Potenzial, aber dies befindet sich noch in einem frĂĽhen Entwicklungsstadium. Das klingt so, als hätten wir das Problem vollständig gelöst, dem ist nicht so. Wir haben noch einen langen Weg vor uns, und es wird eine gewaltige Anstrengung von Entwicklern in allen Teilen der Branche erfordern, um KI effektiv zu zähmen. Dies ist nur ein Anfang.", "quote_attribution": "— Projektleiter, Tractatus Framework", "known_heading": "Bekannte Einschränkungen:", "limitation1": "Kein dediziertes Red-Team-Testing: Wir wissen nicht, wie gut diese Grenzen gegen entschlossene adversariale Angriffe standhalten.", "limitation2": "Kleinräumige Validierung: Sechs Monate Produktionsnutzung in einem einzigen Projekt. Erfordert Multi-Organisations-Replikation.", "limitation3": "Integrationsprobleme: Die nachträgliche Einbindung von Governance in bestehende Systeme erfordert erheblichen Ingenieuraufwand.", "limitation4": "Leistung im MaĂźstab unbekannt: Tests beschränkt auf Einzelagenten-Bereitstellungen. Multi-Agenten-Koordination ungetestet.", "limitation5": "Sich entwickelnde Bedrohungslandschaft: Wenn KI-Fähigkeiten wachsen, werden neue Fehlermodi entstehen, die die aktuelle Architektur möglicherweise nicht adressiert.", "needs_heading": "Was wir brauchen:", "need1": "Unabhängige Forscher zur Validierung (oder Widerlegung) unserer Ergebnisse", "need2": "Red-Team-Evaluierung zur Auffindung von Schwächen und Umgehungstechniken", "need3": "Multi-Organisations-Pilotbereitstellungen ĂĽber verschiedene Bereiche", "need4": "Branchenweite Zusammenarbeit bei Governance-Standards und -Mustern", "need5": "Quantitative Studien zur Messung der Vorfallsreduzierung und Kosten-Nutzen-Analyse", "conclusion": "Dieses Framework ist ein Ausgangspunkt fĂĽr Erkundungen, keine fertige Lösung. Die Zähmung von KI wird nachhaltige Anstrengungen der gesamten Branche erfordern – Forscher, Praktiker, Regulierungsbehörden und Ethiker, die zusammenarbeiten." }, "cta": { "heading": "Erkunden Sie einen vielversprechenden Ansatz fĂĽr KI-Sicherheit", "subtitle": "Tractatus demonstriert, wie strukturelle Durchsetzung verhaltensorientiertes Training ergänzen kann. Wir laden Forscher und Praktiker ein, diese Arbeit zu evaluieren, zu kritisieren und darauf aufzubauen.", "btn_docs": "Dokumentation Lesen", "btn_research": "Forschung Ansehen", "btn_implementation": "Implementierungsleitfaden" }, "diagram_services": { "overview": { "name": "Tractatus Governance-Ebene", "shortName": "Ăśbersicht", "description": "Sechs externe Governance-Dienste arbeiten zusammen, um KI-Sicherheitsgrenzen auĂźerhalb der KI-Laufzeit durchzusetzen.", "detail1": "Alle Dienste operieren extern zur KI – Manipulation wird erschwert", "detail2": "Anweisungsspeicherung und Validierung arbeiten zusammen, um Direktiven-Verfall zu verhindern", "detail3": "Grenzdurchsetzung und Beratung koordinieren Werteentscheidungen", "detail4": "DruckĂĽberwachung passt Verifikationsanforderungen dynamisch an", "detail5": "Metakognitive Gates stellen sicher, dass KI vor risikoreichen Operationen pausiert", "detail6": "Jeder Dienst adressiert einen anderen Fehlermodus in der KI-Sicherheit", "promise": "Externe architektonische Durchsetzung, die strukturell schwieriger zu umgehen ist als verhaltensbasiertes Training allein." }, "boundary": { "name": "BoundaryEnforcer", "shortName": "Grenze", "description": "Blockiert die KI daran, Werteentscheidungen zu treffen (Datenschutz, Ethik, strategische Ausrichtung). Erfordert menschliche Genehmigung.", "detail1": "Erzwingt Tractatus 12.1-12.7 Grenzen", "detail2": "Werteentscheidungen erfordern architektonisch Menschen", "detail3": "Verhindert autonome KI-Entscheidungen bei ethischen Fragen", "detail4": "Externe Durchsetzung - schwieriger durch Prompting zu umgehen", "promise": "Wertegrenzen extern durchgesetzt – schwieriger durch Prompting zu manipulieren." }, "instruction": { "name": "InstructionPersistenceClassifier", "shortName": "Anweisung", "description": "Speichert Anweisungen extern mit Persistenzstufen (HIGH/MEDIUM/LOW). Zielt darauf ab, Direktiven-Verfall zu reduzieren.", "detail1": "Quadrantenbasierte Klassifikation (STR/OPS/TAC/SYS/STO)", "detail2": "Zeitpersistenz-Metadaten-Tagging", "detail3": "Temporale Horizont-Modellierung (STRATEGIC, OPERATIONAL, TACTICAL)", "detail4": "Externe Speicherung unabhängig von der KI-Laufzeit", "promise": "Anweisungen auĂźerhalb der KI gespeichert – widerstandsfähiger gegen Kontextmanipulation." }, "validator": { "name": "CrossReferenceValidator", "shortName": "Validator", "description": "Validiert KI-Aktionen gegen Anweisungshistorie. Zielt darauf ab, Musterbias-Ăśberschreibung expliziter Direktiven zu verhindern.", "detail1": "Gleicht KI-Behauptungen mit externer Anweisungshistorie ab", "detail2": "Erkennt musterbasierte Ăśberschreibungen expliziter Benutzerdirektiven", "detail3": "Unabhängige Verifikationsebene", "detail4": "Hilft, Anweisungsdrift zu verhindern", "promise": "Unabhängige Verifikation – KI-Behauptungen gegen externe Quelle geprĂĽft." }, "pressure": { "name": "ContextPressureMonitor", "shortName": "Druck", "description": "Ăśberwacht KI-Leistungsverschlechterung. Eskaliert, wenn Kontextdruck die Qualität bedroht.", "detail1": "Verfolgt Token-Nutzung, Komplexität, Fehlerraten", "detail2": "Erkennt degradierte Betriebsbedingungen", "detail3": "Passt Verifikationsanforderungen unter Druck an", "detail4": "Objektive Metriken zur QualitätsĂĽberwachung", "promise": "Objektive Metriken können Manipulationsversuche frĂĽhzeitig erkennen." }, "metacognitive": { "name": "MetacognitiveVerifier", "shortName": "Metakognitiv", "description": "Erfordert, dass die KI pausiert und komplexe Operationen vor der AusfĂĽhrung ĂĽberprĂĽft. Strukturelle SicherheitsprĂĽfung.", "detail1": "KI ĂĽberprĂĽft Ausrichtung, Kohärenz, Sicherheit vor AusfĂĽhrung selbst", "detail2": "Strukturelle Pause-und-Verifikations-Gates", "detail3": "Selektive Verifikation (nicht konstant)", "detail4": "Architektonische Durchsetzung von Reflexionsschritten", "promise": "Architektonische Gates zielen darauf ab, Verifikationsschritte durchzusetzen." }, "deliberation": { "name": "PluralisticDeliberationOrchestrator", "shortName": "Beratung", "description": "Erleichtert Multi-Stakeholder-Beratung bei Wertekonflikten, bei denen keine einzelne \"richtige\" Antwort existiert.", "detail1": "Nicht-hierarchische Koordination bei Wertekonflikten", "detail2": "Repräsentation von Stakeholder-Perspektiven", "detail3": "Konsensbildung fĂĽr ethische Abwägungen", "detail4": "Adressiert Wertepluralismus in der KI-Sicherheit", "promise": "Erleichtert Beratung ĂĽber Stakeholder-Perspektiven hinweg bei Wertekonflikten." } }, "interactive_exploration": { "badge": "🔍 INTERAKTIVE ERKUNDUNG", "heading": "Sehen Sie das Framework in Aktion", "intro": "Erkunden Sie 3.942 reale Governance-Entscheidungen aus dem Produktionseinsatz. Filtern Sie nach Service, Druckstufe und Koordinationsmustern, um zu verstehen, wie Deep Interlock in der Praxis funktioniert.", "hf_cta": "🤗 Interaktiven Explorer auf Hugging Face starten", "researcher_cta": "FĂĽr Forscher →", "footer_note": "Apache 2.0 lizenziert • Alle Daten anonymisiert • Keine Anmeldung erforderlich" } }