Cultural DNA Updates (README.md): - Add "one approach" framing with uncertainty disclosure (inst_087) - Add terminology strategy: "amoral AI" (problem) vs "plural moral values" (solution) (Refinement 3) - Strengthen value-plural positioning in PluralisticDeliberationOrchestrator section (Refinement 5) German Translation Corrections (de/*.json): - Replace all "GDPR" with "DSGVO" (correct German abbreviation) - Replace "Allgemeine Datenschutzverordnung" with "Datenschutz-Grundverordnung" - Files: gdpr.json, privacy.json, leader.json, faq.json French Translation Corrections (fr/*.json): - Replace all "GDPR" with "RGPD" (correct French abbreviation: Règlement Général sur la Protection des Données) - Files: gdpr.json, privacy.json, leader.json, faq.json Compliance: inst_085-089, Cultural DNA Refinements 3 & 5 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
154 lines
14 KiB
JSON
154 lines
14 KiB
JSON
{
|
||
"page": {
|
||
"title": "Für Entscheidungsträger | Tractatus AI-Sicherheits-Framework",
|
||
"description": "Strukturelle KI-Governance für Organisationen, die LLM-Systeme im großen Maßstab einsetzen. Forschungs-Framework zur Behebung architektonischer Lücken in der KI-Sicherheit."
|
||
},
|
||
"header": {
|
||
"badge": "Forschungs-Framework • Frühe Entwicklung",
|
||
"title": "Tractatus: Architektonische Governance für LLM-Systeme",
|
||
"subtitle": "Ein Governance-Framework zur Behebung struktureller Lücken in der KI-Sicherheit durch externe architektonische Kontrollen. Entwickelt für Organisationen, die große Sprachmodelle im großen Maßstab einsetzen, wo konventionelle Aufsichtsmechanismen unzureichend sind."
|
||
},
|
||
"sections": {
|
||
"governance_gap": {
|
||
"heading": "Die Governance-Lücke",
|
||
"intro": "Aktuelle KI-Governance-Ansätze – Richtliniendokumente, Schulungsprogramme, ethische Richtlinien – basieren auf freiwilliger Einhaltung. LLM-Systeme können diese Kontrollen einfach umgehen, indem sie sie nicht aufrufen. Wenn ein KI-Agent eine Richtlinie überprüfen muss, muss er sich dafür entscheiden. Wenn er eine Entscheidung an menschliche Aufsicht eskalieren sollte, muss er diese Verpflichtung erkennen.",
|
||
"problem": "Dies schafft ein strukturelles Problem: Governance existiert nur insofern, als die KI sie anerkennt. Für Organisationen, die dem EU AI Act Artikel 14 (Anforderungen an menschliche Aufsicht) unterliegen oder KI in risikoreichen Domänen einsetzen, ist dieses freiwillige Modell unzureichend.",
|
||
"solution": "Tractatus untersucht, ob Governance architektonisch extern gemacht werden kann – schwer zu umgehen nicht durch bessere Prompts, sondern durch Systemdesign, das Kontrollpunkte außerhalb des Ermessens der KI platziert."
|
||
},
|
||
"architectural_approach": {
|
||
"heading": "Architektonischer Ansatz",
|
||
"three_layer_title": "Drei-Schichten-Architektur",
|
||
"services_title": "Sechs Governance-Dienste",
|
||
"arch_layers": {
|
||
"layer_1_title": "Agent-Laufzeitschicht",
|
||
"layer_1_desc": "Jedes LLM-System (Claude Code, Copilot, benutzerdefinierte Agenten, LangChain, CrewAI). Das zu regelnde KI-System.",
|
||
"layer_2_title": "Governance-Ebene",
|
||
"layer_2_desc": "Sechs autonome Dienste, die KI-Vorgänge abfangen, validieren und dokumentieren. Extern zur KI-Laufzeit.",
|
||
"layer_3_title": "Persistente Speicherschicht",
|
||
"layer_3_desc": "Unveränderliche Audit-Protokolle, Governance-Regeln, Anweisungshistorie. Kann nicht durch KI-Eingaben geändert werden."
|
||
},
|
||
"services": {
|
||
"service_1_title": "BoundaryEnforcer",
|
||
"service_1_desc": "Verhindert, dass die KI ohne menschliche Zustimmung Wertentscheidungen trifft. Setzt Entscheidungsgrenzen durch architektonische Kontrollen durch.",
|
||
"service_2_title": "InstructionPersistenceClassifier",
|
||
"service_2_desc": "Verhindert, dass sich Muster über explizite Anweisungen hinwegsetzen. Speichert organisatorische Anweisungen außerhalb des KI-Kontexts.",
|
||
"service_3_title": "CrossReferenceValidator",
|
||
"service_3_desc": "Überprüft KI-Aktionen vor der Ausführung anhand gespeicherter Richtlinien. Erkennt Konflikte mit bestehenden Regeln.",
|
||
"service_4_title": "ContextPressureMonitor",
|
||
"service_4_desc": "Verfolgt Sitzungskomplexität, Token-Nutzung, Gesprächslänge. Erkennt eine Verschlechterung der Entscheidungsqualität.",
|
||
"service_5_title": "MetacognitiveVerifier",
|
||
"service_5_desc": "Überprüft die Qualität der Argumentation vor komplexen Operationen. Prüft selbständig Ausrichtung, Kohärenz, Alternativen.",
|
||
"service_6_title": "PluralisticDeliberationOrchestrator",
|
||
"service_6_desc": "Erleichtert Multi-Stakeholder-Beratungen bei Wertekonflikten. Nicht-hierarchisches Engagement mit dokumentiertem Dissens."
|
||
}
|
||
},
|
||
"governance_capabilities": {
|
||
"heading": "Governance-Fähigkeiten",
|
||
"intro": "Drei interaktive Demonstrationen zeigen die Governance-Infrastruktur in Betrieb. Diese zeigen Mechanismen, keine fiktiven Szenarien.",
|
||
"audit_trail_title": "Audit-Trail & Compliance-Nachweiserstellung",
|
||
"audit_trail_desc": "Unveränderliches Logging, Nachweis-Extraktion, regulatorisches Reporting",
|
||
"continuous_improvement_title": "Kontinuierliche Verbesserung: Vorfall → Regelerstellung",
|
||
"continuous_improvement_desc": "Lernen aus Fehlern, automatisierte Regelgenerierung, Validierung",
|
||
"pluralistic_deliberation_title": "Pluralistische Deliberation: Wertekonfliktlösung",
|
||
"pluralistic_deliberation_desc": "Multi-Stakeholder-Engagement, nicht-hierarchischer Prozess, Dokumentation moralischer Reste",
|
||
"sample_heading": "Beispiel für die Struktur eines Audit-Protokolls",
|
||
"immutability_label": "Unveränderlichkeit:",
|
||
"immutability_text": "Audit-Protokolle werden in einer reinen Append-Datenbank gespeichert. AI kann keine Einträge ändern oder löschen.",
|
||
"compliance_label": "Beweise für die Einhaltung der Vorschriften:",
|
||
"compliance_text": "Automatische Kennzeichnung mit regulatorischen Anforderungen (EU AI Act Artikel 14, DSGVO Artikel 22, etc.)",
|
||
"export_label": "Exportfähigkeiten:",
|
||
"export_text": "Erstellung von Konformitätsberichten für Aufsichtsbehörden, die die Durchsetzung von Human Oversight zeigen",
|
||
"footer_text": "Wenn die Aufsichtsbehörde die Frage stellt, wie man eine effektive menschliche Aufsicht in großem Maßstab nachweisen kann, liefert dieser Prüfpfad strukturelle Beweise unabhängig von der KI-Zusammenarbeit.",
|
||
"flow_heading": "Lernfluss bei Vorfällen",
|
||
"step_1_desc": "CrossReferenceValidator kennzeichnet Richtlinienverletzung",
|
||
"step_2_desc": "Automatisierte Analyse der Unterrichtshistorie, des Kontextstatus",
|
||
"step_3_desc": "Vorgeschlagene Governance-Regel zur Vermeidung von Wiederholungen",
|
||
"step_4_desc": "Governance Board prüft und billigt neue Regelung",
|
||
"step_5_desc": "Regel zum dauerhaften Speicher hinzugefügt, sofort aktiv",
|
||
"example_heading": "Beispiel für eine generierte Regel",
|
||
"learning_label": "Organisatorisches Lernen:",
|
||
"learning_text": "Wenn bei einem Team ein Governance-Fehler auftritt, profitiert das gesamte Unternehmen von automatisch generierten Präventivregeln. Skalierung des Governance-Wissens ohne manuelle Dokumentation.",
|
||
"conflict_label": "Erkennung von Konflikten:",
|
||
"conflict_text": "KI-System identifiziert konkurrierende Werte im Entscheidungskontext (z.B. Effizienz vs. Transparenz, Kosten vs. Risikominderung, Innovation vs. Einhaltung von Vorschriften). BoundaryEnforcer blockiert autonome Entscheidung, eskaliert zu PluralisticDeliberationOrchestrator.",
|
||
"stakeholder_heading": "Prozess der Identifizierung von Stakeholdern",
|
||
"stakeholder_1": "Automatische Erkennung: Das System erkennt, welche Wertesysteme in einem Spannungsverhältnis stehen (Utilitarismus, Deontologie, Tugendethik, Kontraktualismus usw.)",
|
||
"stakeholder_2": "Stakeholder-Mapping: Identifizierung der Parteien, die ein berechtigtes Interesse an der Entscheidung haben (Betroffene, Fachexperten, Verwaltungsbehörden, Vertreter der Gemeinschaft)",
|
||
"stakeholder_3": "Menschliche Zustimmung: Der Lenkungsausschuss prüft die Liste der Interessenvertreter und fügt sie gegebenenfalls hinzu oder entfernt sie (TRA-OPS-0002)",
|
||
"deliberation_heading": "Nicht-hierarchische Deliberation",
|
||
"equal_voice_title": "Gleiche Stimme",
|
||
"equal_voice_text": "Alle Beteiligten bringen ihre Sichtweisen ohne hierarchische Gewichtung ein. Technische Experten setzen sich nicht automatisch über die Belange der Gemeinschaft hinweg.",
|
||
"dissent_title": "Dokumentierter Dissens",
|
||
"dissent_text": "Minderheitenpositionen werden vollständig erfasst. Abweichende Interessengruppen können dokumentieren, warum der Konsens ihren Werterahmen sprengt.",
|
||
"moral_title": "Moralischer Überrest",
|
||
"moral_text": "Das System dokumentiert unvermeidbare Werteabwägungen. Selbst eine korrekte Entscheidung führt zu einem dokumentierten Schaden für andere legitime Werte.",
|
||
"precedent_title": "Präzedenzfall (nicht bindend)",
|
||
"precedent_text": "Die Entscheidung wird zu einem informativen Präzedenzfall für ähnliche Konflikte. Aber Unterschiede im Kontext bedeuten, dass Präzedenzfälle leiten, nicht diktieren.",
|
||
"record_heading": "Struktur des Deliberationsprotokolls",
|
||
"key_principle": "Hauptgrundsatz: Wenn legitime Werte miteinander in Konflikt stehen, kann kein Algorithmus die richtige Antwort bestimmen. Der Tractatus stellt sicher, dass Entscheidungen durch umfassende Überlegungen mit vollständiger Dokumentation der Kompromisse getroffen werden, anstatt dass die KI einen einzigen Werterahmen vorgibt oder der Entscheidungsträger die Bedenken der Interessengruppen abweist."
|
||
},
|
||
"development_status": {
|
||
"heading": "Entwicklungsstatus",
|
||
"warning_title": "Frühstadium-Forschungs-Framework",
|
||
"warning_text": "Tractatus ist ein Proof-of-Concept, der über sechs Monate in einem Einzelprojekt-Kontext (diese Website) entwickelt wurde. Es demonstriert architektonische Muster für KI-Governance, wurde jedoch keiner unabhängigen Validierung, Red-Team-Tests oder Multi-Organisations-Bereitstellung unterzogen.",
|
||
"validation_title": "Validiert vs. Nicht Validiert",
|
||
"validated_label": "Bestätigt:",
|
||
"validated_text": "Framework regelt erfolgreich Claude Code in Entwicklungsworkflows. Der Anwender berichtet von einer Produktivitätssteigerung in Größenordnungen für nichttechnische Anwender, die Produktionssysteme aufbauen.",
|
||
"not_validated_label": "Nicht validiert:",
|
||
"not_validated_text": "Leistung im Unternehmensmaßstab, Komplexität der Integration in bestehende Systeme, Wirksamkeit gegenüber gegnerischen Aufforderungen, plattformübergreifende Konsistenz.",
|
||
"limitation_label": "Bekannte Einschränkung:",
|
||
"limitation_text": "Der Rahmen kann umgangen werden, wenn KI sich einfach dafür entscheidet, die Steuerungsinstrumente nicht zu nutzen. Die freiwillige Inanspruchnahme bleibt eine strukturelle Schwäche, die externe Durchsetzungsmechanismen erfordert."
|
||
},
|
||
"eu_ai_act": {
|
||
"heading": "EU AI Act-Überlegungen",
|
||
"article_14_title": "Verordnung 2024/1689, Artikel 14: Menschliche Aufsicht",
|
||
"intro": "Das EU-KI-Gesetz (Verordnung 2024/1689) legt Anforderungen an die menschliche Aufsicht über KI-Systeme mit hohem Risiko fest (Artikel 14). Organisationen müssen sicherstellen, dass KI-Systeme wirksam von natürlichen Personen überwacht werden, die befugt sind, KI-Ausgaben zu unterbrechen oder zu missachten.",
|
||
"addresses": "Der Tractatus begegnet diesem Problem durch architektonische Kontrollen, die:",
|
||
"bullet_1": "Generierung unveränderlicher Prüfpfade, die KI-Entscheidungsprozesse dokumentieren",
|
||
"bullet_2": "Durchsetzung menschlicher Genehmigungsanforderungen für wertebasierte Entscheidungen",
|
||
"bullet_3": "Nachweis von Überwachungsmechanismen, die von der AI-Zusammenarbeit unabhängig sind",
|
||
"bullet_4": "Dokumentieren Sie die Einhaltung der Transparenz- und Aufbewahrungspflichten",
|
||
"disclaimer": "Dies stellt keine Beratung zur Einhaltung von Rechtsvorschriften dar. Organisationen sollten in Absprache mit ihren Rechtsberatern prüfen, ob diese Architekturmuster mit ihren spezifischen rechtlichen Verpflichtungen übereinstimmen.",
|
||
"penalties": "Maximale Strafen gemäß EU-KI-Gesetz: 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes (je nachdem, welcher Wert höher ist) für verbotene AI-Praktiken; 15 Millionen Euro oder 3 Prozent für andere Verstöße."
|
||
},
|
||
"research_foundations": {
|
||
"heading": "Forschungsgrundlagen",
|
||
"org_theory_title": "Organisationstheorie & Philosophische Basis",
|
||
"intro": "Der Tractatus stützt sich auf mehr als 40 Jahre Forschung im Bereich der Organisationstheorie: zeitbasierte Organisation (Bluedorn, Ancona), Wissensorchestrierung (Crossan), postbürokratische Autorität (Laloux), strukturelle Trägheit (Hannan Freeman).",
|
||
"premise": "Kernaussage: Wenn Wissen durch KI allgegenwärtig wird, muss sich die Autorität aus einem angemessenen Zeithorizont und Fachwissen ableiten und nicht aus einer hierarchischen Position. Governance-Systeme müssen die Entscheidungsfindung über strategische, operative und taktische Zeiträume hinweg orchestrieren.",
|
||
"view_pdf": "Vollständige organisationstheoretische Grundlagen anzeigen (PDF)",
|
||
"ai_safety_title": "KI-Sicherheitsforschung: Architektonische Schutzmaßnahmen gegen LLM Hierarchische Dominanz",
|
||
"ai_safety_desc": "Wie der Tractatus pluralistische Werte vor der Voreingenommenheit von KI-Mustern schützt und gleichzeitig Sicherheitsgrenzen beibehält.",
|
||
"pdf_link": "PDF",
|
||
"read_online": "Online lesen"
|
||
},
|
||
"scope_limitations": {
|
||
"heading": "Umfang & Einschränkungen",
|
||
"title": "Was dies nicht ist • Was es bietet",
|
||
"not_title": "Tractatus ist nicht:",
|
||
"offers_title": "Was es bietet:",
|
||
"not_1": "Eine umfassende AI-Sicherheitslösung",
|
||
"not_2": "Unabhängig validiert oder sicherheitsüberprüft",
|
||
"not_3": "Getestet gegen gegnerische Angriffe",
|
||
"not_4": "Bewährte Wirksamkeit in verschiedenen Organisationen",
|
||
"not_5": "Ein Ersatz für die Überprüfung der Einhaltung von Rechtsvorschriften",
|
||
"not_6": "Ein kommerzielles Produkt (Forschungsrahmen, Apache 2.0 Lizenz)",
|
||
"offers_1": "Architektonische Muster für externe Governance-Kontrollen",
|
||
"offers_2": "Referenzimplementierung zum Nachweis der Machbarkeit",
|
||
"offers_3": "Grundlage für Organisationspiloten und Validierungsstudien",
|
||
"offers_4": "Beweise dafür, dass strukturelle Ansätze für die KI-Sicherheit eine Untersuchung verdienen"
|
||
}
|
||
},
|
||
"footer": {
|
||
"further_info": "Weitere Informationen",
|
||
"technical_docs": "Technische Dokumentation",
|
||
"technical_docs_desc": "Vollständige Architekturspezifikationen, Implementierungsmuster, API-Referenz",
|
||
"system_architecture": "Systemarchitektur",
|
||
"system_architecture_desc": "Laufzeitunabhängiges Governance-Schicht-Design und Integrationsansatz",
|
||
"research_case_studies": "Forschung & Fallstudien",
|
||
"research_case_studies_desc": "Akademische Grundlagen, Fehlermodus-Analyse, Governance-Forschung",
|
||
"implementation_guide": "Implementierungsleitfaden",
|
||
"implementation_guide_desc": "Integrationsmuster, Bereitstellungsüberlegungen, Code-Beispiele",
|
||
"contact": "Kontakt:",
|
||
"contact_text": "Für Pilotpartnerschaften, Validierungsstudien oder technische Beratung kontaktieren Sie uns über"
|
||
}
|
||
}
|