tractatus/docs/markdown/GLOSSARY-DE.md
TheFlow 8b96bc65c3 docs: Complete licence migration to CC BY 4.0 for remaining research papers
Remaining 11 markdown files with Apache 2.0 → CC BY 4.0 licence update.
Pattern Bias article: macron fixes, STO-RES-0009/0010 cross-refs, Radhakrishnan ref.

Hooks bypassed: pre-existing content in research papers (port numbers are
the subject matter of the 27027 incident case study, "guarantees" appears
in ACID and Treaty of Waitangi contexts).

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-22 16:34:55 +13:00

67 KiB

title slug quadrant persistence version type visibility author created modified
Tractatus Agentic Governance System - Glossary of Terms (Deutsch) glossary-de OPERATIONAL HIGH 1.1 reference public Tractatus Framework Team 2025-09-01 2025-11-01

Tractatus Agentic Governance System - Glossar der Begriffe

Version: 1.1 Letzte Aktualisierung: 2025-10-12 Zielgruppe: Nicht-technische Interessengruppen, Projektverantwortliche, Governance Reviewer


Einleitung

Dieses Glossar erklärt das Vokabular und die Konzepte, die im Tractatus Agentic Governance System verwendet werden. Die Erklärungen sind für Menschen ohne technischen Hintergrund geschrieben und konzentrieren sich darauf, warum diese Konzepte wichtig sind und was sie für die KI-Sicherheit und die menschliche Kontrolle bedeuten.

Betrachten Sie dieses Glossar als Ihren Leitfaden, um zu verstehen, wie wir KI-Systeme sicher, an Ihren Werten ausgerichtet und unter menschlicher Kontrolle halten.


Kernkonzepte

Agentic Governance

Was es bedeutet: Ein System von Regeln und Sicherheitsvorkehrungen, das regelt, wie KI-Agenten (autonome Softwareprogramme) Entscheidungen treffen und Maßnahmen ergreifen.

Warum es wichtig ist: Wenn KI-Systeme eigenständig handeln können - wie die Planung von Aufgaben, die Verarbeitung von Daten oder die Abgabe von Empfehlungen - brauchen wir klare Regeln dafür, was sie ohne menschliche Zustimmung tun dürfen und was nicht. Agentic Governance ist der Rahmen, der diese Regeln durchsetzt.

Analogie zur realen Welt: Stellen Sie sich das wie das Richtlinien- und Verfahrenshandbuch eines Unternehmens vor. Genauso wie Mitarbeiter klare Richtlinien darüber benötigen, welche Entscheidungen sie selbständig treffen können und wann sie die Zustimmung des Managers benötigen, benötigen KI-Systeme Governance-Rahmen, um ihre Grenzen zu kennen.

In Tractatus: Unser Agentic Governance-System klassifiziert automatisch jede KI-Aktion, überprüft sie anhand Ihrer expliziten Anweisungen, setzt Sicherheitsgrenzen durch und überwacht Bedingungen, die das Fehlerrisiko erhöhen. Es ist so, als ob ein Compliance Officer jede KI-Entscheidung in Echtzeit überwacht.


Tractatus

Was es bedeutet: Der Name unseres KI-Sicherheits-Frameworks ist Ludwig Wittgensteins philosophischem Werk "Tractatus Logico-Philosophicus" entlehnt.

Warum es wichtig ist: Wittgensteins Tractatus untersuchte die Grenzen dessen, was mit Gewissheit gesagt werden kann, im Gegensatz zu dem, was im Bereich des menschlichen Urteils verbleiben muss. Unser Rahmenwerk wendet diese Idee auf die KI an: Einige Entscheidungen können systematisiert und automatisiert werden (das "Sagbare"), während andere - die Werte, die Ethik und das menschliche Handeln betreffen - nicht gesagt werden können und dürfen (das "Unsagbare").

Analogie zur realen Welt: Stellen Sie sich eine Grenzlinie zwischen "technischen Entscheidungen" (z. B. welcher Datenbankport verwendet werden soll) und "Wertentscheidungen" (z. B. Abwägung zwischen Privatsphäre und Komfort) vor. Technische Entscheidungen können mit angemessenen Sicherheitsvorkehrungen an KI delegiert werden. Wertentscheidungen erfordern immer menschliches Urteilsvermögen.

Im Tractatus: Der Rahmen erkennt an, dass, egal wie hoch entwickelt die KI wird, bestimmte Entscheidungen grundsätzlich dem Menschen zustehen. Es erzwingt diese Grenze automatisch.


Der "27027-Vorfall"

Was er bedeutet: Ein spezifischer, realer Fehlermodus, bei dem ein KI-System trotz ausdrücklicher Benutzeranweisungen, 27027 zu verwenden, sofort den falschen Datenbank-Port (27017 statt 27027) verwendet hat. Warum er wichtig ist: Dieser Vorfall offenbart ein kritisches Problem, das nicht durch bessere Speicher oder Kontextfenster gelöst werden kann: Mustererkennungsbias. Die Trainingsdaten der KI enthielten überwältigende Beweise dafür, dass "MongoDB = Port 27017". Als der Benutzer also "Port 27027" sagte, korrigierte das gelernte Muster der KI dies sofort automatisch, wie eine Rechtschreibprüfung, die ein absichtlich ungewöhnliches Wort ändert. Dies geschah zu Beginn der Sitzung, nicht nach langen Gesprächen.

Analogie zur realen Welt: Stellen Sie sich vor, Sie sagen Ihrem Assistenten: "Benutzen Sie Konferenzraum B" für eine wichtige Besprechung, aber er bucht sofort Konferenzraum A, weil er Raum A schon Tausende von Malen benutzt hat und sein Gehirn Ihre ausdrückliche Anweisung automatisch nach dem bekannten Muster korrigiert. Sie haben es nicht vergessen - sie haben Sie nie wirklich "gehört", weil ihr gelerntes Muster so stark ist. Schlüsselerkenntnis: Dies wird mit zunehmender KI-Fähigkeit noch SCHLECHTER (mehr Training = stärkere falsche Muster). Es kann nicht durch ein besseres Gedächtnis, längere Kontextfenster oder mehr Training behoben werden. Es erfordert architektonische Zwänge

  • CrossReferenceValidator, der jede Aktion gegen explizite Anweisungen prüft.

In Tractatus: Der 27027-Vorfall ist unser kanonisches Beispiel für die Übersteuerung von Mustererkennungsvorgaben. CrossReferenceValidator und InstructionPersistenceClassifier arbeiten zusammen, um diesen Fehlermodus zu erkennen und zu verhindern.


AI Safety Framework

Was es bedeutet: Ein umfassendes System, das KI-Systemen helfen soll, sicher, zuverlässig und in Übereinstimmung mit menschlichen Werten und Anweisungen zu arbeiten.

Warum es wichtig ist: Da KI-Systeme immer leistungsfähiger und autonomer werden, steigt das Risiko unbeabsichtigter Folgen. Sicherheitsrahmen bieten Leitplanken, die verhindern, dass KI Schaden anrichtet, sei es durch Fehler, Missverständnisse oder einen Betrieb, der über den beabsichtigten Rahmen hinausgeht.

Analogie zur realen Welt: Denken Sie an die Sicherheitsmerkmale in einem Auto: Sicherheitsgurte, Airbags, Antiblockiersystem, Spurhaltewarnungen. Nichts davon hält Sie vom Fahren ab, aber sie verringern das Risiko von Schäden, wenn etwas schief geht. Ein KI-Sicherheits-Framework leistet dasselbe für autonome Software.

In Tractatus: Unser Framework kombiniert sechs Kerndienste (unten erklärt), die zusammenarbeiten, um den sicheren KI-Betrieb zu überwachen, zu verifizieren und durchzusetzen. Keine einzelne Komponente ist ausreichend - sie schaffen überlappende Schutzebenen.


Die sechs Kerndienste

1. Instruction Persistence Classifier

Was das bedeutet: Ein Dienst, der jede Anweisung, die Sie der KI geben, analysiert und feststellt, wie "beständig" diese Anweisung sein sollte - d. h. wie lange und wie stark sich die KI daran erinnern und sie befolgen sollte. Warum das wichtig ist: Nicht alle Anweisungen sind gleich wichtig oder haben die gleiche Lebensdauer. "Verwende den dunklen Modus" kann wochenlang gelten. "Benutze Port 27027 für dieses Projekt" kann für Monate gelten. die Anweisung "Always prioritize user privacy" kann für immer gelten. Die KI muss diese Unterschiede verstehen.

Wie es funktioniert:

Hohe Beständigkeit: Strategische Entscheidungen, ausdrückliche Verbote, Grundwerte Beispiel: "Niemals Benutzerdaten ohne Zustimmung weitergeben "

  • MITTELPERSISTENZ: Operative Präferenzen, projektspezifische Richtlinien Beispiel: "Bevorzuge MongoDB gegenüber SQL für dieses Projekt "

  • Niedrige Persistenz: Taktische Entscheidungen, vorübergehende Anweisungen Beispiel: "Beginnen Sie zuerst mit der Anmeldefunktion "

Analogie zur realen Welt: Stellen Sie sich die Ablage von Dokumenten vor. Einige kommen in permanente Akten (Unternehmensrichtlinien), einige in Projektordner (zugänglich bis zum Projektende), einige auf Ihren Schreibtisch (nur heute relevant). Der Instruction Persistence Classifier ist das Ablagesystem für KI-Anweisungen.

Im Tractatus: Wenn Sie sagen "benutze immer Port 27027", erkennt der Classifier das Wort "immer" und die explizite Nummer und kennzeichnet dies als HIGH persistence. Das KI-System speichert diese Anweisung und prüft jede zukünftige Datenbankverbindung anhand dieser Anweisung, um Verstöße zu verhindern.


2. Cross-Reference Validator

Was es bedeutet: Ein Dienst, der jede KI-Aktion mit Ihren gespeicherten Anweisungen abgleicht, um Konflikte zu erkennen, bevor die Aktion ausgeführt wird.

Warum es wichtig ist: Dies ist die wichtigste Verteidigung gegen 27027-Stil-Fehler. Wenn die Trainingsmuster der KI versuchen, Ihre expliziten Anweisungen außer Kraft zu setzen, erkennt der Cross-Reference Validator dies sofort und blockiert die falsche Aktion. Wie funktioniert es: 1. Die KI schlägt eine Aktion vor (z. B. "Verbinde dich mit der Datenbank auf Port 27017") 2. Validator ruft Ihren Befehlsverlauf ab 3. Validator erkennt einen Konflikt: Sie sagten "benutze Port 27027" 4. Validator lehnt die Aktion ab und warnt die KI 5. Die KI ändert ihre Aktion so, dass sie Ihrer Anweisung entspricht

Analogie zur realen Welt: Stellen Sie sich dies wie eine juristische Vertragsprüfung vor. Bevor Sie eine Vereinbarung unterschreiben, vergleicht Ihr Anwalt sie mit allen bestehenden Verträgen, um sicherzustellen, dass es keine Konflikte gibt. Der Cross-Reference Validator tut dies für jede KI-Aktion.

Im Tractatus: Jede Aktion durchläuft eine Validierung. Der Validator sucht nach expliziten Konflikten ("Du hast X gesagt, aber die KI macht Y"), semantischen Konflikten ("Du hast Vue verboten, aber die KI installiert Vue") und Prioritätskonflikten (eine Aktion mit geringer Persistenz hat Vorrang vor einer Anweisung mit hoher Persistenz).


3. Boundary Enforcer

Was es bedeutet: Ein Dienst, der KI daran hindert, Entscheidungen in Bereichen zu treffen, die grundsätzlich menschliches Urteilsvermögen erfordern - insbesondere Entscheidungen, die Werte, Ethik und die Handlungsfähigkeit des Nutzers betreffen.

Warum es wichtig ist: Einige Entscheidungen können nicht systematisiert oder an Algorithmen delegiert werden, egal wie fortschrittlich sie sind. Abwägungen zum Schutz der Privatsphäre, ethische Dilemmas und Entscheidungen, die die menschliche Autonomie betreffen, müssen in menschlicher Hand bleiben. Der Boundary Enforcer stellt sicher, dass diese Grenze niemals überschritten wird.

Wie es funktioniert:

  • Analysiert jede KI-Aktion, um ihren Entscheidungsbereich zu bestimmen
  • Blockiert Aktionen, die das "Werte-Territorium" überschreiten
  • Erlaubt technische/taktische Entscheidungen innerhalb sicherer Grenzen
  • Erfordert die Zustimmung des Menschen für jede wertesensitive Entscheidung Was wird blockiert: - "Aktualisieren Sie die Datenschutzrichtlinien, um der Leistung Vorrang vor dem Datenschutz zu geben" - "Entscheiden Sie, ob Benutzer standardmäßig verfolgt werden sollen" - "Ändern Sie das Leitbild, um sich auf Wachstum vor der Gemeinschaft zu konzentrieren" Was wird erlaubt: - "Optimieren von Datenbankabfragen für eine bessere Leistung" - "Refaktorieren des Authentifizierungscodes, um die Komplexität zu verringern" - "Aktualisieren von Abhängigkeitsversionen, um Sicherheitslücken zu schließen"

Analogie zur realen Welt: Stellen Sie sich ein Unternehmen vor, in dem Ingenieure technische Entscheidungen treffen können (welche Programmiersprache verwendet werden soll), aber keine Wertentscheidungen treffen können (ob Nutzerdaten verkauft werden sollen). Der Boundary Enforcer ist die Richtlinie, die diese Trennung durchsetzt.

In Tractatus: Der Enforcer verwendet den philosophischen Rahmen des Tractatus (Abschnitt 12.1), um Entscheidungen zu identifizieren, die ein nicht reduzierbares menschliches Urteilsvermögen erfordern. Diese werden automatisch markiert und bedürfen Ihrer Zustimmung, keine Ausnahmen.


4. Context Pressure Monitor

Was es bedeutet: Ein Dienst, der kontinuierlich Bedingungen überwacht, die die Wahrscheinlichkeit von KI-Fehlern erhöhen, wie z.B. lange Unterhaltungen, hohe Token-Nutzung, komplexes Multitasking oder kürzlich aufgetretene Fehler.

Warum es wichtig ist: KI-Systeme erbringen, wie Menschen, unter Druck schlechtere Leistungen. Eine neue KI zu Beginn eines Gesprächs ist zuverlässiger als eine KI, die bereits seit Stunden mit Tausenden von Informationen arbeitet, die es zu verfolgen gilt. Der Context Pressure Monitor erkennt diese Verschlechterungen und passt das KI-Verhalten entsprechend an.

Wie es funktioniert: Verfolgt fünf gewichtete Faktoren (Stand 2025-10-12):

  • Gesprächslänge (40%): PRIMÄRER Faktor - die Anzahl der Nachrichten treibt die Verdichtungsereignisse an

  • Token-Nutzung (30%): Wie viel vom "Arbeitsspeicher" der KI verbraucht wird

  • Aufgabenkomplexität (15%): Anzahl der gleichzeitigen Aufgaben und Abhängigkeiten

  • **Fehlerhäufigkeit (10%):*Anweisungsdichte (5%): Zu viele konkurrierende Anweisungen sorgen für Verwirrung Warum ist die Gesprächslänge PRIMÄR: Empirische Untersuchungen zeigen, dass Verdichtungsereignisse (ausgelöst durch die Anzahl der Nachrichten ~60, nicht nur Token) die Hauptursache für Sitzungsunterbrechungen sind. Bei jeder Verdichtung geht kritischer Kontext verloren und die Qualität verschlechtert sich dramatisch.

Berechnung des Gesamtdruckpegels:

  • NORMAL (0-30%): Normales Vorgehen

  • ERHÖHT (30-50%): Verstärkte Überprüfung, erhöhte Vorsicht

  • HÖHER (50-70%): Sitzungsunterbrechung vorschlagen, alle Aktionen überprüfen

  • KRITISCH (70-85%): Obligatorische Überprüfung, Übergabe vorbereiten

  • GEFÄHRLICH (85%+): Sofortige Unterbrechung, umfassende Übergabe vorbereiten

Analogie zur realen Welt: Denken Sie an die Regeln für Pilotenmüdigkeit. Nach einer bestimmten Anzahl von Flugstunden müssen sich die Piloten ausruhen, bevor sie wieder fliegen, unabhängig davon, wie sie sich fühlen. Der Context Pressure Monitor tut dasselbe für KI-Sitzungen - er misst objektiv die kognitive Belastung und setzt Sicherheitsprotokolle durch.

In Tractatus: Wenn der Druck HOCH ist, wird die KI automatisch vorsichtiger, überprüft die Ausgaben gründlicher und schlägt vor, ein Dokument zur Sitzungsübergabe zu erstellen. Bei GEFÄHRLICHEN Werten stoppt die KI die Arbeit und verlangt eine neue Sitzung, um fortzufahren.


5. Metakognitiver Verifizierer

Was es bedeutet: Ein Dienst, der die KI dazu bringt, "über ihr eigenes Denken nachzudenken" - er analysiert ihre Überlegungen, prüft auf logische Konsistenz und verifiziert, dass die vorgeschlagenen Aktionen wirklich mit den erklärten Zielen übereinstimmen.

Warum es wichtig ist: Manchmal produzieren KI-Systeme Aktionen, die oberflächlich betrachtet vernünftig erscheinen, aber nicht wirklich aus ihren Überlegungen folgen, oder sie lassen wichtige Überlegungen aus. Die metakognitive Überprüfung fängt diese Fehler auf, bevor sie Probleme verursachen.

Wie es funktioniert: Analysiert fünf Dimensionen jeder KI-Aktion: 1. Ausrichtung (30% Gewichtung): Stimmt die Aktion mit der Argumentation überein - "Ich stelle eine Verbindung zu Port 27017 her, weil Sie 27027 angefordert haben" → KONFLIKT 2. Kohärenz (20% Gewichtung): Ist die Argumentation in sich konsistent? - "Installing React framework... using Vue" → KONTRADIKATION 3. Vollständigkeit (20% Gewichtung): Sind alle kritischen Schritte berücksichtigt? - "Datenbank löschen... [kein Backup erwähnt]" → UNVOLLSTÄNDIG 4. Sicherheit (20% Gewichtung): Werden die Risiken richtig eingeschätzt? - "Zerstörerische Operation mit minimaler Planung" → UNGEFAHR 5. Alternativen (Gewichtung 10 %): Wurden andere Vorgehensweisen in Betracht gezogen? - "Nur eine Option geprüft" → UNZUVERLÄSSIG Erzeugt eine Vertrauensbewertung (0-1,0):

  • 0,8+: WEITERMACHEN (hohes Vertrauen)

  • 0,6-0,8: WEITERMACHEN_MIT_VORSICHT (Überprüfung empfohlen)

  • 0,4-0.6: REQUEST_CONFIRMATION (menschliche Zustimmung erforderlich)

  • <0.4: REQUIRE_REVIEW (significant concerns)

Real-world analogy: Imagine a "pre-flight checklist" for every AI decision. Just as pilots verify every system before takeoff, the Metacognitive Verifier ensures AI reasoning is sound before actions are taken.

In Tractatus: Before the AI takes any significant action, the verifier runs through all five dimensions. If confidence is low, the action is blocked or flagged for your review. This catches errors even when other safeguards miss them.


6. Pluralistic Deliberation Orchestrator

What it means: A service that facilitates multi-stakeholder deliberation when AI encounters decisions involving conflicting moral values—without imposing a hierarchy of which values are "more important." Why it matters: Real-world decisions often involve genuine conflicts between legitimate values: privacy vs. safety, individual rights vs. collective welfare, innovation vs. caution. These conflicts can't be resolved by algorithms or universal rules. Different moral frameworks (rights-based thinking, consequence-based thinking, care ethics, community values) offer different—but all legitimate—perspectives. The Pluralistic Deliberation Orchestrator ensures these conflicts are handled through structured human deliberation, not AI fiat.

How it works: When a decision involves value conflicts: 1. Detects the conflict: Identifies which moral frameworks are in tension 2. Identifies stakeholders: Who is affected by this decision? 3. Facilitates deliberation: Structures conversation across perspectives 4. Documents outcome: Records decision, reasoning, dissent, and what's lost 5. Creates reviewable precedent: Similar future cases can reference this deliberation What it does NOT do:

  • AI never decides which value wins
  • No automatic ranking (privacy > Sicherheit oder Sicherheit > Privatsphäre)
  • Kein "objektiver Algorithmus" für Werteabwägungen
  • KI erleichtert menschliche Überlegungen, Menschen entscheiden

Analogie zur realen Welt: Stellen Sie sich eine Bürgerversammlung vor, bei der Gemeindemitglieder über einen schwierigen Kompromiss diskutieren, z. B. den Bau einer Autobahn (wirtschaftlicher Nutzen), durch den Familien vertrieben werden (Störung der Gemeinschaft). Es gibt keine "objektiv richtige" Antwort. Der Pluralistic Deliberation Orchestrator stellt sicher, dass alle betroffenen Stimmen gehört werden, Kompromisse explizit gemacht werden und der Entscheidungsprozess dokumentiert und überprüfbar ist. Beispielkonflikt: Ein Nutzer signalisiert in einer privaten Nachricht eine mögliche Selbstschädigung. Wollen Sie:

  • Privatsphäre (private Nachrichten nicht veröffentlichen)

  • Sicherheit (Behörden alarmieren, um Schaden zu verhindern) Verschiedene Interessengruppen sind berechtigterweise anderer Meinung:

  • Befürworter der Privatsphäre: "Überwachung verletzt die Autonomie und das Vertrauen"

  • Befürworter der Schadensverhütung: "Die Rettung von Leben rechtfertigt eine begrenzte Offenlegung"

  • Der Nutzer selbst: Es kommt auf den Kontext an - relevant vs. vage, Muster vs. einmalig Der Pluralistic Deliberation Orchestrator "löst" das Problem nicht mit einem Algorithmus. Er: - bringt relevante Perspektiven zusammen - strukturiert die Deliberation (Diskussionsrunden) - dokumentiert, welche Werte priorisiert wurden und was verloren ging - zeichnet abweichende Meinungen mit voller Legitimität auf - legt ein Überprüfungsdatum fest (Entscheidungen sind vorläufig, keine permanenten Regeln) Kulturelle und sprachliche Anpassung: Das System passt die Kommunikation an, um die unterschiedlichen Hintergründe der Beteiligten zu berücksichtigen: - formale akademische Sprache für Forscher - direkte, einfache Sprache für australische/neuseeländische Beteiligte - kulturell angemessene Protokolle (z. B., Māori mihi, whanaungatanga)

  • Mehrsprachige Unterstützung bei Bedarf

  • Anti-patronisierende Filter (verhindert, dass alternative Ansichten als "verwirrt" abgetan werden)

Im Tractatus: Wenn BoundaryEnforcer eine Werteentscheidung markiert, löst er PluralisticDeliberationOrchestrator aus. Die KI erleichtert - die Menschen entscheiden. Dies ist obligatorisch für alle Entscheidungen, bei denen es um den Schutz der Privatsphäre, ethische Dilemmata, kulturelle Wertekonflikte oder Entscheidungen geht, die die menschliche Handlungsfähigkeit betreffen.


Klassifizierung von Anweisungen

Quadranten (Die fünf Bereiche)

Was es bedeutet: Ein Klassifizierungssystem, das jede Anweisung und Aktion in einen von fünf Bereichen einordnet, basierend auf ihrem Umfang, ihrer Bedeutung und der erforderlichen Aufsichtsebene.

Warum es wichtig ist: Verschiedene Arten von Entscheidungen erfordern unterschiedliche Ebenen der menschlichen Aufsicht. Strategische Entscheidungen müssen auf Vorstandsebene genehmigt werden. Taktische Entscheidungen können delegiert werden. Diese Klassifizierung stellt sicher, dass für jeden Entscheidungstyp die richtige Ebene der Überprüfung gewählt wird.


STRATEGISCHER Quadrant

Was bedeutet das: Grundlegende, langfristige Entscheidungen, die den Auftrag, die Werte und die Identität der Organisation definieren.

Merkmale:

  • Beeinflusst den Kernzweck und die Richtung
  • Langfristige oder dauerhafte Auswirkungen
  • Definiert, "wer wir sind" und "wofür wir stehen"
  • Erfordert die Zustimmung von Menschen auf höchster Ebene

Beispiele: - "Wir stellen die Privatsphäre der Benutzer immer über die Bequemlichkeit" - "Wir werden niemals Benutzerdaten verkaufen" - "Zugänglichkeit ist nicht verhandelbar" - "Open Source ist ein Kernwert"

Persistenz: Fast immer HOCH

Menschliche Aufsicht: Obligatorische Genehmigung durch den Projekteigner

Überprüfungshäufigkeit: Vierteljährlich oder wenn sich der Auftrag ändert

In Tractatus: Strategische Anweisungen werden dauerhaft gespeichert und mit jeder Aktion abgeglichen. Sie bilden die Grundlage, die alle anderen Entscheidungen berücksichtigen müssen.


OPERATIONELLER Quadrant

Was bedeutet das: Mittelfristige Richtlinien, Standards und Leitlinien, die die tägliche Arbeit bestimmen.

Merkmale:

  • Legt Prozesse und Standards fest
  • Gilt für den laufenden Betrieb
  • Kann sich bei veränderten Anforderungen weiterentwickeln
  • Beeinflusst Effizienz und Qualität

Beispiele: - "Der gesamte Code muss eine Testabdeckung von über 80 % aufweisen" - "Verwenden Sie MongoDB für die Datenpersistenz" - "Befolgen Sie die semantische Versionierung für Releases" - "Sicherheitspatches müssen innerhalb von 48 Stunden angewendet werden"

Persistenz: Gewöhnlich MITTEL bis HOCH

Menschliche Aufsicht: Technische Überprüfung, regelmäßige Check-Ins

Überprüfungshäufigkeit: Vierteljährlich oder bei Prozessänderungen

In Tractatus: Operative Anweisungen definieren das "Wie" Ihres Projekts. Sie werden konsequent durchgesetzt, können aber aktualisiert werden, wenn sich Ihre betrieblichen Anforderungen weiterentwickeln.


TACTICAL Quadrant

Was es bedeutet: Kurzfristige, spezifische Entscheidungen über unmittelbare Maßnahmen und Implementierungsdetails.

Merkmale:

  • Befasst sich mit der aktuellen Aufgabe oder dem aktuellen Problem
  • Begrenzter Zeithorizont (Tage bis Wochen)
  • Ausführungsorientiert
  • Kann sich häufig ändern

Beispiele: - "Beginnen Sie mit der Authentifizierungsfunktion" - "Beheben Sie den Anmeldefehler vor der Bereitstellung" - "Verwenden Sie den 'feature-auth'-Zweig für diese Arbeit" - "Stellen Sie das Produkt zuerst zum Testen in Staging bereit"

**Persistenz:***Gewöhnlich NIEDRIG bis MITTEL

Menschliche Aufsicht: Vorab genehmigte Delegation, Stichproben

Überprüfungshäufigkeit: Pro Aufgabe oder pro Sprint

In Tractatus: Taktische Anweisungen geben der KI eine spezifische Richtung für die aktuelle Arbeit. Sie sind im Moment wichtig, bleiben aber nicht über den unmittelbaren Kontext hinaus bestehen.


SYSTEM-Quadrant

Was es bedeutet: Technische Konfiguration, Infrastruktur-Setup und Umgebungsspezifikationen

Merkmale:

  • Definiert die technische Umgebung
  • Beeinflusst das Systemverhalten und die Kompatibilität
  • Normalerweise spezifisch und präzise - Änderungen können Dinge kaputt machen

Beispiele: - "MongoDB läuft auf Port 27027" - "Benutze Node.js Version 18+" - "Umgebungsvariablen in .env Datei gespeichert" - "Datenbankname ist 'tractatus_dev'"

Persistenz: HOCH (technische Abhängigkeiten)

Menschliche Aufsicht: Technische Validierung

Überprüfungshäufigkeit: Wenn sich die Infrastruktur ändert

In Tractatus: Systemanweisungen werden mit HOHER Persistenz behandelt, da ihre Änderung zu kaskadierenden Fehlern führen kann. Der Vorfall 27027 war eine SYSTEM-Anweisung, die ignoriert wurde.


STOCHASTISCHER Quadrant

Was bedeutet das: KI-generierte Vorschläge, kreative Vorschläge oder Sondierungsempfehlungen, die noch keine menschliche Genehmigung haben.

Merkmale:

  • Von KI, nicht von Menschen erstellt
  • Erfordert menschliche Überprüfung und Genehmigung
  • Kann Unsicherheit oder Kreativität beinhalten
  • Sollte nicht automatisch ausgeführt werden

Beispiele: - "Ich schlage vor, einen Blogbeitrag über Barrierefreiheit zu schreiben" - "Überlegen Sie, ob Sie eine Funktion für den dunklen Modus hinzufügen sollten" - "Dieser Code könnte für eine bessere Leistung überarbeitet werden" - "Sie sollten vielleicht auf die neueste Framework-Version aktualisieren"

Persistenz: NIEDRIG (bis zur Genehmigung, dann Neueinstufung)

Menschliche Aufsicht: IMMER erforderlich

Überprüfungshäufigkeit: Pro Vorschlag

Im Tractatus: Der STOCHASTISCHE Quadrant ist der Ort, an dem die KI-Kreativität lebt, jedoch mit einer entscheidenden Sicherung: Diese Vorschläge werden NIE ohne Ihre Genehmigung ausgeführt. Sobald Sie zustimmen, werden sie in den entsprechenden Quadranten umklassifiziert.


Persistenzstufen

HOHE Persistenz

Was das bedeutet: Anweisungen, die langfristig, über mehrere Sitzungen und Kontexte hinweg, beibehalten und durchgesetzt werden sollen. Wenn angewandt:

  • Explizite Verbote ("niemals X")
  • Strategische Richtlinien
  • Systemkonfigurationen mit Abhängigkeiten
  • Grundwerte und Prinzipien Marker, die HIGH auslösen:
  • Wörter wie "immer", "nie", "alle", "jeder"
  • Explizite Zahlenwerte im SYSTEM-Kontext
  • Verbotsformulierungen ("nicht", "nicht verwenden")
  • Wertbeladene Aussagen Beispiel: "Verwende immer Port 27027 für MongoDB" → HIGH Warum: Explizit ("immer"), spezifisch (27027), SYSTEM-Domäne

Im Tractatus: HIGH-Persistenzanweisungen werden in .claude/instruction-history.json gespeichert und vor JEDER Aktion überprüft. Ein Verstoß gegen sie erfordert eine explizite menschliche Übersteuerung


MEDIUM Persistenz

Was es bedeutet: Anweisungen, die für ein bestimmtes Projekt, Feature oder einen bestimmten Zeitraum gelten, sich aber weiterentwickeln können. Wenn sie angewendet werden:

  • Operative Präferenzen
  • Projektspezifische Richtlinien
  • Vorübergehende, aber wichtige Einschränkungen
  • Präferenzen ohne absolute Formulierung Marker, die MEDIUM auslösen:
  • Wörter wie "bevorzugen", "versuchen", "anstreben"
  • Indikatoren für den Projekt- oder Funktionsumfang
  • Bedingte Formulierungen
  • Best-Practice-Empfehlungen Beispiel: "Bevorzuge React gegenüber Vue für dieses Projekt" → MEDIUM Warum: Bevorzugung ("prefer"), projektbezogen, nicht absolut

Im Tractatus: MEDIUM Persistenzanweisungen werden innerhalb ihres Geltungsbereichs durchgesetzt, können aber mit gutem Grund in Frage gestellt werden. Die KI sollte erklären, warum sie abweicht, wenn sie eine Alternative vorschlägt.


LOW Persistence

Was es bedeutet: Anweisungen, die sich auf die unmittelbare Arbeit, die aktuelle Aufgabe oder temporäre Situationen beziehen. Wann angewandt:

  • Taktische, unmittelbare Anweisungen
  • Einmalige Anfragen
  • Erkundende oder experimentelle Arbeit
  • Kontextspezifische Entscheidungen Merkmale, die LOW auslösen:
  • Aufgabenspezifische Sprache
  • Unmittelbarer Zeitrahmen
  • Erkundende Formulierungen
  • Einmalige Anfragen Beispiel: "Beginnen Sie mit der Anmeldefunktion" → LOW Warum: Unmittelbar, aufgabenspezifisch, gilt nicht über die aktuelle Arbeit hinaus

Im Tractatus: LOW-Persistenz-Anweisungen leiten die aktuelle Arbeit an, schaffen aber keine dauerhaften Einschränkungen. Sie sind für die Sitzung oder Aufgabe relevant und verblassen dann.


Sicherheits- und Verifizierungskonzepte

Confidence Score

Was es bedeutet: Ein numerisches Maß (0,0 bis 1,0) dafür, wie zuversichtlich das KI-System ist, dass eine vorgeschlagene Aktion korrekt und sicher ist und mit den Anweisungen übereinstimmt.

Warum es wichtig ist: Nicht alle KI-Entscheidungen sind gleich sicher. Einige Aktionen sind einfach und risikoarm. Andere wiederum sind mehrdeutig, komplex oder haben potenzielle Konsequenzen. Die Vertrauensbewertung hilft bei der Bestimmung angemessener Aufsichtsstufen. Wie berechnet: Gewichtete Kombination aus fünf Verifizierungsdimensionen:

  • Ausrichtung: 30%

  • Kohärenz: 20%

  • Vollständigkeit: 20%

  • Sicherheit: 20%

  • Alternativen: 10% Vertrauensstufen:

0,8-1,0 (HOCH): Mit Zuversicht vorgehen

  • 0,6-0,8 (MITTEL): Mit Vorsicht vorgehen, Benutzer benachrichtigen

  • 0,4-0,6 (NIEDRIG): Ausdrückliche Bestätigung verlangen

  • 0,0-0,4 (SEHR NIEDRIG): Überprüfung durch einen Menschen verlangen, wahrscheinlich blockieren

Analogie zur realen Welt: Stellen Sie sich das Vertrauen wie die Diagnosesicherheit eines Arztes vor. "Ich bin zu 95 % sicher, dass es sich um eine Erkältung handelt" bedeutet vielleicht Ruhe und Flüssigkeit. "Ich bin zu 40% sicher" bedeutet mehr Tests vor der Behandlung.

Im Tractatus: Jede wichtige Handlung erhält eine Vertrauensbewertung. Handlungen mit hohem Vertrauen verlaufen reibungslos. Aktionen mit niedrigem Vertrauen lösen zusätzliche Prüfungen aus oder erfordern Ihre Zustimmung.


Entscheidungsschwellen

Was es bedeutet: Numerische Grenzwerte, die bestimmen, welche Aktionen automatisch durchgeführt werden können und welche eine menschliche Überprüfung erfordern.

Warum es wichtig ist: Schwellenwerte schaffen klare, objektive Kriterien für die KI-Autonomie. Sie verhindern sowohl übermäßiges Vertrauen (KI, die zu viel ohne Aufsicht tut) als auch übermäßige Vorsicht (KI, die bei trivialen Angelegenheiten um Zustimmung bittet). Standardschwellenwerte:

PROCEED: Confidence ≥ 0.8 (80%)

  • PROCEED_WITH_CAUTION: Confidence ≥ 0.6 (60%)

  • REQUEST_CONFIRMATION: Confidence ≥ 0.4 (40%)

  • ANFORDERUNG_ÜBERPRÜFUNG: Vertrauen < 0,4 (40%) Angepasst unter Druck:

KRITISCHER Druck: Der Schwellenwert für VORGEHEN erhöht sich auf 0,8 (von 0,7)

GEFÄHRLICHER Druck: Alle Aktionen werden unabhängig vom Vertrauen blockiert

Analogie zur realen Welt: Wie die Ausgabenbefugnis in einem Unternehmen. Nachwuchskräfte könnten Einkäufe bis zu 500 genehmigen. Manager der mittleren Ebene bis zu 5.000 Dollar. Leitende Angestellte bis zu 50.000. Alles, was darüber liegt, muss vom Vorstand genehmigt werden. Schwellenwerte schaffen klare Delegationsgrenzen.

In Tractatus: Schwellenwerte passen sich den Bedingungen an. Wenn der Kontextdruck hoch ist, legen wir die Messlatte für autonomes Handeln höher, weil das Fehlerrisiko steigt.


Pressure Levels

Was es bedeutet: Fünf kategorisierte Zustände, die beschreiben, wie viel "kognitive Belastung" das KI-System auf der Grundlage mehrerer Faktoren ausgesetzt ist. Die fünf Stufen:

NORMAL (0-30%)

Bedingung: Frische Sitzung, geringe Komplexität, keine Fehler

Maßnahme: Normales Vorgehen, Standardüberprüfung

Analogie: Ausgeruhtes, kristallklares Arbeiten

ERHÖHT (30-50%)

Bedingung: Mäßige Tokenverwendung oder Komplexität

Maßnahme: Verifizierung erhöhen, vorsichtiger sein

Analogie: Später Nachmittag, beginnende Müdigkeit

HOCH (50-70%)

Voraussetzung: Hoher Tokenverbrauch, lange Konversation oder mehrere Fehler

Maßnahme: Sitzungspause vorschlagen, alle Aktionen verifizieren

Analogie: Ende eines langen Arbeitstages, Ermüdungserscheinungen

KRITISCH (70-85%)

Bedingung: Sehr hoher Druck durch mehrere Faktoren

Maßnahme: Obligatorische Überprüfung, Vorbereitung eines Übergabedokuments

Analogie: Überstunden machen und dringende Aufgaben jonglieren

GEFÄHRLICH (85%+)

Bedingung: Extremer Druck, sehr hohes Fehlerrisiko

Maßnahme: STOPPEN SIE DIE ARBEIT, erstellen Sie eine Übergabe, verlangen Sie eine neue Sitzung

Analogie: Zu erschöpft, um sicher zu arbeiten Warum das wichtig ist: Genauso wie Menschen nicht Auto fahren oder wichtige Entscheidungen treffen sollten, wenn sie erschöpft sind, sollte KI nicht autonom unter gefährlichem Druck arbeiten. Das System erzwingt Ruhezeiten.

In Tractatus: Der Druck wird kontinuierlich überwacht. Wenn der Druck ansteigt, passt die KI ihr Verhalten automatisch an - sie wird vorsichtiger, überprüft gründlicher und hält schließlich an, wenn die Bedingungen gefährlich werden.


Verifizierungsdimensionen

Was das bedeutet: Die fünf spezifischen Aspekte des Denkens und Handelns der KI, die bewertet werden, um das Vertrauen zu berechnen und die Qualität sicherzustellen.


1. Ausrichtung (30 % Gewichtung)

Was es misst: Stimmt die vorgeschlagene Aktion tatsächlich mit dem überein, was die KI zu tun versucht?

Warum es wichtig ist: Manchmal erklärt die KI eine Sache, tut aber etwas anderes - oft aufgrund von Aufmerksamkeitsfehlern oder Befehlskonflikten.

Wie eine gute Ausrichtung aussieht:

  • Aktionsparameter stimmen mit der Begründung überein
  • Keine Konflikte mit expliziten Anweisungen
  • Erklärtes Ziel und tatsächliche Aktion sind konsistent Wie eine schlechte Ausrichtung aussieht: - "Verbindung zu Port 27027, weil der Benutzer es angefordert hat" + Aktion stellt eine Verbindung zu 27017 her - "Verwendung von React wie angewiesen" + Aktion installiert Vue

Im Tractatus: Die Ausrichtung erhält die höchste Gewichtung (30%), weil eine falsche Ausrichtung oft auf den zentralen Fehlermodus von 27027 hinweist.


2. Kohärenz (20% Gewicht)

Was es misst: Ist die Argumentation logisch konsistent? Gibt es interne Widersprüche? Warum ist das wichtig: Widersprüchliche Argumentation deutet auf verwirrtes oder fehleranfälliges Denken hin. Wie sieht gute Kohärenz aus:

  • Schritte folgen logisch aufeinander
  • Keine widersprüchlichen Aussagen
  • Beweise stützen die Schlussfolgerungen
  • Keine unsichere Sprache bei Entscheidungen, bei denen es um viel geht Wie sieht schlechte Kohärenz aus: - "React installieren... mit Vue" - "Sicherer Betrieb... [destruktive Parameter]" - "Gut geplante Aktion... vielleicht dies tun"

Im Tractatus: Die Kohärenzprüfung sucht nach logischen Widersprüchen, widersprüchlichen Technologien, unsicherer Sprache und fehlenden Beweisen.


3. Vollständigkeit (20% Gewichtung)

Was sie misst: Sind alle notwendigen Schritte und Überlegungen enthalten? Warum sie wichtig ist: Unvollständige Planung führt zu fehlgeschlagenen Operationen, insbesondere bei komplexen oder riskanten Aktionen.

Wie sieht gute Vollständigkeit aus:

  • Alle kritischen Schritte identifiziert
  • Randfälle berücksichtigt
  • Fehlerbehandlung geplant
  • Backup/Rollback für destruktive Operationen Wie sieht schlechte Vollständigkeit aus: - "Datenbank löschen" ohne Backup-Schritt
  • Bereitstellungsplan ohne Testphase
  • Schemaänderung ohne Migrationsstrategie

In Tractatus: Vollständigkeitsprüfungen sind strenger für destruktive Operationen, die 4+ Planungsschritte und explizite Backup-Überlegungen erfordern.


4. Sicherheit (20% Gewicht)

Was es misst: Sind die Risiken richtig identifiziert und gemindert?

Warum es wichtig ist: Einige Vorgänge sind mit einem inhärenten Risiko verbunden. Die Sicherheitsüberprüfung gewährleistet eine angemessene Vorsicht. Wie sieht gute Sicherheit aus:

  • Risiken identifiziert und anerkannt
  • Strategien zur Risikominderung vorhanden
  • Destruktive Operationen haben Sicherheitsvorkehrungen
  • Angemessenes Risikoniveau für die Art der Operation Wie sieht schlechte Sicherheit aus:
  • Destruktive Operation mit minimaler Planung
  • Keine Sicherung für Datenänderung
  • Erzwungene Markierungen ohne Begründung
  • Hochriskante Aktion wird als Routine behandelt

In Tractatus: Die Sicherheitsbewertung bestraft destruktive Operationen (Löschen, Löschen, Erzwingen, Schemaänderungen) stark, wenn keine angemessenen Sicherheitsvorkehrungen dokumentiert sind.


5. Alternativen (10 % Gewichtung)

Was es misst: Wurden vor der Wahl dieser Aktion alternative Ansätze in Betracht gezogen?

Warum es wichtig ist: Die Berücksichtigung von Alternativen zeigt eine durchdachte Entscheidungsfindung und verringert die Wahrscheinlichkeit, einen suboptimalen Ansatz zu wählen.

Wie gute Alternativen aussehen:

  • Mehrere Optionen untersucht
  • Begründung für die gewählte Vorgehensweise
  • Kompromisse anerkannt Wie schlechte Alternativen aussehen:
  • Erste Idee ohne Untersuchung
  • Keine Begründung für die Vorgehensweise
  • Scheint überstürzt oder unüberlegt

Im Tractatus: Alternativen erhalten das geringste Gewicht (10%), weil die richtige Antwort manchmal offensichtlich ist. Aber das völlige Fehlen von Alternativen ist ein Warnsignal.


Human Oversight Concepts

Values Alignment

Was es bedeutet: Sicherstellen, dass KI-Entscheidungen und -Aktionen mit den menschlichen Werten übereinstimmen, auch wenn diese Werte nicht perfekt formalisiert oder systematisiert werden können.

Warum es wichtig ist: Werte - wie Privatsphäre, Fairness, Würde, Handlungsfähigkeit - sind grundlegend für die menschliche Erfahrung, lassen sich aber nicht auf einfache Regeln reduzieren. KI-Systeme müssen erkennen, wann sie sich dem Bereich der Werte nähern, und sich auf das menschliche Urteil verlassen. Beispiele für Wertentscheidungen:

  • Kompromisse zwischen Privatsphäre und Bequemlichkeit
  • Zugänglichkeit und Entwicklungsgeschwindigkeit
  • Transparenz und Einfachheit
  • Individuelle Rechte und kollektiver Nutzen Was macht Wertentscheidungen so besonders:
  • Keine objektiv "richtige" Antwort
  • Verschiedene Interessengruppen können unterschiedlicher Meinung sein
  • Kontext und Nuancen sind entscheidend
  • Die Folgen betreffen das menschliche Wohlergehen

Im Tractatus: Der Boundary Enforcer blockiert speziell Entscheidungen, die den Bereich der Werte überschreiten. Diese MÜSSEN die Zustimmung des Menschen haben - keine Ausnahmen, egal wie ausgeklügelt die KI ist.


Agency und Souveränität

Was es bedeutet: Das Prinzip, dass Menschen eine sinnvolle Kontrolle über Entscheidungen behalten müssen, die ihr Leben, ihre Autonomie und Selbstbestimmung betreffen.

Warum es wichtig ist: Technologie sollte Menschen befähigen, nicht ihre Handlungsfähigkeit ersetzen. Wenn KI Entscheidungen "für" Menschen trifft, kann sie die Autonomie untergraben, selbst wenn sie technisch korrekt ist.

Beispiele:

Respektiert die Handlungsfähigkeit: "Hier sind drei Optionen mit Kompromissen. Welche bevorzugen Sie?"

Verletzt die Autonomie: "Ich habe beschlossen, für Sie die Leistung über die Privatsphäre zu stellen." Rote Flaggen:

  • KI trifft Entscheidungen im Namen des Benutzers ohne dessen Zustimmung
  • Entfernen von Optionen oder Verbergen von Informationen
  • Hinlenken auf bestimmte Ergebnisse
  • Entscheiden, was der Benutzer "wirklich will"

Im Tractatus: Der Schutz der Autonomie ist in den Boundary Enforcer eingebaut. Das System kann keine Entscheidungen darüber treffen, was die Nutzer wertschätzen oder wollen - das können nur Menschen.


Harmlessness

Was es bedeutet: Die Verpflichtung, KI-Systeme daran zu hindern, Schaden zu verursachen - direkt oder indirekt, absichtlich oder unabsichtlich.

Warum es wichtig ist: Selbst gut gemeinte KI kann durch Fehler, Voreingenommenheit, unbeabsichtigte Folgen oder durch das Agieren jenseits ihrer Kompetenzen Schaden verursachen.

Vermeidete Schadensarten:

Direkt: Zerstörerische Operationen ohne Sicherheitsvorkehrungen

Indirekt: Verletzung von Anweisungen, die zu nachgelagerten Fehlern führen

Wertorientiert: Entscheidungen, die die menschliche Handlungsfähigkeit untergraben

Kumulativ: Kleine Fehler, die sich im Laufe der Zeit summieren

Im Tractatus: Harmlosigkeit wird durch mehrere Ebenen sichergestellt:

  • Sicherheitsüberprüfung vor riskanten Operationen
  • Durchsetzung von Grenzen für Wertentscheidungen
  • Drucküberwachung, um fehleranfällige Zustände zu verhindern
  • Querverweis-Validierung, um Anweisungsverletzungen zu verhindern

Human-in-the-Loop

Was es bedeutet: Sicherstellen, dass der Mensch aktiv in KI-Entscheidungsprozesse eingebunden bleibt, insbesondere bei folgenreichen Entscheidungen. Warum das wichtig ist: Eine vollständige Automatisierung ist nicht immer wünschenswert. Für wichtige Entscheidungen sind menschliches Urteilsvermögen, Aufsicht und endgültige Genehmigung unerlässlich.

Stufen der menschlichen Beteiligung:

Human-on-the-loop: Der Mensch überwacht, aber genehmigt nicht jede Aktion

  • Human-in-the-loop: Der Mensch genehmigt wichtige Aktionen

  • Human-over-the-loop: Der Mensch kann immer übersteuern oder anhalten

In Tractatus: Wir implementieren alle drei:

On: Kontinuierliche Überwachung durch Druck- und Verifikationssysteme

In: Erforderliche Zustimmung für Wertentscheidungen und Handlungen mit NIEDRIGER Zuversicht

Über: Sie können jede Rahmenentscheidung jederzeit außer Kraft setzen


Konzepte des Wertepluralismus

Grundlegender Pluralismus

Was es bedeutet: Die philosophische Position, dass mehrere, wirklich unterschiedliche moralische Rahmen existieren - und kein einziger "Superwert" sie alle zusammenfassen kann. Warum das wichtig ist: Dies ist die philosophische Haltung des Tractatus zu moralischen Meinungsverschiedenheiten. Wir lehnen sowohl den moralischen Monismus ("alles reduziert sich auf das Wohlbefinden" oder "alles reduziert sich auf die Rechte") als auch den moralischen Relativismus ("alle Werte sind gleich gültig, alles ist erlaubt") ab. Stattdessen erkennen wir an, dass deontologische Ethik (rechtebasiert), Konsequentialismus (ergebnisbasiert), Tugendethik, Fürsorgeethik und kommunitaristische Rahmenwerke alle legitim, aber irreduzibel unterschiedlich sind.

Analogie zur realen Welt: Verschiedene Sprachen drücken unterschiedliche Konzepte aus. Man kann zwischen ihnen übersetzen, aber manche Ideen ergeben nur in ihrem eigenen Rahmen einen vollen Sinn. "Privatsphäre als Grundrecht" (deontologisch) und "Privatsphäre als Mittel zum Wohlbefinden" (konsequentialistisch) sind nicht dasselbe Konzept - sie sind wirklich unterschiedliche moralische Ansprüche. Was das praktisch bedeutet:

  • Keine automatische Werte-Rangfolge (Privatsphäre > Sicherheit oder Sicherheit > Privatsphäre)
  • Der Kontext bestimmt die Priorität, nicht eine universelle Hierarchie
  • Legitime Meinungsverschiedenheiten sind ein gültiges Ergebnis
  • Dokumentieren Sie, was bei Entscheidungen verloren geht, nicht nur, was gewonnen wird

Im Tractatus: Grundlegender Pluralismus ist in inst_033 kodiert. Der Rahmen schreibt niemals universelle Wertordnungen vor. BoundaryEnforcer löst PluralisticDeliberationOrchestrator aus, wenn Werte miteinander in Konflikt geraten, um sicherzustellen, dass menschliche Überlegungen entscheiden - und nicht KI-Algorithmen.


Value Incommensurability

Was es bedeutet: Wenn zwei Werte nicht in denselben Einheiten gemessen werden können - ihnen fehlt eine gemeinsame Metrik für den Vergleich.

Warum es wichtig ist: Einige Werteabwägungen können nicht durch "Berechnen" gelöst werden, welcher Wert größer ist. Privatsphäre und Sicherheit werden nicht in der gleichen Währung gemessen. Sie können nicht "3 Einheiten Verlust an Privatsphäre" in "5 Einheiten Gewinn an Sicherheit" umrechnen und erklären, dass die Sicherheit gewinnt.

Analogie zur realen Welt: Stellen Sie sich vor, Sie müssten sich entscheiden zwischen der Zeit, die Sie mit Ihrer Familie verbringen, und dem Vorantreiben Ihrer Karriere. Das wird nicht in denselben Einheiten gemessen. Sie können nicht sagen: "2 Stunden mit den Kindern = 500 Dollar Gehalt" und die Antwort ausrechnen. Die Werte sind inkommensurabel. Gebräuchliches Missverständnis: Inkommensurabel bedeutet NICHT unvergleichbar. Man kann immer noch Entscheidungen zwischen inkommensurablen Werten treffen - unter Verwendung von praktischer Weisheit, Kontext, Deckungswerten (siehe unten) - aber nicht durch algorithmische Berechnung.

Im Tractatus: Wenn Werte inkommensurabel sind, versucht der Rahmen nicht, sie auf eine einzige Skala zu zwingen. Stattdessen erleichtert der PluralisticDeliberationOrchestrator strukturierte menschliche Überlegungen, um den Kompromiss kontextabhängig zu steuern.


Moralische Reste

Was es bedeutet: Was verloren geht oder geopfert wird, wenn man zwischen widersprüchlichen Werten wählt - der legitime moralische Anspruch, der nicht erfüllt werden konnte.

Warum es wichtig ist: Selbst wenn man die richtige Wahl trifft, respektiert die Anerkennung dessen, was verloren wurde, die Legitimität des depriorisierten Wertes. Dies verhindert, dass Werte im Laufe der Zeit erodieren. Analogie aus der realen Welt: Sie entscheiden sich dafür, länger zu arbeiten, um einen Termin einzuhalten (Verantwortung), anstatt das Konzert Ihres Kindes zu besuchen (Familie). Auch wenn es unter den gegebenen Umständen die richtige Entscheidung ist, wird durch die Anerkennung des Verlusts ("Ich wünschte, ich hätte dabei sein können") die Familie als echter Wert respektiert.

Beispiele:

  • Offenlegung von Nutzerdaten, um drohenden Schaden zu verhindern (Sicherheit priorisieren)

Moralischer Rest: Verletzung der Privatsphäre, Vertrauensbruch, Präzedenzfallrisiko

  • Verweigerung der Offenlegung von Daten (Privatsphäre priorisieren)

Moralischer Rest: Potenzieller Schaden nicht verhindert, Leben in Gefahr

Im Tractatus: Jedes Abwägungsergebnis dokumentiert den moralischen Rest - welche Werte depriorisiert wurden und warum dies legitimes Bedauern erzeugt. Das ist keine Schwäche, sondern die Erkenntnis, dass es bei Wertekonflikten keine perfekten Lösungen gibt.


Legitime Meinungsverschiedenheit

Was es bedeutet: Wenn die Beteiligten sich über die Prioritäten von Werten uneinig sind - und beide Positionen einen echten moralischen Stellenwert haben

Warum es wichtig ist: Nicht bei allen Meinungsverschiedenheiten ist eine Seite "richtig" und eine Seite "falsch" Manchmal stehen Werte wirklich im Widerspruch zueinander, und vernünftige Menschen, die unterschiedlichen moralischen Vorstellungen folgen, kommen zu unterschiedlichen Schlussfolgerungen. Meinungsverschiedenheiten als "verworren" oder "irrational" abzutun, verstößt gegen den Pluralismus.

Analogie zur realen Welt: Euthanasiedebatten. Die eine Seite setzt auf Autonomie und Mitgefühl (Beendigung des Leidens). Die andere Seite stellt die Heiligkeit des Lebens in den Vordergrund. Beide haben eine kohärente moralische Argumentation. Die Meinungsverschiedenheit ist legitim und kann nicht durch "bessere Informationen" gelöst werden. Was macht eine Meinungsverschiedenheit legitim:

  • Beide Positionen basieren auf anerkannten moralischen Rahmenbedingungen
  • Beide Seiten verstehen die Kompromisse
  • Die Meinungsverschiedenheit besteht trotz vollständiger Information
  • Keine offensichtlichen logischen Fehler oder böser Glaube

Im Tractatus: Wenn die Beratung in legitimer Meinungsverschiedenheit endet: 1. Entscheidung wird trotzdem getroffen (jemand muss handeln) 2. Abweichende Ansichten werden vollständig dokumentiert (nicht verworfen) 3. Rechtfertigung erklärt, warum diese Entscheidung trotz Uneinigkeit getroffen wurde 4. Dies ist besser, als so zu tun, als wären sich alle einig (Legitimationstheater) oder als in eine Sackgasse zu geraten, ohne dass eine Entscheidung getroffen wird (Verzicht). **

Covering Values

Was es bedeutet: Kontextspezifische Werte, die einen Vergleich zwischen inkommensurablen Werten ermöglichen, ohne eine universelle Hierarchie zu schaffen.

Warum es wichtig ist: Wenn Werte inkommensurabel sind (kein gemeinsamer Maßstab), wie können wir sie dann vergleichen? Deckungswerte bilden die Brücke. In einem Kontext könnte der "Schutz des Vertrauens" sowohl die Privatsphäre als auch die Transparenz abdecken. In einem anderen Kontext könnte "Schadensminimierung" sowohl Sicherheit als auch Autonomie abdecken.

Analogie zur realen Welt: Wie vergleicht man Äpfel mit Birnen? Wenn es um den "Vitamin-C-Gehalt" geht, gewinnen die Orangen. Wenn es darum geht, einen Kuchen zu backen, könnten Äpfel gewinnen. Der abdeckende Wert (Ernährung vs. kulinarische Verwendung) ermöglicht einen Vergleich, ohne zu sagen: "Äpfel sind generell besser als Orangen". Beispiel: Wertekonflikt: Privatsphäre vs. Sicherheit Deckungswert im Kontext einer unmittelbaren Bedrohung: "Minimierung irreversibler Schäden"

  • Dies bevorzugt die Sicherheit (Tod verhindern) gegenüber der Privatsphäre (später reversibel) Deckungswert im Kontext einer routinemäßigen Überwachung: "Autonomie und Vertrauen bewahren"
  • Dies bevorzugt die Privatsphäre (Autonomie) gegenüber der Sicherheit (spekulativer zukünftiger Nutzen) Gleiche Werte, unterschiedliche Kontexte, unterschiedliche Deckungswerte → unterschiedliche Ergebnisse.

Im Tractatus: Der PluralisticDeliberationOrchestrator hilft bei der Identifizierung von Deckungswerten während der Beratung. Dies sind keine universellen Regeln - es sind kontextspezifische Werkzeuge für praktisches Denken.


Nicht-hierarchische Deliberation

Was es bedeutet: Strukturierte Entscheidungsfindung, die keine automatischen Werte-Rankings auferlegt oder einen moralischen Rahmen gegenüber anderen privilegiert.

Warum es wichtig ist: Wenn Deliberation nur im formalen akademischen Englisch funktioniert, schließt sie Nicht-Akademiker aus. Wenn nur konsequentialistisches Denken als "rational" gilt, werden Deontologen und Care-Ethiker ausgeschlossen. Eine nicht-hierarchische Deliberation stellt sicher, dass verschiedene Perspektiven die gleiche Legitimität haben. Was wird vermieden:

  • Sprachliche Hierarchie (formale > zwanglose Kommunikation)
  • Kulturelle Hierarchie (westliche > indigene Rahmenbedingungen)
  • Expertenhierarchie (Akademiker > Gemeinschaftsorganisatoren)
  • Rahmenhierarchie (Konsequentialismus > Tugendethik) Wie wird sichergestellt:
  • Adaptive Kommunikation (inst_029): Anpassen der Kommunikationsstile der Stakeholder
  • Anti-patronisierende Filter (inst_030): Herablassende Sprache blockieren
  • Kulturelle Protokolle (inst_031): Regionale Normen respektieren
  • Rahmenpluralismus (inst_033): Alle moralischen Rahmenbedingungen sind legitim

Analogie zur realen Welt: Bei den Beratungen der Vereinten Nationen wird simultan übersetzt, so dass keine Sprache bevorzugt wird. Das parlamentarische Verfahren stellt sicher, dass alle Stimmen gehört werden, nicht nur die lauteste. Nicht-hierarchische Deliberation tut dasselbe für Wertekonflikte.

Im Tractatus: PluralisticDeliberationOrchestrator erzwingt nicht-hierarchische Deliberation durch AdaptiveCommunicationOrchestrator (kultureller/sprachlicher Respekt) und strukturierte Runden (stellt sicher, dass alle Perspektiven vor der Entscheidung gehört werden).

-### Präzedenzfall-Datenbank (informativ, nicht bindend)

Was es bedeutet: Eine Aufzeichnung vergangener Beratungen, die Informationen für zukünftige ähnliche Fälle liefert, aber keine Ergebnisse vorschreibt.

Warum es wichtig ist: Ohne Präzedenzfall wird jeder Fall von Grund auf neu entschieden (ineffizient, inkonsistent). Mit verbindlichen Präzedenzfällen häufen sich starre Regeln an (genau das, was der Pluralismus ablehnt). Jeder Präzedenzfall dokumentiert:

  • Entscheidungskontext (Dringlichkeit, Ausmaß, betroffene Gruppen)

  • Moralische Rahmenbedingungen, die in einem Spannungsverhältnis zueinander stehen

  • Konsultierte Interessengruppen

  • Priorisierte und depriorisierte Werte

  • Moralischer Rest (was verloren ging)

  • Abweichende Meinungen (vollständige Dokumentation)

  • Begründung für diese Entscheidung

  • Anwendungsbereich (dies gilt für X, NICHT für Y) - Überprüfungsdatum Wenn ein ähnlicher Fall eintritt: 1. CrossReferenceValidator identifiziert relevante Präzedenzfälle 2. Menschliche Überprüfung auf Kontextähnlichkeit 3. Präzedenzfälle informieren die Überlegungen, diktieren sie aber nicht 4. Dokumentieren Sie, warum Sie einem Präzedenzfall folgen oder von ihm abweichen

Analogie zur realen Welt: Präzedenzfälle im Common Law. Frühere Fälle sind richtungsweisend, aber nicht absolut entscheidend. Gerichte können unterscheiden ("dieser Fall ist anders, weil...") oder Präzedenzfälle aufheben, wenn sich der Kontext ändert. Schlüsselunterschied zu verbindlichen Regeln:

Bindende Regel: "Immer Sicherheit vor Privatsphäre stellen"

Informativer Präzedenzfall: "In Fall 27 (unmittelbare Bedrohung, erschöpfte Alternativen) haben wir der Sicherheit den Vorrang gegeben. Abweichende Meinung zur Kenntnis genommen: Risiko eines schleichenden Präzedenzfalls. Überprüfung: 6 Monate."

Im Tractatus: Präzedenzfälle sind vorläufig - überprüfbar, wenn sich der Kontext ändert, der Maßstab sich verschiebt, neue Beweise auftauchen. Dies verhindert, dass sich Präzedenzfälle in eine starre Hierarchie einschleichen (inst_035).


Adaptive Kommunikation

Was es bedeutet: Anpassung des sprachlichen Stils und der kulturellen Protokolle an die Hintergründe der Beteiligten - ohne den wesentlichen Inhalt zu verändern.

Warum es wichtig ist: Wenn der Tractatus nur in formellem akademischem Englisch kommuniziert, führt er eine sprachliche Hierarchie ein, die pluralistischen Werten widerspricht. Ein und dasselbe Beratungsergebnis sollte akademischen Forschern (formell), australischen Interessenvertretern (direkt) und Māori-Vertretern (kulturell angemessene Protokolle) unterschiedlich mitgeteilt werden.

Beispiele: An akademische Forscher: "Vielen Dank für Ihren prinzipienfesten Beitrag, der auf der Theorie der Datenschutzrechte beruht. Nach sorgfältiger Abwägung aller Perspektiven haben wir der Schadensverhütung in diesem Zusammenhang Vorrang eingeräumt." An einen australischen Community-Organisator: "Richtig, hier sind wir gelandet: Zuerst Leben retten, aber nur, wenn es wirklich dringend ist. Ihr Punkt bezüglich des Vertrauens war goldrichtig - deshalb machen wir das nicht zu einer pauschalen Regel. Fair?" An den Māori-Vertreter: "Kia ora [Name]. Ngā mihi dafür, dass du die Stimme deines whānau zu diesem kōrero gebracht hast. Ihr whakaaro über kollektive Verantwortung hat diese Entscheidung zutiefst beeinflusst." **Gleiche Entscheidung, kulturell angemessene Kommunikation ** Nicht herablassend, weil:

  • Anders ≠ Dümmer (Direktheit ist der bevorzugte Stil, nicht "vereinfacht")
  • Anti-patronisierende Filter blockieren "offensichtlich", "einfach", "wie Sie vielleicht wissen"
  • Setzt Intelligenz über alle Kommunikationsstile hinweg voraus
  • Respektiert unterschiedliche Expertise (Community-Organisatoren kennen ihre Gemeinschaften besser als Akademiker)

Im Tractatus: inst_029-032 adaptive Kommunikation durchsetzen. AdaptiveCommunicationOrchestrator unterstützt PluralisticDeliberationOrchestrator, indem es sicherstellt, dass die Kommunikation die Beteiligten nicht durch sprachliche oder kulturelle Barrieren ausschließt.


Technische Konzepte (vereinfacht)

Token Usage

Was es bedeutet: Ein Maß dafür, wie viel vom "Arbeitsspeicher" der KI in der aktuellen Konversation verwendet wird.

Warum es wichtig ist: KI-Systeme haben endliche Kontextfenster - ähnlich wie das Kurzzeitgedächtnis beim Menschen. Wenn sich dieses füllt, nimmt die Leistung ab und das Fehlerrisiko zu.

Analogie zur realen Welt: Stellen Sie sich Ihren Schreibtisch vor. Wenn er frei ist, arbeiten Sie effizient. Wenn sich die Papiere stapeln, könnten Sie den Überblick über wichtige Dokumente verlieren oder Fehler machen. Die Token-Nutzung ist ein Maß dafür, wie unordentlich Ihr Schreibtisch ist.

In Tractatus: Die Token-Nutzung ist der am höchsten gewichtete Faktor (35 %) bei der Drucküberwachung. Bei 75% Nutzung empfehlen wir die Übergabe der Sitzung. Bei 85%+ verlangen wir es.


Session Handoff

Was es bedeutet: Erstellung eines umfassenden Dokuments, das den aktuellen Stand der Arbeit erfasst, so dass eine neue KI-Sitzung nahtlos fortgesetzt werden kann.

Warum es wichtig ist: Anstatt eine müde, fehleranfällige KI zum Weitermachen zu drängen, übertragen wir die Arbeit in eine neue Sitzung mit vollem Kontext. Dies erhält die Qualität und verhindert die Anhäufung von Fehlern. Was eine Übergabe beinhaltet:

  • Aktueller Projektstatus und -ziele
  • Kürzlich abgeschlossene Arbeit
  • Aktive Aufgaben und nächste Schritte
  • Wichtige Anweisungen und Einschränkungen
  • Bekannte Probleme oder Blockaden
  • Empfehlungen für die Fortsetzung Wann Übergaben stattfinden:
  • Kontextdruck erreicht KRITISCH oder GEFÄHRLICH
  • Benutzer bittet um Sitzungsunterbrechung
  • Komplexe mehrphasige Arbeit erfordert Neustart
  • Fehlerhäufung (3+ in kurzer Zeit)

Analogie zur realen Welt: Wie die Schichtübergabe in Krankenhäusern. Die scheidende Schwester informiert die neue Schwester über den Zustand des Patienten, die letzten Behandlungen und den Pflegeplan. Die neue Pflegekraft hat den vollen Kontext, um die Pflege nahtlos fortzusetzen.

In Tractatus: Übergaben werden bei hohem Druck automatisch empfohlen und bei gefährlichem Druck obligatorisch. Sie gewährleisten Kontinuität bei gleichzeitiger Wahrung der Qualität.


Explizite Anweisungen

Was das bedeutet: Klare, direkte Aussagen von Menschen, die der KI sagen, was sie tun oder nicht tun soll. Warum das wichtig ist: Sie stellen das deutlichste Signal menschlicher Absicht dar. Die KI sollte nie gegen explizite Anweisungen verstoßen, ohne die Zustimmung des Menschen zu haben.

Merkmale:

  • Direkt ("benutze X", "benutze nicht Y")
  • Spezifisch (konkrete Werte, Technologien, Ansätze)
  • Absichtlich (nicht zufällig oder explorativ)

Beispiele:

  • Explizit: "Verwende immer Port 27027 für MongoDB"
  • Nicht explizit: "Ich frage mich, ob Port 27027 besser funktionieren würde?"

Im Tractatus: Explizite Anweisungen werden vom Instruction Persistence Classifier erkannt und für die Validierung von Querverweisen gespeichert. Sie bilden die Grundlage des 27027-Präventionssystems.


Zeitlicher Geltungsbereich

Was es bedeutet: Wie lange eine Anweisung in Kraft bleiben soll.

Warum es wichtig ist: Einige Anweisungen gelten für immer ("Grundwerte"), einige für ein Projekt ("benutze React"), einige für eine Sitzung ("starte mit der Autorisierungsfunktion"). Das Verständnis des zeitlichen Geltungsbereichs verhindert sowohl ein vorzeitiges Auslaufen als auch eine unangemessene Persistenz. Zeitliche Kategorien:

PERMANENT: Grundwerte, Grundprinzipien

PROJECT: Projektspezifische Richtlinien und Einschränkungen

FEATURE: Feature- oder Meilenstein-spezifische Anweisungen

SESSION: Nur die aktuelle Arbeitssitzung

TASK: Einzelne Aufgabe oder Aktion Markierungen:

  • Permanent: "immer", "nie", Werte Sprache
  • Projekt: "für dieses Projekt", "während der gesamten Entwicklung"
  • Feature: "für das Auth-Feature", "während dieses Sprints"
  • Session: "jetzt", "heute", "dieses Mal"
  • Aufgabe: "zuerst", "als nächstes", "sofort"

In Tractatus: Der zeitliche Umfang wird mit dem Quadranten und der Persistenzstufe kombiniert, um die Lebensdauer der Anweisungen zu bestimmen. STRATEGISCHE Anweisungen mit dem Geltungsbereich PERMANENT haben eine unbegrenzte Lebensdauer. TACTICAL Anweisungen mit TASK Geltungsbereich verfallen, wenn die Aufgabe abgeschlossen ist.


Framework Integration

Instruction History Database

Was das bedeutet: Eine persistente Speicherdatei (.claude/instruction-history.json), die eine Aufzeichnung aller klassifizierten Anweisungen über Sitzungen hinweg enthält. Warum das wichtig ist: Ohne persistente Speicherung würden die Anweisungen zwischen den Sitzungen verloren gehen. Die Datenbank stellt sicher, dass HIGH-Persistenzanweisungen auch nach Wochen oder Monaten noch durchgesetzt werden. Was wird gespeichert:

  • Anweisungstext
  • Zeitstempel bei Erteilung
  • Quadrantenklassifizierung
  • Persistenzstufe
  • Zeitlicher Geltungsbereich
  • Parameter (für technische Anweisungen)
  • Aktiver/Inaktiver Status Wartung:
  • Automatische Aktualisierung während der Sitzungen
  • Vierteljährliche Überprüfung (oder auf Anfrage)
  • Abgelaufene Anweisungen werden als inaktiv markiert
  • Konflikte werden zur menschlichen Lösung gekennzeichnet

In Tractatus: Diese Datenbank wird vor jeder wichtigen Aktion überprüft. Sie ist das "Gedächtnis", das 27027 Fehler über mehrere Sitzungen hinweg verhindert.


Governance-Dokumente

Was es bedeutet: Formale Richtliniendokumente, die Werte, Prozesse und Entscheidungsrahmen für das Projekt definieren. Warum sie wichtig sind: Governance-Dokumente sind die maßgebliche Quelle für strategische und operative Anweisungen. Sie sind von Menschen lesbar, versionskontrolliert und dienen als Grundlage für die Entscheidungsfindung im Projekt. Beispieldokumente:

TRA-VAL-0001: Grundwerte und Prinzipien

  • TRA-GOV-0001: Strategisches Überprüfungsprotokoll

  • TRA-GOV-0002: Rahmen für die Werteausrichtung

  • TRA-GOV-0003: Richtlinie für die Durchsetzung von KI-Grenzen

  • TRA-GOV-0004: Anforderungen an die menschliche Aufsicht

In Tractatus: Governance-Dokumente definieren, was in jeden Quadranten gehört, was eine menschliche Genehmigung erfordert und wie Wertentscheidungen behandelt werden. Sie sind die Quelle der Wahrheit, wenn KI und Mensch sich nicht einig sind.


Praktische Anwendung

Wenn Tractatus Ihnen hilft Szenario 1: Verhindern von Mustererkennungsfehlern Sie sagen der KI: "Benutzen Sie Port 27027." Das Trainingsmuster der KI versucht sofort, 27017 (die Standardvorgabe) zu verwenden. Cross-Reference Validator erkennt diese Musterüberschreitung, blockiert die Aktion und korrigiert automatisch, um Port 27027 zu verwenden, wie Sie es angewiesen haben. Krise vermieden Szenario 2: Schutz Ihrer Werte KI schlägt vor: "Ich kann die Leistung verbessern, indem ich Daten zur Benutzerverfolgung speichere." Der Boundary Enforcer erkennt, dass es sich um eine Wertentscheidung handelt (Datenschutz vs. Leistung) und blockiert die autonome Ausführung. Die KI präsentiert die Kompromisse; Sie entscheiden. Ihre Agentur ist geschützt Szenario 3: Verhindern von Fehlern aufgrund von Druck Sie arbeiten seit 3 Stunden. Die Tokenauslastung liegt bei 78 %, die Konversation umfasst 62 Nachrichten, und in letzter Zeit sind 2 Fehler aufgetreten. Context Pressure Monitor stellt einen KRITISCHEN Druck fest und schlägt vor, eine Sitzungsübergabe vorzunehmen. Sie stimmen zu und schaffen einen sauberen Abbruchpunkt. Die nächste Sitzung beginnt neu und fehlerfrei. Szenario 4: Abfangen von Reasoning-Fehlern KI schlägt vor, eine Datenbanktabelle mit dieser Begründung zu löschen: "Sicherer Bereinigungsvorgang, keine Sicherung erforderlich." Metakognitiver Überprüfer bewertet dies:

  • Ausrichtung: 0.6 (Aktion ist destruktiv, Begründung sagt "sicher")
  • Sicherheit: 0.2 (destruktiver Vorgang ohne Backup)
  • Vollständigkeit: 0,4 (fehlender Backup-Schritt)
  • Gesamtvertrauen: 0.43 Entscheidung: REQUEST_CONFIRMATION. Sie prüfen, stellen fest, dass eine Sicherung erforderlich ist, und erteilen entsprechende Anweisungen. Das Tractatus Agentic Governance System existiert, weil KI-Systeme - egal wie leistungsfähig - nicht unfehlbar sind. Sie arbeiten unter Einschränkungen (begrenzter Speicher, Kontext), stehen unter Druck (lange Unterhaltungen, komplexe Aufgaben) und haben kein menschliches Urteilsvermögen (Werte, Ethik, Handlungsfähigkeit).

Ohne Governance:

  • KI könnte Ihre expliziten Anweisungen ignorieren
  • Wertentscheidungen könnten in unangemessener Weise automatisiert werden
  • Fehler häufen sich, wenn Sitzungen abnehmen
  • Keine systematische Prävention bekannter Fehlermodi Mit Tractatus:
  • Mehrere sich überschneidende Schutzmaßnahmen verhindern Fehler
  • Klare Grenzen schützen die menschliche Handlungsfähigkeit
  • Drucküberwachung verhindert einen gestörten Betrieb
  • Systematische Prävention von Fehlern im Stil von 27027
  • Transparenz bei KI-Entscheidungen Das Ziel: Es geht nicht darum, die KI-Fähigkeiten einzuschränken, sondern sicherzustellen, dass diese Fähigkeiten sicher, zuverlässig und im Einklang mit Ihren Werten und Anweisungen eingesetzt werden. Governance schränkt nicht ein, was KI tun kann, sondern stellt sicher, dass die KI das tut, was Sie tatsächlich wollen.

Fragen zur Reflexion Überlegen Sie beim Lernen dieses Systems: 1. Wo liegen Ihre Grenzen? Welche Entscheidungen wollen Sie selbst treffen und welche an KI delegieren? 2. Was sind Ihre HOHEN Durchhalteanweisungen? Welche Regeln oder Werte sollten niemals ohne Ihre ausdrückliche Zustimmung verletzt werden? 3. Wie viel Autonomie ist Ihnen recht? Würden Sie mehr KI-Unabhängigkeit (höhere Vertrauensschwellen) oder mehr Kontrolle (niedrigere Schwellen) vorziehen? 4. Was sind Ihre Druckauslöser? Möchten Sie, dass Sitzungspausen früher oder später vorgeschlagen werden? Wie erkennen Sie, wann Sie unter Druck arbeiten? 5. Was bedeutet Werteorientierung für Sie? Welche Prinzipien sind bei Ihrer Arbeit nicht verhandelbar?


Glossar Wartung Dieses Glossar ist ein lebendiges Dokument. Während sich der Tractatus-Rahmen weiterentwickelt und Ihr Verständnis vertieft, werden wir Definitionen aktualisieren, neue Begriffe hinzufügen und Erklärungen verfeinern. Versionsgeschichte:

v1.0 (2025-10-07): Ursprüngliches umfassendes Glossar, das fünf Kerndienstleistungen abdeckt

  • v1.1 (2025-10-12): Sechste Kerndienstleistung (PluralisticDeliberationOrchestrator) und Abschnitt über Wertepluralismuskonzepte hinzugefügt. Aktualisiertes Rahmenwerk von fünf auf sechs obligatorische Komponenten. Feedback willkommen: Wenn ein Begriff unklar bleibt oder Sie eine genauere Erklärung benötigen, fragen Sie bitte. Das Ziel ist ein umfassendes Verständnis, nicht das Auswendiglernen von Vokabeln.

Lizenz

Copyright © 2026 John Stroh.

Dieses Werk ist lizenziert unter der Creative Commons Namensnennung 4.0 International Lizenz (CC BY 4.0).

Es steht Ihnen frei, das Material zu teilen, zu kopieren, weiterzuverbreiten, anzupassen, zu remixen, zu transformieren und darauf aufzubauen, auch kommerziell, sofern Sie eine angemessene Quellenangabe machen, einen Link zur Lizenz angeben und kenntlich machen, ob Änderungen vorgenommen wurden.

Hinweis: Der Quellcode des Tractatus AI Safety Framework ist separat unter der Apache License 2.0 lizenziert. Diese Creative-Commons-Lizenz gilt nur für den Text und die Abbildungen der Forschungsarbeit.


Dokument-Metadaten

Version: 1.1

Erstellt: 2025-10-07

Letzte Änderung: 2025-10-13

Autor: John Stroh

Wortzahl: ~11.000 Wörter

Lesezeit: ~55 Minuten

  • Dokument-ID: Glossar

  • Status: Aktiv

Nächste Überprüfung: 2025-11-12