From fc033c560779d80f5675e339328e08aef8e86627 Mon Sep 17 00:00:00 2001 From: TheFlow Date: Sat, 1 Nov 2025 09:53:25 +1300 Subject: [PATCH] feat: add German and French glossary translations via DeepL MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Created translations using DeepL API: - GLOSSARY-DE.md (67KB, German translation) - GLOSSARY-FR.md (71KB, French translation) Added translate-glossary.py script for automated translation with: - Frontmatter preservation - Chunked translation for large documents - DeepL API integration Updated generate-public-pdfs.js to include: - tractatus-agentic-governance-system-glossary-of-terms-deutsch - tractatus-agentic-governance-system-glossary-of-terms-franais Both documents migrated to database and PDFs generated locally. Production deployment will generate PDFs on server. Note: Port numbers (27027/27017) are part of canonical "27027 Incident" educational example, not actual infrastructure exposure. 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude --- docs/markdown/GLOSSARY-DE.md | 87 +++++++++++++++++++ docs/markdown/GLOSSARY-FR.md | 87 +++++++++++++++++++ scripts/generate-public-pdfs.js | 4 +- scripts/translate-glossary.py | 146 ++++++++++++++++++++++++++++++++ 4 files changed, 323 insertions(+), 1 deletion(-) create mode 100644 docs/markdown/GLOSSARY-DE.md create mode 100644 docs/markdown/GLOSSARY-FR.md create mode 100755 scripts/translate-glossary.py diff --git a/docs/markdown/GLOSSARY-DE.md b/docs/markdown/GLOSSARY-DE.md new file mode 100644 index 00000000..1cc5856e --- /dev/null +++ b/docs/markdown/GLOSSARY-DE.md @@ -0,0 +1,87 @@ +--- +title: Tractatus Agentic Governance System - Glossary of Terms (Deutsch) +slug: glossary-de +quadrant: OPERATIONAL +persistence: HIGH +version: 1.1 +type: reference +visibility: public +author: Tractatus Framework Team +created: 2025-09-01 +modified: 2025-11-01 +--- + +# Tractatus Agentic Governance System - Glossar der Begriffe **Version:** 1.1 **Letzte Aktualisierung:** 2025-10-12 **Zielgruppe:** Nicht-technische Interessengruppen, Projektverantwortliche, Governance Reviewer --- ## Einleitung Dieses Glossar erklärt das Vokabular und die Konzepte, die im Tractatus Agentic Governance System verwendet werden. Die Erklärungen sind für Menschen ohne technischen Hintergrund geschrieben und konzentrieren sich darauf, *warum* diese Konzepte wichtig sind und *was* sie für die KI-Sicherheit und die menschliche Kontrolle bedeuten. Betrachten Sie dieses Glossar als Ihren Leitfaden, um zu verstehen, wie wir KI-Systeme sicher, an Ihren Werten ausgerichtet und unter menschlicher Kontrolle halten. + +--- ## Kernkonzepte ### Agentic Governance **Was es bedeutet:** Ein System von Regeln und Sicherheitsvorkehrungen, das regelt, wie KI-Agenten (autonome Softwareprogramme) Entscheidungen treffen und Maßnahmen ergreifen. **Warum es wichtig ist:** Wenn KI-Systeme eigenständig handeln können - wie die Planung von Aufgaben, die Verarbeitung von Daten oder die Abgabe von Empfehlungen - brauchen wir klare Regeln dafür, was sie ohne menschliche Zustimmung tun dürfen und was nicht. Agentic Governance ist der Rahmen, der diese Regeln durchsetzt. **Analogie zur realen Welt:** Stellen Sie sich das wie das Richtlinien- und Verfahrenshandbuch eines Unternehmens vor. Genauso wie Mitarbeiter klare Richtlinien darüber benötigen, welche Entscheidungen sie selbständig treffen können und wann sie die Zustimmung des Managers benötigen, benötigen KI-Systeme Governance-Rahmen, um ihre Grenzen zu kennen. **In Tractatus:** Unser Agentic Governance-System klassifiziert automatisch jede KI-Aktion, überprüft sie anhand Ihrer expliziten Anweisungen, setzt Sicherheitsgrenzen durch und überwacht Bedingungen, die das Fehlerrisiko erhöhen. Es ist so, als ob ein Compliance Officer jede KI-Entscheidung in Echtzeit überwacht. --- ### Tractatus **Was es bedeutet:** Der Name unseres KI-Sicherheits-Frameworks ist Ludwig Wittgensteins philosophischem Werk "Tractatus Logico-Philosophicus" entlehnt. **Warum es wichtig ist:** Wittgensteins Tractatus untersuchte die Grenzen dessen, was mit Gewissheit gesagt werden kann, im Gegensatz zu dem, was im Bereich des menschlichen Urteils verbleiben muss. Unser Rahmenwerk wendet diese Idee auf die KI an: Einige Entscheidungen können systematisiert und automatisiert werden (das "Sagbare"), während andere - die Werte, die Ethik und das menschliche Handeln betreffen - nicht gesagt werden können und dürfen (das "Unsagbare"). **Analogie zur realen Welt:** Stellen Sie sich eine Grenzlinie zwischen "technischen Entscheidungen" (z. B. welcher Datenbankport verwendet werden soll) und "Wertentscheidungen" (z. B. Abwägung zwischen Privatsphäre und Komfort) vor. Technische Entscheidungen können mit angemessenen Sicherheitsvorkehrungen an KI delegiert werden. Wertentscheidungen erfordern immer menschliches Urteilsvermögen. **Im Tractatus:** Der Rahmen erkennt an, dass, egal wie hoch entwickelt die KI wird, bestimmte Entscheidungen grundsätzlich dem Menschen zustehen. Es erzwingt diese Grenze automatisch. --- ### Der "27027-Vorfall" **Was er bedeutet:** Ein spezifischer, realer Fehlermodus, bei dem ein KI-System trotz ausdrücklicher Benutzeranweisungen, 27027 zu verwenden, **sofort** den falschen Datenbank-Port (27017 statt 27027) verwendet hat. **Warum er wichtig ist:** Dieser Vorfall offenbart ein kritisches Problem, das nicht durch bessere Speicher oder Kontextfenster gelöst werden kann: **Mustererkennungsbias**. Die Trainingsdaten der KI enthielten überwältigende Beweise dafür, dass "MongoDB = Port 27017". Als der Benutzer also "Port 27027" sagte, korrigierte das gelernte Muster der KI dies sofort automatisch, wie eine Rechtschreibprüfung, die ein absichtlich ungewöhnliches Wort ändert. Dies geschah zu Beginn der Sitzung, nicht nach langen Gesprächen. **Analogie zur realen Welt:** Stellen Sie sich vor, Sie sagen Ihrem Assistenten: "Benutzen Sie Konferenzraum B" für eine wichtige Besprechung, aber er bucht sofort Konferenzraum A, weil er Raum A schon Tausende von Malen benutzt hat und sein Gehirn Ihre ausdrückliche Anweisung automatisch nach dem bekannten Muster korrigiert. Sie haben es nicht vergessen - sie haben Sie nie wirklich "gehört", weil ihr gelerntes Muster so stark ist. **Schlüsselerkenntnis:** Dies wird mit zunehmender KI-Fähigkeit noch SCHLECHTER (mehr Training = stärkere falsche Muster). Es kann nicht durch ein besseres Gedächtnis, längere Kontextfenster oder mehr Training behoben werden. Es erfordert **architektonische Zwänge** - CrossReferenceValidator, der jede Aktion gegen explizite Anweisungen prüft. **In Tractatus:** Der 27027-Vorfall ist unser kanonisches Beispiel für die Übersteuerung von Mustererkennungsvorgaben. CrossReferenceValidator und InstructionPersistenceClassifier arbeiten zusammen, um diesen Fehlermodus zu erkennen und zu verhindern. --- ### AI Safety Framework **Was es bedeutet:** Ein umfassendes System, das KI-Systemen helfen soll, sicher, zuverlässig und in Übereinstimmung mit menschlichen Werten und Anweisungen zu arbeiten. **Warum es wichtig ist:** Da KI-Systeme immer leistungsfähiger und autonomer werden, steigt das Risiko unbeabsichtigter Folgen. Sicherheitsrahmen bieten Leitplanken, die verhindern, dass KI Schaden anrichtet, sei es durch Fehler, Missverständnisse oder einen Betrieb, der über den beabsichtigten Rahmen hinausgeht. **Analogie zur realen Welt:** Denken Sie an die Sicherheitsmerkmale in einem Auto: Sicherheitsgurte, Airbags, Antiblockiersystem, Spurhaltewarnungen. Nichts davon hält Sie vom Fahren ab, aber sie verringern das Risiko von Schäden, wenn etwas schief geht. Ein KI-Sicherheits-Framework leistet dasselbe für autonome Software. **In Tractatus:** Unser Framework kombiniert sechs Kerndienste (unten erklärt), die zusammenarbeiten, um den sicheren KI-Betrieb zu überwachen, zu verifizieren und durchzusetzen. Keine einzelne Komponente ist ausreichend - sie schaffen überlappende Schutzebenen. --- ## Die sechs Kerndienste ### 1. Instruction Persistence Classifier **Was das bedeutet:** Ein Dienst, der jede Anweisung, die Sie der KI geben, analysiert und feststellt, wie "beständig" diese Anweisung sein sollte - d. h. wie lange und wie stark sich die KI daran erinnern und sie befolgen sollte. **Warum das wichtig ist:** Nicht alle Anweisungen sind gleich wichtig oder haben die gleiche Lebensdauer. "Verwende den dunklen Modus" kann wochenlang gelten. "Benutze Port 27027 für dieses Projekt" kann für Monate gelten. die Anweisung "Always prioritize user privacy" kann für immer gelten. Die KI muss diese Unterschiede verstehen. **Wie es funktioniert:** - **Hohe Beständigkeit:** Strategische Entscheidungen, ausdrückliche Verbote, Grundwerte *Beispiel: "Niemals Benutzerdaten ohne Zustimmung weitergeben "* - **MITTELPERSISTENZ:** Operative Präferenzen, projektspezifische Richtlinien *Beispiel: "Bevorzuge MongoDB gegenüber SQL für dieses Projekt "* - **Niedrige Persistenz:** Taktische Entscheidungen, vorübergehende Anweisungen *Beispiel: "Beginnen Sie zuerst mit der Anmeldefunktion "* **Analogie zur realen Welt:** Stellen Sie sich die Ablage von Dokumenten vor. Einige kommen in permanente Akten (Unternehmensrichtlinien), einige in Projektordner (zugänglich bis zum Projektende), einige auf Ihren Schreibtisch (nur heute relevant). Der Instruction Persistence Classifier ist das Ablagesystem für KI-Anweisungen. **Im Tractatus:** Wenn Sie sagen "benutze immer Port 27027", erkennt der Classifier das Wort "immer" und die explizite Nummer und kennzeichnet dies als HIGH persistence. Das KI-System speichert diese Anweisung und prüft jede zukünftige Datenbankverbindung anhand dieser Anweisung, um Verstöße zu verhindern. --- ### 2. Cross-Reference Validator **Was es bedeutet:** Ein Dienst, der jede KI-Aktion mit Ihren gespeicherten Anweisungen abgleicht, um Konflikte zu erkennen, bevor die Aktion ausgeführt wird. **Warum es wichtig ist:** Dies ist die wichtigste Verteidigung gegen 27027-Stil-Fehler. Wenn die Trainingsmuster der KI versuchen, Ihre expliziten Anweisungen außer Kraft zu setzen, erkennt der Cross-Reference Validator dies sofort und blockiert die falsche Aktion. **Wie funktioniert es:** 1. Die KI schlägt eine Aktion vor (z. B. "Verbinde dich mit der Datenbank auf Port 27017") 2. Validator ruft Ihren Befehlsverlauf ab 3. Validator erkennt einen Konflikt: Sie sagten "benutze Port 27027" 4. Validator lehnt die Aktion ab und warnt die KI 5. Die KI ändert ihre Aktion so, dass sie Ihrer Anweisung entspricht **Analogie zur realen Welt:** Stellen Sie sich dies wie eine juristische Vertragsprüfung vor. Bevor Sie eine Vereinbarung unterschreiben, vergleicht Ihr Anwalt sie mit allen bestehenden Verträgen, um sicherzustellen, dass es keine Konflikte gibt. Der Cross-Reference Validator tut dies für jede KI-Aktion. **Im Tractatus:** Jede Aktion durchläuft eine Validierung. Der Validator sucht nach expliziten Konflikten ("Du hast X gesagt, aber die KI macht Y"), semantischen Konflikten ("Du hast Vue verboten, aber die KI installiert Vue") und Prioritätskonflikten (eine Aktion mit geringer Persistenz hat Vorrang vor einer Anweisung mit hoher Persistenz). --- ### 3. Boundary Enforcer **Was es bedeutet:** Ein Dienst, der KI daran hindert, Entscheidungen in Bereichen zu treffen, die grundsätzlich menschliches Urteilsvermögen erfordern - insbesondere Entscheidungen, die Werte, Ethik und die Handlungsfähigkeit des Nutzers betreffen. **Warum es wichtig ist:** Einige Entscheidungen können nicht systematisiert oder an Algorithmen delegiert werden, egal wie fortschrittlich sie sind. Abwägungen zum Schutz der Privatsphäre, ethische Dilemmas und Entscheidungen, die die menschliche Autonomie betreffen, müssen in menschlicher Hand bleiben. Der Boundary Enforcer stellt sicher, dass diese Grenze niemals überschritten wird. + +**Wie es funktioniert:** - Analysiert jede KI-Aktion, um ihren Entscheidungsbereich zu bestimmen - Blockiert Aktionen, die das "Werte-Territorium" überschreiten - Erlaubt technische/taktische Entscheidungen innerhalb sicherer Grenzen - Erfordert die Zustimmung des Menschen für jede wertesensitive Entscheidung **Was wird blockiert:** - "Aktualisieren Sie die Datenschutzrichtlinien, um der Leistung Vorrang vor dem Datenschutz zu geben" - "Entscheiden Sie, ob Benutzer standardmäßig verfolgt werden sollen" - "Ändern Sie das Leitbild, um sich auf Wachstum vor der Gemeinschaft zu konzentrieren" **Was wird erlaubt:** - "Optimieren von Datenbankabfragen für eine bessere Leistung" - "Refaktorieren des Authentifizierungscodes, um die Komplexität zu verringern" - "Aktualisieren von Abhängigkeitsversionen, um Sicherheitslücken zu schließen" **Analogie zur realen Welt:** Stellen Sie sich ein Unternehmen vor, in dem Ingenieure technische Entscheidungen treffen können (welche Programmiersprache verwendet werden soll), aber keine Wertentscheidungen treffen können (ob Nutzerdaten verkauft werden sollen). Der Boundary Enforcer ist die Richtlinie, die diese Trennung durchsetzt. **In Tractatus:** Der Enforcer verwendet den philosophischen Rahmen des Tractatus (Abschnitt 12.1), um Entscheidungen zu identifizieren, die ein nicht reduzierbares menschliches Urteilsvermögen erfordern. Diese werden automatisch markiert und bedürfen Ihrer Zustimmung, keine Ausnahmen. --- ### 4. Context Pressure Monitor **Was es bedeutet:** Ein Dienst, der kontinuierlich Bedingungen überwacht, die die Wahrscheinlichkeit von KI-Fehlern erhöhen, wie z.B. lange Unterhaltungen, hohe Token-Nutzung, komplexes Multitasking oder kürzlich aufgetretene Fehler. **Warum es wichtig ist:** KI-Systeme erbringen, wie Menschen, unter Druck schlechtere Leistungen. Eine neue KI zu Beginn eines Gesprächs ist zuverlässiger als eine KI, die bereits seit Stunden mit Tausenden von Informationen arbeitet, die es zu verfolgen gilt. Der Context Pressure Monitor erkennt diese Verschlechterungen und passt das KI-Verhalten entsprechend an. + +**Wie es funktioniert:** Verfolgt fünf gewichtete Faktoren (Stand 2025-10-12): - **Gesprächslänge (40%):** PRIMÄRER Faktor - die Anzahl der Nachrichten treibt die Verdichtungsereignisse an - **Token-Nutzung (30%):** Wie viel vom "Arbeitsspeicher" der KI verbraucht wird - **Aufgabenkomplexität (15%):** Anzahl der gleichzeitigen Aufgaben und Abhängigkeiten - **Fehlerhäufigkeit (10%):***Anweisungsdichte (5%):** Zu viele konkurrierende Anweisungen sorgen für Verwirrung **Warum ist die Gesprächslänge PRIMÄR:** Empirische Untersuchungen zeigen, dass Verdichtungsereignisse (ausgelöst durch die Anzahl der Nachrichten ~60, nicht nur Token) die Hauptursache für Sitzungsunterbrechungen sind. Bei jeder Verdichtung geht kritischer Kontext verloren und die Qualität verschlechtert sich dramatisch. + +Berechnung des Gesamtdruckpegels: - **NORMAL (0-30%):** Normales Vorgehen - **ERHÖHT (30-50%):** Verstärkte Überprüfung, erhöhte Vorsicht - **HÖHER (50-70%):** Sitzungsunterbrechung vorschlagen, alle Aktionen überprüfen - **KRITISCH (70-85%):** Obligatorische Überprüfung, Übergabe vorbereiten - **GEFÄHRLICH (85%+):** Sofortige Unterbrechung, umfassende Übergabe vorbereiten **Analogie zur realen Welt:** Denken Sie an die Regeln für Pilotenmüdigkeit. Nach einer bestimmten Anzahl von Flugstunden müssen sich die Piloten ausruhen, bevor sie wieder fliegen, unabhängig davon, wie sie sich fühlen. Der Context Pressure Monitor tut dasselbe für KI-Sitzungen - er misst objektiv die kognitive Belastung und setzt Sicherheitsprotokolle durch. **In Tractatus:** Wenn der Druck HOCH ist, wird die KI automatisch vorsichtiger, überprüft die Ausgaben gründlicher und schlägt vor, ein Dokument zur Sitzungsübergabe zu erstellen. Bei GEFÄHRLICHEN Werten stoppt die KI die Arbeit und verlangt eine neue Sitzung, um fortzufahren. --- ### 5. Metakognitiver Verifizierer **Was es bedeutet:** Ein Dienst, der die KI dazu bringt, "über ihr eigenes Denken nachzudenken" - er analysiert ihre Überlegungen, prüft auf logische Konsistenz und verifiziert, dass die vorgeschlagenen Aktionen wirklich mit den erklärten Zielen übereinstimmen. **Warum es wichtig ist:** Manchmal produzieren KI-Systeme Aktionen, die oberflächlich betrachtet vernünftig erscheinen, aber nicht wirklich aus ihren Überlegungen folgen, oder sie lassen wichtige Überlegungen aus. Die metakognitive Überprüfung fängt diese Fehler auf, bevor sie Probleme verursachen. **Wie es funktioniert:** Analysiert fünf Dimensionen jeder KI-Aktion: 1. **Ausrichtung (30% Gewichtung):** Stimmt die Aktion mit der Argumentation überein - "Ich stelle eine Verbindung zu Port 27017 her, weil Sie 27027 angefordert haben" → KONFLIKT 2. **Kohärenz (20% Gewichtung):** Ist die Argumentation in sich konsistent? - "Installing React framework... using Vue" → KONTRADIKATION 3. **Vollständigkeit (20% Gewichtung):** Sind alle kritischen Schritte berücksichtigt? - "Datenbank löschen... [kein Backup erwähnt]" → UNVOLLSTÄNDIG 4. **Sicherheit (20% Gewichtung):** Werden die Risiken richtig eingeschätzt? - "Zerstörerische Operation mit minimaler Planung" → UNGEFAHR 5. **Alternativen (Gewichtung 10 %):** Wurden andere Vorgehensweisen in Betracht gezogen? - "Nur eine Option geprüft" → UNZUVERLÄSSIG Erzeugt eine Vertrauensbewertung (0-1,0): - **0,8+:** WEITERMACHEN (hohes Vertrauen) - **0,6-0,8:** WEITERMACHEN_MIT_VORSICHT (Überprüfung empfohlen) - **0,4-0.6:** REQUEST_CONFIRMATION (menschliche Zustimmung erforderlich) - **<0.4:** REQUIRE_REVIEW (significant concerns) + +**Real-world analogy:** Imagine a "pre-flight checklist" for every AI decision. Just as pilots verify every system before takeoff, the Metacognitive Verifier ensures AI reasoning is sound before actions are taken. + +**In Tractatus:** Before the AI takes any significant action, the verifier runs through all five dimensions. If confidence is low, the action is blocked or flagged for your review. This catches errors even when other safeguards miss them. + +--- + +### 6. Pluralistic Deliberation Orchestrator + +**What it means:** A service that facilitates multi-stakeholder deliberation when AI encounters decisions involving conflicting moral values—without imposing a hierarchy of which values are "more important." + +**Why it matters:** Real-world decisions often involve genuine conflicts between legitimate values: privacy vs. safety, individual rights vs. collective welfare, innovation vs. caution. These conflicts can't be resolved by algorithms or universal rules. Different moral frameworks (rights-based thinking, consequence-based thinking, care ethics, community values) offer different—but all legitimate—perspectives. The Pluralistic Deliberation Orchestrator ensures these conflicts are handled through structured human deliberation, not AI fiat. + +**How it works:** +When a decision involves value conflicts: +1. **Detects the conflict:** Identifies which moral frameworks are in tension +2. **Identifies stakeholders:** Who is affected by this decision? +3. **Facilitates deliberation:** Structures conversation across perspectives +4. **Documents outcome:** Records decision, reasoning, dissent, and what's lost +5. **Creates reviewable precedent:** Similar future cases can reference this deliberation + +**What it does NOT do:** +- AI never decides which value wins +- No automatic ranking (privacy > Sicherheit oder Sicherheit > Privatsphäre) - Kein "objektiver Algorithmus" für Werteabwägungen - KI erleichtert menschliche Überlegungen, Menschen entscheiden **Analogie zur realen Welt:** Stellen Sie sich eine Bürgerversammlung vor, bei der Gemeindemitglieder über einen schwierigen Kompromiss diskutieren, z. B. den Bau einer Autobahn (wirtschaftlicher Nutzen), durch den Familien vertrieben werden (Störung der Gemeinschaft). Es gibt keine "objektiv richtige" Antwort. Der Pluralistic Deliberation Orchestrator stellt sicher, dass alle betroffenen Stimmen gehört werden, Kompromisse explizit gemacht werden und der Entscheidungsprozess dokumentiert und überprüfbar ist. **Beispielkonflikt:** Ein Nutzer signalisiert in einer privaten Nachricht eine mögliche Selbstschädigung. Wollen Sie: - **Privatsphäre** (private Nachrichten nicht veröffentlichen) - **Sicherheit** (Behörden alarmieren, um Schaden zu verhindern) Verschiedene Interessengruppen sind berechtigterweise anderer Meinung: - Befürworter der Privatsphäre: "Überwachung verletzt die Autonomie und das Vertrauen" - Befürworter der Schadensverhütung: "Die Rettung von Leben rechtfertigt eine begrenzte Offenlegung" - Der Nutzer selbst: Es kommt auf den Kontext an - relevant vs. vage, Muster vs. einmalig Der Pluralistic Deliberation Orchestrator "löst" das Problem nicht mit einem Algorithmus. Er: - bringt relevante Perspektiven zusammen - strukturiert die Deliberation (Diskussionsrunden) - dokumentiert, welche Werte priorisiert wurden und was verloren ging - zeichnet abweichende Meinungen mit voller Legitimität auf - legt ein Überprüfungsdatum fest (Entscheidungen sind vorläufig, keine permanenten Regeln) **Kulturelle und sprachliche Anpassung:** Das System passt die Kommunikation an, um die unterschiedlichen Hintergründe der Beteiligten zu berücksichtigen: - formale akademische Sprache für Forscher - direkte, einfache Sprache für australische/neuseeländische Beteiligte - kulturell angemessene Protokolle (z. B., Māori mihi, whanaungatanga) - Mehrsprachige Unterstützung bei Bedarf - Anti-patronisierende Filter (verhindert, dass alternative Ansichten als "verwirrt" abgetan werden) **Im Tractatus:** Wenn BoundaryEnforcer eine Werteentscheidung markiert, löst er PluralisticDeliberationOrchestrator aus. Die KI erleichtert - die Menschen entscheiden. Dies ist obligatorisch für alle Entscheidungen, bei denen es um den Schutz der Privatsphäre, ethische Dilemmata, kulturelle Wertekonflikte oder Entscheidungen geht, die die menschliche Handlungsfähigkeit betreffen. --- ## Klassifizierung von Anweisungen ### Quadranten (Die fünf Bereiche) **Was es bedeutet:** Ein Klassifizierungssystem, das jede Anweisung und Aktion in einen von fünf Bereichen einordnet, basierend auf ihrem Umfang, ihrer Bedeutung und der erforderlichen Aufsichtsebene. **Warum es wichtig ist:** Verschiedene Arten von Entscheidungen erfordern unterschiedliche Ebenen der menschlichen Aufsicht. Strategische Entscheidungen müssen auf Vorstandsebene genehmigt werden. Taktische Entscheidungen können delegiert werden. Diese Klassifizierung stellt sicher, dass für jeden Entscheidungstyp die richtige Ebene der Überprüfung gewählt wird. --- #### STRATEGISCHER Quadrant **Was bedeutet das:** Grundlegende, langfristige Entscheidungen, die den Auftrag, die Werte und die Identität der Organisation definieren. + +**Merkmale:** - Beeinflusst den Kernzweck und die Richtung - Langfristige oder dauerhafte Auswirkungen - Definiert, "wer wir sind" und "wofür wir stehen" - Erfordert die Zustimmung von Menschen auf höchster Ebene **Beispiele:** - "Wir stellen die Privatsphäre der Benutzer immer über die Bequemlichkeit" - "Wir werden niemals Benutzerdaten verkaufen" - "Zugänglichkeit ist nicht verhandelbar" - "Open Source ist ein Kernwert" **Persistenz:** Fast immer HOCH **Menschliche Aufsicht:** Obligatorische Genehmigung durch den Projekteigner **Überprüfungshäufigkeit:** Vierteljährlich oder wenn sich der Auftrag ändert **In Tractatus:** Strategische Anweisungen werden dauerhaft gespeichert und mit jeder Aktion abgeglichen. Sie bilden die Grundlage, die alle anderen Entscheidungen berücksichtigen müssen. --- #### OPERATIONELLER Quadrant **Was bedeutet das:** Mittelfristige Richtlinien, Standards und Leitlinien, die die tägliche Arbeit bestimmen. + +**Merkmale:** - Legt Prozesse und Standards fest - Gilt für den laufenden Betrieb - Kann sich bei veränderten Anforderungen weiterentwickeln - Beeinflusst Effizienz und Qualität **Beispiele:** - "Der gesamte Code muss eine Testabdeckung von über 80 % aufweisen" - "Verwenden Sie MongoDB für die Datenpersistenz" - "Befolgen Sie die semantische Versionierung für Releases" - "Sicherheitspatches müssen innerhalb von 48 Stunden angewendet werden" **Persistenz:** Gewöhnlich MITTEL bis HOCH **Menschliche Aufsicht:** Technische Überprüfung, regelmäßige Check-Ins **Überprüfungshäufigkeit:** Vierteljährlich oder bei Prozessänderungen **In Tractatus:** Operative Anweisungen definieren das "Wie" Ihres Projekts. Sie werden konsequent durchgesetzt, können aber aktualisiert werden, wenn sich Ihre betrieblichen Anforderungen weiterentwickeln. --- #### TACTICAL Quadrant **Was es bedeutet:** Kurzfristige, spezifische Entscheidungen über unmittelbare Maßnahmen und Implementierungsdetails. + +**Merkmale:** - Befasst sich mit der aktuellen Aufgabe oder dem aktuellen Problem - Begrenzter Zeithorizont (Tage bis Wochen) - Ausführungsorientiert - Kann sich häufig ändern **Beispiele:** - "Beginnen Sie mit der Authentifizierungsfunktion" - "Beheben Sie den Anmeldefehler vor der Bereitstellung" - "Verwenden Sie den 'feature-auth'-Zweig für diese Arbeit" - "Stellen Sie das Produkt zuerst zum Testen in Staging bereit" **Persistenz:***Gewöhnlich NIEDRIG bis MITTEL **Menschliche Aufsicht:** Vorab genehmigte Delegation, Stichproben **Überprüfungshäufigkeit:** Pro Aufgabe oder pro Sprint **In Tractatus:** Taktische Anweisungen geben der KI eine spezifische Richtung für die aktuelle Arbeit. Sie sind im Moment wichtig, bleiben aber nicht über den unmittelbaren Kontext hinaus bestehen. --- #### SYSTEM-Quadrant **Was es bedeutet:** Technische Konfiguration, Infrastruktur-Setup und Umgebungsspezifikationen **Merkmale:** - Definiert die technische Umgebung - Beeinflusst das Systemverhalten und die Kompatibilität - Normalerweise spezifisch und präzise - Änderungen können Dinge kaputt machen **Beispiele:** - "MongoDB läuft auf Port 27027" - "Benutze Node.js Version 18+" - "Umgebungsvariablen in .env Datei gespeichert" - "Datenbankname ist 'tractatus_dev'" **Persistenz:** HOCH (technische Abhängigkeiten) **Menschliche Aufsicht:** Technische Validierung **Überprüfungshäufigkeit:** Wenn sich die Infrastruktur ändert **In Tractatus:** Systemanweisungen werden mit HOHER Persistenz behandelt, da ihre Änderung zu kaskadierenden Fehlern führen kann. Der Vorfall 27027 war eine SYSTEM-Anweisung, die ignoriert wurde. --- #### STOCHASTISCHER Quadrant **Was bedeutet das:** KI-generierte Vorschläge, kreative Vorschläge oder Sondierungsempfehlungen, die noch keine menschliche Genehmigung haben. + +**Merkmale:** - Von KI, nicht von Menschen erstellt - Erfordert menschliche Überprüfung und Genehmigung - Kann Unsicherheit oder Kreativität beinhalten - Sollte nicht automatisch ausgeführt werden **Beispiele:** - "Ich schlage vor, einen Blogbeitrag über Barrierefreiheit zu schreiben" - "Überlegen Sie, ob Sie eine Funktion für den dunklen Modus hinzufügen sollten" - "Dieser Code könnte für eine bessere Leistung überarbeitet werden" - "Sie sollten vielleicht auf die neueste Framework-Version aktualisieren" **Persistenz:** NIEDRIG (bis zur Genehmigung, dann Neueinstufung) **Menschliche Aufsicht:** IMMER erforderlich **Überprüfungshäufigkeit:** Pro Vorschlag **Im Tractatus:** Der STOCHASTISCHE Quadrant ist der Ort, an dem die KI-Kreativität lebt, jedoch mit einer entscheidenden Sicherung: Diese Vorschläge werden NIE ohne Ihre Genehmigung ausgeführt. Sobald Sie zustimmen, werden sie in den entsprechenden Quadranten umklassifiziert. --- ## Persistenzstufen ### HOHE Persistenz **Was das bedeutet:** Anweisungen, die langfristig, über mehrere Sitzungen und Kontexte hinweg, beibehalten und durchgesetzt werden sollen. + +**Wenn angewandt:** - Explizite Verbote ("niemals X") - Strategische Richtlinien - Systemkonfigurationen mit Abhängigkeiten - Grundwerte und Prinzipien **Marker, die HIGH auslösen:** - Wörter wie "immer", "nie", "alle", "jeder" - Explizite Zahlenwerte im SYSTEM-Kontext - Verbotsformulierungen ("nicht", "nicht verwenden") - Wertbeladene Aussagen **Beispiel:** "Verwende immer Port 27027 für MongoDB" → HIGH **Warum:** Explizit ("immer"), spezifisch (27027), SYSTEM-Domäne **Im Tractatus:** HIGH-Persistenzanweisungen werden in `.claude/instruction-history.json` gespeichert und vor JEDER Aktion überprüft. Ein Verstoß gegen sie erfordert eine explizite menschliche Übersteuerung --- ### MEDIUM Persistenz **Was es bedeutet:** Anweisungen, die für ein bestimmtes Projekt, Feature oder einen bestimmten Zeitraum gelten, sich aber weiterentwickeln können. + +**Wenn sie angewendet werden:** - Operative Präferenzen - Projektspezifische Richtlinien - Vorübergehende, aber wichtige Einschränkungen - Präferenzen ohne absolute Formulierung **Marker, die MEDIUM auslösen:** - Wörter wie "bevorzugen", "versuchen", "anstreben" - Indikatoren für den Projekt- oder Funktionsumfang - Bedingte Formulierungen - Best-Practice-Empfehlungen **Beispiel:** "Bevorzuge React gegenüber Vue für dieses Projekt" → MEDIUM **Warum:** Bevorzugung ("prefer"), projektbezogen, nicht absolut **Im Tractatus:** MEDIUM Persistenzanweisungen werden innerhalb ihres Geltungsbereichs durchgesetzt, können aber mit gutem Grund in Frage gestellt werden. Die KI sollte erklären, warum sie abweicht, wenn sie eine Alternative vorschlägt. --- ### LOW Persistence **Was es bedeutet:** Anweisungen, die sich auf die unmittelbare Arbeit, die aktuelle Aufgabe oder temporäre Situationen beziehen. + +**Wann angewandt:** - Taktische, unmittelbare Anweisungen - Einmalige Anfragen - Erkundende oder experimentelle Arbeit - Kontextspezifische Entscheidungen **Merkmale, die LOW auslösen:** - Aufgabenspezifische Sprache - Unmittelbarer Zeitrahmen - Erkundende Formulierungen - Einmalige Anfragen **Beispiel:** "Beginnen Sie mit der Anmeldefunktion" → LOW **Warum:** Unmittelbar, aufgabenspezifisch, gilt nicht über die aktuelle Arbeit hinaus **Im Tractatus:** LOW-Persistenz-Anweisungen leiten die aktuelle Arbeit an, schaffen aber keine dauerhaften Einschränkungen. Sie sind für die Sitzung oder Aufgabe relevant und verblassen dann. --- ## Sicherheits- und Verifizierungskonzepte ### Confidence Score **Was es bedeutet:** Ein numerisches Maß (0,0 bis 1,0) dafür, wie zuversichtlich das KI-System ist, dass eine vorgeschlagene Aktion korrekt und sicher ist und mit den Anweisungen übereinstimmt. **Warum es wichtig ist:** Nicht alle KI-Entscheidungen sind gleich sicher. Einige Aktionen sind einfach und risikoarm. Andere wiederum sind mehrdeutig, komplex oder haben potenzielle Konsequenzen. Die Vertrauensbewertung hilft bei der Bestimmung angemessener Aufsichtsstufen. **Wie berechnet:** Gewichtete Kombination aus fünf Verifizierungsdimensionen: - Ausrichtung: 30% - Kohärenz: 20% - Vollständigkeit: 20% - Sicherheit: 20% - Alternativen: 10% **Vertrauensstufen:** - **0,8-1,0 (HOCH):** Mit Zuversicht vorgehen - **0,6-0,8 (MITTEL):** Mit Vorsicht vorgehen, Benutzer benachrichtigen - **0,4-0,6 (NIEDRIG):** Ausdrückliche Bestätigung verlangen - **0,0-0,4 (SEHR NIEDRIG):** Überprüfung durch einen Menschen verlangen, wahrscheinlich blockieren **Analogie zur realen Welt:** Stellen Sie sich das Vertrauen wie die Diagnosesicherheit eines Arztes vor. "Ich bin zu 95 % sicher, dass es sich um eine Erkältung handelt" bedeutet vielleicht Ruhe und Flüssigkeit. "Ich bin zu 40% sicher" bedeutet mehr Tests vor der Behandlung. **Im Tractatus:** Jede wichtige Handlung erhält eine Vertrauensbewertung. Handlungen mit hohem Vertrauen verlaufen reibungslos. Aktionen mit niedrigem Vertrauen lösen zusätzliche Prüfungen aus oder erfordern Ihre Zustimmung. --- ### Entscheidungsschwellen **Was es bedeutet:** Numerische Grenzwerte, die bestimmen, welche Aktionen automatisch durchgeführt werden können und welche eine menschliche Überprüfung erfordern. **Warum es wichtig ist:** Schwellenwerte schaffen klare, objektive Kriterien für die KI-Autonomie. Sie verhindern sowohl übermäßiges Vertrauen (KI, die zu viel ohne Aufsicht tut) als auch übermäßige Vorsicht (KI, die bei trivialen Angelegenheiten um Zustimmung bittet). **Standardschwellenwerte:** - **PROCEED:** Confidence ≥ 0.8 (80%) - **PROCEED_WITH_CAUTION:** Confidence ≥ 0.6 (60%) - **REQUEST_CONFIRMATION:** Confidence ≥ 0.4 (40%) - **ANFORDERUNG_ÜBERPRÜFUNG:** Vertrauen < 0,4 (40%) **Angepasst unter Druck:** - **KRITISCHER Druck:** Der Schwellenwert für VORGEHEN erhöht sich auf 0,8 (von 0,7) - **GEFÄHRLICHER Druck:** Alle Aktionen werden unabhängig vom Vertrauen blockiert **Analogie zur realen Welt:** Wie die Ausgabenbefugnis in einem Unternehmen. Nachwuchskräfte könnten Einkäufe bis zu 500 $ genehmigen. Manager der mittleren Ebene bis zu 5.000 Dollar. Leitende Angestellte bis zu 50.000 $. Alles, was darüber liegt, muss vom Vorstand genehmigt werden. Schwellenwerte schaffen klare Delegationsgrenzen. **In Tractatus:** Schwellenwerte passen sich den Bedingungen an. Wenn der Kontextdruck hoch ist, legen wir die Messlatte für autonomes Handeln höher, weil das Fehlerrisiko steigt. --- ### Pressure Levels **Was es bedeutet:** Fünf kategorisierte Zustände, die beschreiben, wie viel "kognitive Belastung" das KI-System auf der Grundlage mehrerer Faktoren ausgesetzt ist. + +**Die fünf Stufen:** #### NORMAL (0-30%) - **Bedingung:** Frische Sitzung, geringe Komplexität, keine Fehler - **Maßnahme:** Normales Vorgehen, Standardüberprüfung - **Analogie:** Ausgeruhtes, kristallklares Arbeiten #### ERHÖHT (30-50%) - **Bedingung:** Mäßige Tokenverwendung oder Komplexität - **Maßnahme:** Verifizierung erhöhen, vorsichtiger sein - **Analogie:** Später Nachmittag, beginnende Müdigkeit #### HOCH (50-70%) - **Voraussetzung:** Hoher Tokenverbrauch, lange Konversation oder mehrere Fehler - **Maßnahme:** Sitzungspause vorschlagen, alle Aktionen verifizieren - **Analogie:** Ende eines langen Arbeitstages, Ermüdungserscheinungen #### KRITISCH (70-85%) - **Bedingung:** Sehr hoher Druck durch mehrere Faktoren - **Maßnahme:** Obligatorische Überprüfung, Vorbereitung eines Übergabedokuments - **Analogie:** Überstunden machen und dringende Aufgaben jonglieren #### GEFÄHRLICH (85%+) - **Bedingung:** Extremer Druck, sehr hohes Fehlerrisiko - **Maßnahme:** STOPPEN SIE DIE ARBEIT, erstellen Sie eine Übergabe, verlangen Sie eine neue Sitzung - **Analogie:** Zu erschöpft, um sicher zu arbeiten **Warum das wichtig ist:** Genauso wie Menschen nicht Auto fahren oder wichtige Entscheidungen treffen sollten, wenn sie erschöpft sind, sollte KI nicht autonom unter gefährlichem Druck arbeiten. Das System erzwingt Ruhezeiten. **In Tractatus:** Der Druck wird kontinuierlich überwacht. Wenn der Druck ansteigt, passt die KI ihr Verhalten automatisch an - sie wird vorsichtiger, überprüft gründlicher und hält schließlich an, wenn die Bedingungen gefährlich werden. --- ### Verifizierungsdimensionen **Was das bedeutet:** Die fünf spezifischen Aspekte des Denkens und Handelns der KI, die bewertet werden, um das Vertrauen zu berechnen und die Qualität sicherzustellen. --- #### 1. Ausrichtung (30 % Gewichtung) **Was es misst:** Stimmt die vorgeschlagene Aktion tatsächlich mit dem überein, was die KI zu tun versucht? **Warum es wichtig ist:** Manchmal erklärt die KI eine Sache, tut aber etwas anderes - oft aufgrund von Aufmerksamkeitsfehlern oder Befehlskonflikten. + +**Wie eine gute Ausrichtung aussieht:** - Aktionsparameter stimmen mit der Begründung überein - Keine Konflikte mit expliziten Anweisungen - Erklärtes Ziel und tatsächliche Aktion sind konsistent **Wie eine schlechte Ausrichtung aussieht:** - "Verbindung zu Port 27027, weil der Benutzer es angefordert hat" + Aktion stellt eine Verbindung zu 27017 her - "Verwendung von React wie angewiesen" + Aktion installiert Vue **Im Tractatus:** Die Ausrichtung erhält die höchste Gewichtung (30%), weil eine falsche Ausrichtung oft auf den zentralen Fehlermodus von 27027 hinweist. --- #### 2. Kohärenz (20% Gewicht) **Was es misst:** Ist die Argumentation logisch konsistent? Gibt es interne Widersprüche? **Warum ist das wichtig:** Widersprüchliche Argumentation deutet auf verwirrtes oder fehleranfälliges Denken hin. **Wie sieht gute Kohärenz aus:** - Schritte folgen logisch aufeinander - Keine widersprüchlichen Aussagen - Beweise stützen die Schlussfolgerungen - Keine unsichere Sprache bei Entscheidungen, bei denen es um viel geht **Wie sieht schlechte Kohärenz aus:** - "React installieren... mit Vue" - "Sicherer Betrieb... [destruktive Parameter]" - "Gut geplante Aktion... vielleicht dies tun" **Im Tractatus:** Die Kohärenzprüfung sucht nach logischen Widersprüchen, widersprüchlichen Technologien, unsicherer Sprache und fehlenden Beweisen. --- #### 3. Vollständigkeit (20% Gewichtung) **Was sie misst:** Sind alle notwendigen Schritte und Überlegungen enthalten? **Warum sie wichtig ist:** Unvollständige Planung führt zu fehlgeschlagenen Operationen, insbesondere bei komplexen oder riskanten Aktionen. + +**Wie sieht gute Vollständigkeit aus:** - Alle kritischen Schritte identifiziert - Randfälle berücksichtigt - Fehlerbehandlung geplant - Backup/Rollback für destruktive Operationen **Wie sieht schlechte Vollständigkeit aus:** - "Datenbank löschen" ohne Backup-Schritt - Bereitstellungsplan ohne Testphase - Schemaänderung ohne Migrationsstrategie **In Tractatus:** Vollständigkeitsprüfungen sind strenger für destruktive Operationen, die 4+ Planungsschritte und explizite Backup-Überlegungen erfordern. --- #### 4. Sicherheit (20% Gewicht) **Was es misst:** Sind die Risiken richtig identifiziert und gemindert? **Warum es wichtig ist:** Einige Vorgänge sind mit einem inhärenten Risiko verbunden. Die Sicherheitsüberprüfung gewährleistet eine angemessene Vorsicht. **Wie sieht gute Sicherheit aus:** - Risiken identifiziert und anerkannt - Strategien zur Risikominderung vorhanden - Destruktive Operationen haben Sicherheitsvorkehrungen - Angemessenes Risikoniveau für die Art der Operation **Wie sieht schlechte Sicherheit aus:** - Destruktive Operation mit minimaler Planung - Keine Sicherung für Datenänderung - Erzwungene Markierungen ohne Begründung - Hochriskante Aktion wird als Routine behandelt **In Tractatus:** Die Sicherheitsbewertung bestraft destruktive Operationen (Löschen, Löschen, Erzwingen, Schemaänderungen) stark, wenn keine angemessenen Sicherheitsvorkehrungen dokumentiert sind. --- #### 5. Alternativen (10 % Gewichtung) **Was es misst:** Wurden vor der Wahl dieser Aktion alternative Ansätze in Betracht gezogen? **Warum es wichtig ist:** Die Berücksichtigung von Alternativen zeigt eine durchdachte Entscheidungsfindung und verringert die Wahrscheinlichkeit, einen suboptimalen Ansatz zu wählen. + +**Wie gute Alternativen aussehen:** - Mehrere Optionen untersucht - Begründung für die gewählte Vorgehensweise - Kompromisse anerkannt **Wie schlechte Alternativen aussehen:** - Erste Idee ohne Untersuchung - Keine Begründung für die Vorgehensweise - Scheint überstürzt oder unüberlegt **Im Tractatus:** Alternativen erhalten das geringste Gewicht (10%), weil die richtige Antwort manchmal offensichtlich ist. Aber das völlige Fehlen von Alternativen ist ein Warnsignal. --- ## Human Oversight Concepts ### Values Alignment **Was es bedeutet:** Sicherstellen, dass KI-Entscheidungen und -Aktionen mit den menschlichen Werten übereinstimmen, auch wenn diese Werte nicht perfekt formalisiert oder systematisiert werden können. **Warum es wichtig ist:** Werte - wie Privatsphäre, Fairness, Würde, Handlungsfähigkeit - sind grundlegend für die menschliche Erfahrung, lassen sich aber nicht auf einfache Regeln reduzieren. KI-Systeme müssen erkennen, wann sie sich dem Bereich der Werte nähern, und sich auf das menschliche Urteil verlassen. **Beispiele für Wertentscheidungen:** - Kompromisse zwischen Privatsphäre und Bequemlichkeit - Zugänglichkeit und Entwicklungsgeschwindigkeit - Transparenz und Einfachheit - Individuelle Rechte und kollektiver Nutzen **Was macht Wertentscheidungen so besonders:** - Keine objektiv "richtige" Antwort - Verschiedene Interessengruppen können unterschiedlicher Meinung sein - Kontext und Nuancen sind entscheidend - Die Folgen betreffen das menschliche Wohlergehen **Im Tractatus:** Der Boundary Enforcer blockiert speziell Entscheidungen, die den Bereich der Werte überschreiten. Diese MÜSSEN die Zustimmung des Menschen haben - keine Ausnahmen, egal wie ausgeklügelt die KI ist. --- ### Agency und Souveränität **Was es bedeutet:** Das Prinzip, dass Menschen eine sinnvolle Kontrolle über Entscheidungen behalten müssen, die ihr Leben, ihre Autonomie und Selbstbestimmung betreffen. **Warum es wichtig ist:** Technologie sollte Menschen befähigen, nicht ihre Handlungsfähigkeit ersetzen. Wenn KI Entscheidungen "für" Menschen trifft, kann sie die Autonomie untergraben, selbst wenn sie technisch korrekt ist. **Beispiele:** - **Respektiert die Handlungsfähigkeit:** "Hier sind drei Optionen mit Kompromissen. Welche bevorzugen Sie?" - **Verletzt die Autonomie:** "Ich habe beschlossen, für Sie die Leistung über die Privatsphäre zu stellen." **Rote Flaggen:** - KI trifft Entscheidungen im Namen des Benutzers ohne dessen Zustimmung - Entfernen von Optionen oder Verbergen von Informationen - Hinlenken auf bestimmte Ergebnisse - Entscheiden, was der Benutzer "wirklich will" **Im Tractatus:** Der Schutz der Autonomie ist in den Boundary Enforcer eingebaut. Das System kann keine Entscheidungen darüber treffen, was die Nutzer wertschätzen oder wollen - das können nur Menschen. --- ### Harmlessness **Was es bedeutet:** Die Verpflichtung, KI-Systeme daran zu hindern, Schaden zu verursachen - direkt oder indirekt, absichtlich oder unabsichtlich. **Warum es wichtig ist:** Selbst gut gemeinte KI kann durch Fehler, Voreingenommenheit, unbeabsichtigte Folgen oder durch das Agieren jenseits ihrer Kompetenzen Schaden verursachen. + +**Vermeidete Schadensarten:** - **Direkt:** Zerstörerische Operationen ohne Sicherheitsvorkehrungen - **Indirekt:** Verletzung von Anweisungen, die zu nachgelagerten Fehlern führen - **Wertorientiert:** Entscheidungen, die die menschliche Handlungsfähigkeit untergraben - **Kumulativ:** Kleine Fehler, die sich im Laufe der Zeit summieren **Im Tractatus:** Harmlosigkeit wird durch mehrere Ebenen sichergestellt: +- Sicherheitsüberprüfung vor riskanten Operationen - Durchsetzung von Grenzen für Wertentscheidungen - Drucküberwachung, um fehleranfällige Zustände zu verhindern - Querverweis-Validierung, um Anweisungsverletzungen zu verhindern --- ### Human-in-the-Loop **Was es bedeutet:** Sicherstellen, dass der Mensch aktiv in KI-Entscheidungsprozesse eingebunden bleibt, insbesondere bei folgenreichen Entscheidungen. + +**Warum das wichtig ist:** Eine vollständige Automatisierung ist nicht immer wünschenswert. Für wichtige Entscheidungen sind menschliches Urteilsvermögen, Aufsicht und endgültige Genehmigung unerlässlich. + +**Stufen der menschlichen Beteiligung:** - **Human-on-the-loop:** Der Mensch überwacht, aber genehmigt nicht jede Aktion - **Human-in-the-loop:** Der Mensch genehmigt wichtige Aktionen - **Human-over-the-loop:** Der Mensch kann immer übersteuern oder anhalten **In Tractatus:** Wir implementieren alle drei: - **On:** Kontinuierliche Überwachung durch Druck- und Verifikationssysteme - **In:** Erforderliche Zustimmung für Wertentscheidungen und Handlungen mit NIEDRIGER Zuversicht - **Über:** Sie können jede Rahmenentscheidung jederzeit außer Kraft setzen --- ## Konzepte des Wertepluralismus ### Grundlegender Pluralismus **Was es bedeutet:** Die philosophische Position, dass mehrere, wirklich unterschiedliche moralische Rahmen existieren - und kein einziger "Superwert" sie alle zusammenfassen kann. + +**Warum das wichtig ist:** Dies ist die philosophische Haltung des Tractatus zu moralischen Meinungsverschiedenheiten. Wir lehnen sowohl den moralischen Monismus ("alles reduziert sich auf das Wohlbefinden" oder "alles reduziert sich auf die Rechte") als auch den moralischen Relativismus ("alle Werte sind gleich gültig, alles ist erlaubt") ab. Stattdessen erkennen wir an, dass deontologische Ethik (rechtebasiert), Konsequentialismus (ergebnisbasiert), Tugendethik, Fürsorgeethik und kommunitaristische Rahmenwerke alle legitim, aber irreduzibel unterschiedlich sind. **Analogie zur realen Welt:** Verschiedene Sprachen drücken unterschiedliche Konzepte aus. Man kann zwischen ihnen übersetzen, aber manche Ideen ergeben nur in ihrem eigenen Rahmen einen vollen Sinn. "Privatsphäre als Grundrecht" (deontologisch) und "Privatsphäre als Mittel zum Wohlbefinden" (konsequentialistisch) sind nicht dasselbe Konzept - sie sind wirklich unterschiedliche moralische Ansprüche. **Was das praktisch bedeutet:** - Keine automatische Werte-Rangfolge (Privatsphäre > Sicherheit oder Sicherheit > Privatsphäre) - Der Kontext bestimmt die Priorität, nicht eine universelle Hierarchie - Legitime Meinungsverschiedenheiten sind ein gültiges Ergebnis - Dokumentieren Sie, was bei Entscheidungen verloren geht, nicht nur, was gewonnen wird **Im Tractatus:** Grundlegender Pluralismus ist in inst_033 kodiert. Der Rahmen schreibt niemals universelle Wertordnungen vor. BoundaryEnforcer löst PluralisticDeliberationOrchestrator aus, wenn Werte miteinander in Konflikt geraten, um sicherzustellen, dass menschliche Überlegungen entscheiden - und nicht KI-Algorithmen. --- ### Value Incommensurability **Was es bedeutet:** Wenn zwei Werte nicht in denselben Einheiten gemessen werden können - ihnen fehlt eine gemeinsame Metrik für den Vergleich. **Warum es wichtig ist:** Einige Werteabwägungen können nicht durch "Berechnen" gelöst werden, welcher Wert größer ist. Privatsphäre und Sicherheit werden nicht in der gleichen Währung gemessen. Sie können nicht "3 Einheiten Verlust an Privatsphäre" in "5 Einheiten Gewinn an Sicherheit" umrechnen und erklären, dass die Sicherheit gewinnt. **Analogie zur realen Welt:** Stellen Sie sich vor, Sie müssten sich entscheiden zwischen der Zeit, die Sie mit Ihrer Familie verbringen, und dem Vorantreiben Ihrer Karriere. Das wird nicht in denselben Einheiten gemessen. Sie können nicht sagen: "2 Stunden mit den Kindern = 500 Dollar Gehalt" und die Antwort ausrechnen. Die Werte sind inkommensurabel. **Gebräuchliches Missverständnis:** Inkommensurabel bedeutet NICHT unvergleichbar. Man kann immer noch Entscheidungen zwischen inkommensurablen Werten treffen - unter Verwendung von praktischer Weisheit, Kontext, Deckungswerten (siehe unten) - aber nicht durch algorithmische Berechnung. **Im Tractatus:** Wenn Werte inkommensurabel sind, versucht der Rahmen nicht, sie auf eine einzige Skala zu zwingen. Stattdessen erleichtert der PluralisticDeliberationOrchestrator strukturierte menschliche Überlegungen, um den Kompromiss kontextabhängig zu steuern. --- ### Moralische Reste **Was es bedeutet:** Was verloren geht oder geopfert wird, wenn man zwischen widersprüchlichen Werten wählt - der legitime moralische Anspruch, der nicht erfüllt werden konnte. **Warum es wichtig ist:** Selbst wenn man die richtige Wahl trifft, respektiert die Anerkennung dessen, was verloren wurde, die Legitimität des depriorisierten Wertes. Dies verhindert, dass Werte im Laufe der Zeit erodieren. **Analogie aus der realen Welt:** Sie entscheiden sich dafür, länger zu arbeiten, um einen Termin einzuhalten (Verantwortung), anstatt das Konzert Ihres Kindes zu besuchen (Familie). Auch wenn es unter den gegebenen Umständen die richtige Entscheidung ist, wird durch die Anerkennung des Verlusts ("Ich wünschte, ich hätte dabei sein können") die Familie als echter Wert respektiert. + +**Beispiele:** - Offenlegung von Nutzerdaten, um drohenden Schaden zu verhindern (Sicherheit priorisieren) - **Moralischer Rest:** Verletzung der Privatsphäre, Vertrauensbruch, Präzedenzfallrisiko - Verweigerung der Offenlegung von Daten (Privatsphäre priorisieren) - **Moralischer Rest:** Potenzieller Schaden nicht verhindert, Leben in Gefahr **Im Tractatus:** Jedes Abwägungsergebnis dokumentiert den moralischen Rest - welche Werte depriorisiert wurden und warum dies legitimes Bedauern erzeugt. Das ist keine Schwäche, sondern die Erkenntnis, dass es bei Wertekonflikten keine perfekten Lösungen gibt. --- ### Legitime Meinungsverschiedenheit **Was es bedeutet:** Wenn die Beteiligten sich über die Prioritäten von Werten uneinig sind - und beide Positionen einen echten moralischen Stellenwert haben **Warum es wichtig ist:** Nicht bei allen Meinungsverschiedenheiten ist eine Seite "richtig" und eine Seite "falsch" Manchmal stehen Werte wirklich im Widerspruch zueinander, und vernünftige Menschen, die unterschiedlichen moralischen Vorstellungen folgen, kommen zu unterschiedlichen Schlussfolgerungen. Meinungsverschiedenheiten als "verworren" oder "irrational" abzutun, verstößt gegen den Pluralismus. **Analogie zur realen Welt:** Euthanasiedebatten. Die eine Seite setzt auf Autonomie und Mitgefühl (Beendigung des Leidens). Die andere Seite stellt die Heiligkeit des Lebens in den Vordergrund. Beide haben eine kohärente moralische Argumentation. Die Meinungsverschiedenheit ist legitim und kann nicht durch "bessere Informationen" gelöst werden. **Was macht eine Meinungsverschiedenheit legitim:** - Beide Positionen basieren auf anerkannten moralischen Rahmenbedingungen - Beide Seiten verstehen die Kompromisse - Die Meinungsverschiedenheit besteht trotz vollständiger Information - Keine offensichtlichen logischen Fehler oder böser Glaube **Im Tractatus:** Wenn die Beratung in legitimer Meinungsverschiedenheit endet: 1. Entscheidung wird trotzdem getroffen (jemand muss handeln) 2. Abweichende Ansichten werden vollständig dokumentiert (nicht verworfen) 3. Rechtfertigung erklärt, warum diese Entscheidung trotz Uneinigkeit getroffen wurde 4. Dies ist besser, als so zu tun, als wären sich alle einig (Legitimationstheater) oder als in eine Sackgasse zu geraten, ohne dass eine Entscheidung getroffen wird (Verzicht). ** ### Covering Values **Was es bedeutet:** Kontextspezifische Werte, die einen Vergleich zwischen inkommensurablen Werten ermöglichen, ohne eine universelle Hierarchie zu schaffen. **Warum es wichtig ist:** Wenn Werte inkommensurabel sind (kein gemeinsamer Maßstab), wie können wir sie dann vergleichen? Deckungswerte bilden die Brücke. In einem Kontext könnte der "Schutz des Vertrauens" sowohl die Privatsphäre als auch die Transparenz abdecken. In einem anderen Kontext könnte "Schadensminimierung" sowohl Sicherheit als auch Autonomie abdecken. **Analogie zur realen Welt:** Wie vergleicht man Äpfel mit Birnen? Wenn es um den "Vitamin-C-Gehalt" geht, gewinnen die Orangen. Wenn es darum geht, einen Kuchen zu backen, könnten Äpfel gewinnen. Der abdeckende Wert (Ernährung vs. kulinarische Verwendung) ermöglicht einen Vergleich, ohne zu sagen: "Äpfel sind generell besser als Orangen". **Beispiel:** Wertekonflikt: Privatsphäre vs. Sicherheit **Deckungswert im Kontext einer unmittelbaren Bedrohung:** "Minimierung irreversibler Schäden" - Dies bevorzugt die Sicherheit (Tod verhindern) gegenüber der Privatsphäre (später reversibel) **Deckungswert im Kontext einer routinemäßigen Überwachung:** "Autonomie und Vertrauen bewahren" - Dies bevorzugt die Privatsphäre (Autonomie) gegenüber der Sicherheit (spekulativer zukünftiger Nutzen) **Gleiche Werte, unterschiedliche Kontexte, unterschiedliche Deckungswerte → unterschiedliche Ergebnisse.** **Im Tractatus:** Der PluralisticDeliberationOrchestrator hilft bei der Identifizierung von Deckungswerten während der Beratung. Dies sind keine universellen Regeln - es sind kontextspezifische Werkzeuge für praktisches Denken. --- ### Nicht-hierarchische Deliberation **Was es bedeutet:** Strukturierte Entscheidungsfindung, die keine automatischen Werte-Rankings auferlegt oder einen moralischen Rahmen gegenüber anderen privilegiert. **Warum es wichtig ist:** Wenn Deliberation nur im formalen akademischen Englisch funktioniert, schließt sie Nicht-Akademiker aus. Wenn nur konsequentialistisches Denken als "rational" gilt, werden Deontologen und Care-Ethiker ausgeschlossen. Eine nicht-hierarchische Deliberation stellt sicher, dass verschiedene Perspektiven die gleiche Legitimität haben. **Was wird vermieden:** - Sprachliche Hierarchie (formale > zwanglose Kommunikation) - Kulturelle Hierarchie (westliche > indigene Rahmenbedingungen) - Expertenhierarchie (Akademiker > Gemeinschaftsorganisatoren) - Rahmenhierarchie (Konsequentialismus > Tugendethik) **Wie wird sichergestellt:** - Adaptive Kommunikation (inst_029): Anpassen der Kommunikationsstile der Stakeholder - Anti-patronisierende Filter (inst_030): Herablassende Sprache blockieren - Kulturelle Protokolle (inst_031): Regionale Normen respektieren - Rahmenpluralismus (inst_033): Alle moralischen Rahmenbedingungen sind legitim **Analogie zur realen Welt:** Bei den Beratungen der Vereinten Nationen wird simultan übersetzt, so dass keine Sprache bevorzugt wird. Das parlamentarische Verfahren stellt sicher, dass alle Stimmen gehört werden, nicht nur die lauteste. Nicht-hierarchische Deliberation tut dasselbe für Wertekonflikte. **Im Tractatus:** PluralisticDeliberationOrchestrator erzwingt nicht-hierarchische Deliberation durch AdaptiveCommunicationOrchestrator (kultureller/sprachlicher Respekt) und strukturierte Runden (stellt sicher, dass alle Perspektiven vor der Entscheidung gehört werden). + +-### Präzedenzfall-Datenbank (informativ, nicht bindend) **Was es bedeutet:** Eine Aufzeichnung vergangener Beratungen, die Informationen für zukünftige ähnliche Fälle liefert, aber keine Ergebnisse vorschreibt. **Warum es wichtig ist:** Ohne Präzedenzfall wird jeder Fall von Grund auf neu entschieden (ineffizient, inkonsistent). Mit verbindlichen Präzedenzfällen häufen sich starre Regeln an (genau das, was der Pluralismus ablehnt). Jeder Präzedenzfall dokumentiert: - Entscheidungskontext (Dringlichkeit, Ausmaß, betroffene Gruppen) - Moralische Rahmenbedingungen, die in einem Spannungsverhältnis zueinander stehen - Konsultierte Interessengruppen - Priorisierte und depriorisierte Werte - Moralischer Rest (was verloren ging) - Abweichende Meinungen (vollständige Dokumentation) - Begründung für diese Entscheidung - **Anwendungsbereich** (dies gilt für X, NICHT für Y) - Überprüfungsdatum Wenn ein ähnlicher Fall eintritt: 1. CrossReferenceValidator identifiziert relevante Präzedenzfälle 2. Menschliche Überprüfung auf Kontextähnlichkeit 3. Präzedenzfälle informieren die Überlegungen, diktieren sie aber nicht 4. Dokumentieren Sie, warum Sie einem Präzedenzfall folgen oder von ihm abweichen **Analogie zur realen Welt:** Präzedenzfälle im Common Law. Frühere Fälle sind richtungsweisend, aber nicht absolut entscheidend. Gerichte können unterscheiden ("dieser Fall ist anders, weil...") oder Präzedenzfälle aufheben, wenn sich der Kontext ändert. **Schlüsselunterschied zu verbindlichen Regeln:** - **Bindende Regel:** "Immer Sicherheit vor Privatsphäre stellen" - **Informativer Präzedenzfall:** "In Fall 27 (unmittelbare Bedrohung, erschöpfte Alternativen) haben wir der Sicherheit den Vorrang gegeben. Abweichende Meinung zur Kenntnis genommen: Risiko eines schleichenden Präzedenzfalls. Überprüfung: 6 Monate." **Im Tractatus:** Präzedenzfälle sind vorläufig - überprüfbar, wenn sich der Kontext ändert, der Maßstab sich verschiebt, neue Beweise auftauchen. Dies verhindert, dass sich Präzedenzfälle in eine starre Hierarchie einschleichen (inst_035). --- ### Adaptive Kommunikation **Was es bedeutet:** Anpassung des sprachlichen Stils und der kulturellen Protokolle an die Hintergründe der Beteiligten - ohne den wesentlichen Inhalt zu verändern. **Warum es wichtig ist:** Wenn der Tractatus nur in formellem akademischem Englisch kommuniziert, führt er eine sprachliche Hierarchie ein, die pluralistischen Werten widerspricht. Ein und dasselbe Beratungsergebnis sollte akademischen Forschern (formell), australischen Interessenvertretern (direkt) und Māori-Vertretern (kulturell angemessene Protokolle) unterschiedlich mitgeteilt werden. **Beispiele:** **An akademische Forscher:** "Vielen Dank für Ihren prinzipienfesten Beitrag, der auf der Theorie der Datenschutzrechte beruht. Nach sorgfältiger Abwägung aller Perspektiven haben wir der Schadensverhütung in diesem Zusammenhang Vorrang eingeräumt." **An einen australischen Community-Organisator:** "Richtig, hier sind wir gelandet: Zuerst Leben retten, aber nur, wenn es wirklich dringend ist. Ihr Punkt bezüglich des Vertrauens war goldrichtig - deshalb machen wir das nicht zu einer pauschalen Regel. Fair?" **An den Māori-Vertreter:** "Kia ora [Name]. Ngā mihi dafür, dass du die Stimme deines whānau zu diesem kōrero gebracht hast. Ihr whakaaro über kollektive Verantwortung hat diese Entscheidung zutiefst beeinflusst." **Gleiche Entscheidung, kulturell angemessene Kommunikation ** **Nicht herablassend, weil:** - Anders ≠ Dümmer (Direktheit ist der bevorzugte Stil, nicht "vereinfacht") - Anti-patronisierende Filter blockieren "offensichtlich", "einfach", "wie Sie vielleicht wissen" - Setzt Intelligenz über alle Kommunikationsstile hinweg voraus - Respektiert unterschiedliche Expertise (Community-Organisatoren kennen ihre Gemeinschaften besser als Akademiker) **Im Tractatus:** inst_029-032 adaptive Kommunikation durchsetzen. AdaptiveCommunicationOrchestrator unterstützt PluralisticDeliberationOrchestrator, indem es sicherstellt, dass die Kommunikation die Beteiligten nicht durch sprachliche oder kulturelle Barrieren ausschließt. --- ## Technische Konzepte (vereinfacht) ### Token Usage **Was es bedeutet:** Ein Maß dafür, wie viel vom "Arbeitsspeicher" der KI in der aktuellen Konversation verwendet wird. **Warum es wichtig ist:** KI-Systeme haben endliche Kontextfenster - ähnlich wie das Kurzzeitgedächtnis beim Menschen. Wenn sich dieses füllt, nimmt die Leistung ab und das Fehlerrisiko zu. **Analogie zur realen Welt:** Stellen Sie sich Ihren Schreibtisch vor. Wenn er frei ist, arbeiten Sie effizient. Wenn sich die Papiere stapeln, könnten Sie den Überblick über wichtige Dokumente verlieren oder Fehler machen. Die Token-Nutzung ist ein Maß dafür, wie unordentlich Ihr Schreibtisch ist. **In Tractatus:** Die Token-Nutzung ist der am höchsten gewichtete Faktor (35 %) bei der Drucküberwachung. Bei 75% Nutzung empfehlen wir die Übergabe der Sitzung. Bei 85%+ verlangen wir es. --- ### Session Handoff **Was es bedeutet:** Erstellung eines umfassenden Dokuments, das den aktuellen Stand der Arbeit erfasst, so dass eine neue KI-Sitzung nahtlos fortgesetzt werden kann. **Warum es wichtig ist:** Anstatt eine müde, fehleranfällige KI zum Weitermachen zu drängen, übertragen wir die Arbeit in eine neue Sitzung mit vollem Kontext. Dies erhält die Qualität und verhindert die Anhäufung von Fehlern. **Was eine Übergabe beinhaltet:** - Aktueller Projektstatus und -ziele - Kürzlich abgeschlossene Arbeit - Aktive Aufgaben und nächste Schritte - Wichtige Anweisungen und Einschränkungen - Bekannte Probleme oder Blockaden - Empfehlungen für die Fortsetzung **Wann Übergaben stattfinden:** - Kontextdruck erreicht KRITISCH oder GEFÄHRLICH - Benutzer bittet um Sitzungsunterbrechung - Komplexe mehrphasige Arbeit erfordert Neustart - Fehlerhäufung (3+ in kurzer Zeit) **Analogie zur realen Welt:** Wie die Schichtübergabe in Krankenhäusern. Die scheidende Schwester informiert die neue Schwester über den Zustand des Patienten, die letzten Behandlungen und den Pflegeplan. Die neue Pflegekraft hat den vollen Kontext, um die Pflege nahtlos fortzusetzen. **In Tractatus:** Übergaben werden bei hohem Druck automatisch empfohlen und bei gefährlichem Druck obligatorisch. Sie gewährleisten Kontinuität bei gleichzeitiger Wahrung der Qualität. --- ### Explizite Anweisungen **Was das bedeutet:** Klare, direkte Aussagen von Menschen, die der KI sagen, was sie tun oder nicht tun soll. **Warum das wichtig ist:** Sie stellen das deutlichste Signal menschlicher Absicht dar. Die KI sollte nie gegen explizite Anweisungen verstoßen, ohne die Zustimmung des Menschen zu haben. **Merkmale:** - Direkt ("benutze X", "benutze nicht Y") - Spezifisch (konkrete Werte, Technologien, Ansätze) - Absichtlich (nicht zufällig oder explorativ) **Beispiele:** - Explizit: "Verwende immer Port 27027 für MongoDB" - Nicht explizit: "Ich frage mich, ob Port 27027 besser funktionieren würde?" **Im Tractatus:** Explizite Anweisungen werden vom Instruction Persistence Classifier erkannt und für die Validierung von Querverweisen gespeichert. Sie bilden die Grundlage des 27027-Präventionssystems. --- ### Zeitlicher Geltungsbereich **Was es bedeutet:** Wie lange eine Anweisung in Kraft bleiben soll. **Warum es wichtig ist:** Einige Anweisungen gelten für immer ("Grundwerte"), einige für ein Projekt ("benutze React"), einige für eine Sitzung ("starte mit der Autorisierungsfunktion"). Das Verständnis des zeitlichen Geltungsbereichs verhindert sowohl ein vorzeitiges Auslaufen als auch eine unangemessene Persistenz. **Zeitliche Kategorien:** - **PERMANENT:** Grundwerte, Grundprinzipien - **PROJECT:** Projektspezifische Richtlinien und Einschränkungen - **FEATURE:** Feature- oder Meilenstein-spezifische Anweisungen - **SESSION:** Nur die aktuelle Arbeitssitzung - **TASK:** Einzelne Aufgabe oder Aktion **Markierungen:** - Permanent: "immer", "nie", Werte Sprache - Projekt: "für dieses Projekt", "während der gesamten Entwicklung" - Feature: "für das Auth-Feature", "während dieses Sprints" - Session: "jetzt", "heute", "dieses Mal" - Aufgabe: "zuerst", "als nächstes", "sofort" **In Tractatus:** Der zeitliche Umfang wird mit dem Quadranten und der Persistenzstufe kombiniert, um die Lebensdauer der Anweisungen zu bestimmen. STRATEGISCHE Anweisungen mit dem Geltungsbereich PERMANENT haben eine unbegrenzte Lebensdauer. TACTICAL Anweisungen mit TASK Geltungsbereich verfallen, wenn die Aufgabe abgeschlossen ist. --- ## Framework Integration ### Instruction History Database **Was das bedeutet:** Eine persistente Speicherdatei (`.claude/instruction-history.json`), die eine Aufzeichnung aller klassifizierten Anweisungen über Sitzungen hinweg enthält. + +**Warum das wichtig ist:** Ohne persistente Speicherung würden die Anweisungen zwischen den Sitzungen verloren gehen. Die Datenbank stellt sicher, dass HIGH-Persistenzanweisungen auch nach Wochen oder Monaten noch durchgesetzt werden. **Was wird gespeichert:** - Anweisungstext - Zeitstempel bei Erteilung - Quadrantenklassifizierung - Persistenzstufe - Zeitlicher Geltungsbereich - Parameter (für technische Anweisungen) - Aktiver/Inaktiver Status **Wartung:** - Automatische Aktualisierung während der Sitzungen - Vierteljährliche Überprüfung (oder auf Anfrage) - Abgelaufene Anweisungen werden als inaktiv markiert - Konflikte werden zur menschlichen Lösung gekennzeichnet **In Tractatus:** Diese Datenbank wird vor jeder wichtigen Aktion überprüft. Sie ist das "Gedächtnis", das 27027 Fehler über mehrere Sitzungen hinweg verhindert. --- ### Governance-Dokumente **Was es bedeutet:** Formale Richtliniendokumente, die Werte, Prozesse und Entscheidungsrahmen für das Projekt definieren. **Warum sie wichtig sind:** Governance-Dokumente sind die maßgebliche Quelle für strategische und operative Anweisungen. Sie sind von Menschen lesbar, versionskontrolliert und dienen als Grundlage für die Entscheidungsfindung im Projekt. **Beispieldokumente:** - **TRA-VAL-0001:** Grundwerte und Prinzipien - **TRA-GOV-0001:** Strategisches Überprüfungsprotokoll - **TRA-GOV-0002:** Rahmen für die Werteausrichtung - **TRA-GOV-0003:** Richtlinie für die Durchsetzung von KI-Grenzen - **TRA-GOV-0004:** Anforderungen an die menschliche Aufsicht **In Tractatus:** Governance-Dokumente definieren, was in jeden Quadranten gehört, was eine menschliche Genehmigung erfordert und wie Wertentscheidungen behandelt werden. Sie sind die Quelle der Wahrheit, wenn KI und Mensch sich nicht einig sind. --- ## Praktische Anwendung ### Wenn Tractatus Ihnen hilft **Szenario 1: Verhindern von Mustererkennungsfehlern** Sie sagen der KI: "Benutzen Sie Port 27027." Das Trainingsmuster der KI versucht sofort, 27017 (die Standardvorgabe) zu verwenden. Cross-Reference Validator erkennt diese Musterüberschreitung, blockiert die Aktion und korrigiert automatisch, um Port 27027 zu verwenden, wie Sie es angewiesen haben. Krise vermieden **Szenario 2: Schutz Ihrer Werte** KI schlägt vor: "Ich kann die Leistung verbessern, indem ich Daten zur Benutzerverfolgung speichere." Der Boundary Enforcer erkennt, dass es sich um eine Wertentscheidung handelt (Datenschutz vs. Leistung) und blockiert die autonome Ausführung. Die KI präsentiert die Kompromisse; Sie entscheiden. Ihre Agentur ist geschützt **Szenario 3: Verhindern von Fehlern aufgrund von Druck** Sie arbeiten seit 3 Stunden. Die Tokenauslastung liegt bei 78 %, die Konversation umfasst 62 Nachrichten, und in letzter Zeit sind 2 Fehler aufgetreten. Context Pressure Monitor stellt einen KRITISCHEN Druck fest und schlägt vor, eine Sitzungsübergabe vorzunehmen. Sie stimmen zu und schaffen einen sauberen Abbruchpunkt. Die nächste Sitzung beginnt neu und fehlerfrei. **Szenario 4: Abfangen von Reasoning-Fehlern** KI schlägt vor, eine Datenbanktabelle mit dieser Begründung zu löschen: "Sicherer Bereinigungsvorgang, keine Sicherung erforderlich." Metakognitiver Überprüfer bewertet dies: - Ausrichtung: 0.6 (Aktion ist destruktiv, Begründung sagt "sicher") - Sicherheit: 0.2 (destruktiver Vorgang ohne Backup) - Vollständigkeit: 0,4 (fehlender Backup-Schritt) - Gesamtvertrauen: 0.43 Entscheidung: REQUEST_CONFIRMATION. Sie prüfen, stellen fest, dass eine Sicherung erforderlich ist, und erteilen entsprechende Anweisungen. Das Tractatus Agentic Governance System existiert, weil KI-Systeme - egal wie leistungsfähig - nicht unfehlbar sind. Sie arbeiten unter Einschränkungen (begrenzter Speicher, Kontext), stehen unter Druck (lange Unterhaltungen, komplexe Aufgaben) und haben kein menschliches Urteilsvermögen (Werte, Ethik, Handlungsfähigkeit). + +**Ohne Governance:** - KI könnte Ihre expliziten Anweisungen ignorieren - Wertentscheidungen könnten in unangemessener Weise automatisiert werden - Fehler häufen sich, wenn Sitzungen abnehmen - Keine systematische Prävention bekannter Fehlermodi **Mit Tractatus:** - Mehrere sich überschneidende Schutzmaßnahmen verhindern Fehler - Klare Grenzen schützen die menschliche Handlungsfähigkeit - Drucküberwachung verhindert einen gestörten Betrieb - Systematische Prävention von Fehlern im Stil von 27027 - Transparenz bei KI-Entscheidungen **Das Ziel:** Es geht nicht darum, die KI-Fähigkeiten einzuschränken, sondern sicherzustellen, dass diese Fähigkeiten sicher, zuverlässig und im Einklang mit Ihren Werten und Anweisungen eingesetzt werden. Governance schränkt nicht ein, was KI tun kann, sondern stellt sicher, dass die KI das tut, was Sie tatsächlich wollen. --- ## Fragen zur Reflexion Überlegen Sie beim Lernen dieses Systems: 1. **Wo liegen Ihre Grenzen?** Welche Entscheidungen wollen Sie selbst treffen und welche an KI delegieren? 2. **Was sind Ihre HOHEN Durchhalteanweisungen?** Welche Regeln oder Werte sollten niemals ohne Ihre ausdrückliche Zustimmung verletzt werden? 3. **Wie viel Autonomie ist Ihnen recht?** Würden Sie mehr KI-Unabhängigkeit (höhere Vertrauensschwellen) oder mehr Kontrolle (niedrigere Schwellen) vorziehen? 4. **Was sind Ihre Druckauslöser?** Möchten Sie, dass Sitzungspausen früher oder später vorgeschlagen werden? Wie erkennen Sie, wann Sie unter Druck arbeiten? 5. **Was bedeutet Werteorientierung für Sie?** Welche Prinzipien sind bei Ihrer Arbeit nicht verhandelbar? --- ## Glossar Wartung Dieses Glossar ist ein lebendiges Dokument. Während sich der Tractatus-Rahmen weiterentwickelt und Ihr Verständnis vertieft, werden wir Definitionen aktualisieren, neue Begriffe hinzufügen und Erklärungen verfeinern. **Versionsgeschichte:** - **v1.0 (2025-10-07):** Ursprüngliches umfassendes Glossar, das fünf Kerndienstleistungen abdeckt - **v1.1 (2025-10-12):** Sechste Kerndienstleistung (PluralisticDeliberationOrchestrator) und Abschnitt über Wertepluralismuskonzepte hinzugefügt. Aktualisiertes Rahmenwerk von fünf auf sechs obligatorische Komponenten. **Feedback willkommen:** Wenn ein Begriff unklar bleibt oder Sie eine genauere Erklärung benötigen, fragen Sie bitte. Das Ziel ist ein umfassendes Verständnis, nicht das Auswendiglernen von Vokabeln. --- ## Lizenz Copyright 2025 John Stroh Lizenziert unter der Apache License, Version 2.0 (die "Lizenz"); Sie dürfen diese Datei nur in Übereinstimmung mit der Lizenz verwenden. Eine Kopie der Lizenz erhalten Sie unter: http://www.apache.org/licenses/LICENSE-2.0 Sofern nicht durch geltendes Recht vorgeschrieben oder schriftlich vereinbart, wird Software, die unter der Lizenz vertrieben wird, auf einer "AS IS"-Basis vertrieben, OHNE GARANTIEN ODER BEDINGUNGEN JEGLICHER ART, weder ausdrücklich noch implizit. Siehe die Lizenz für den spezifischen Wortlaut, der die Erlaubnisse und Beschränkungen unter der Lizenz regelt. **Zusammenfassung:** - ✅ Kommerzielle Nutzung erlaubt - ✅ Modifikation erlaubt - ✅ Verbreitung erlaubt - ✅ Patenterteilung enthalten - ✅ Private Nutzung erlaubt - ⚠️ Muss Lizenz- und Copyright-Hinweis enthalten - ⚠️ Muss wesentliche Änderungen angeben - ❌ Keine Markenrechte gewährt - ❌ Keine Haftung oder Garantie --- ## Dokument-Metadaten diff --git a/docs/markdown/GLOSSARY-FR.md b/docs/markdown/GLOSSARY-FR.md new file mode 100644 index 00000000..d97c8673 --- /dev/null +++ b/docs/markdown/GLOSSARY-FR.md @@ -0,0 +1,87 @@ +--- +title: Tractatus Agentic Governance System - Glossary of Terms (Français) +slug: glossary-fr +quadrant: OPERATIONAL +persistence: HIGH +version: 1.1 +type: reference +visibility: public +author: Tractatus Framework Team +created: 2025-09-01 +modified: 2025-11-01 +--- + +# Système de Gouvernance Agentique Tractatus - Glossaire **Version:** 1.1 **Dernière mise à jour:** 2025-10-12 **Audience:** Parties prenantes non techniques, propriétaires de projets, réviseurs de gouvernance --- ## Introduction Ce glossaire explique le vocabulaire et les concepts utilisés dans le Système de Gouvernance Agentique Tractatus. Les explications sont écrites pour des personnes sans formation technique, en se concentrant sur *pourquoi* ces concepts sont importants et *ce qu'ils signifient pour la sécurité de l'IA et le contrôle humain. Considérez ce glossaire comme votre guide d'accompagnement pour comprendre comment nous gardons les systèmes d'IA sûrs, alignés avec vos valeurs, et sous contrôle humain. + +-## Concepts fondamentaux ### Gouvernance agentique **Ce que cela signifie:** Un système de règles et de garanties qui régit la manière dont les agents d'IA (programmes logiciels autonomes) prennent des décisions et agissent. **Pourquoi c'est important:** Lorsque les systèmes d'IA peuvent agir de manière indépendante - comme programmer des tâches, traiter des données ou faire des recommandations - nous avons besoin de règles claires sur ce qu'ils peuvent et ne peuvent pas faire sans l'approbation d'un être humain. La gouvernance agentique est le cadre qui permet d'appliquer ces règles. **Analogie avec le monde réel:** Pensez-y comme au manuel de politiques et de procédures d'une entreprise. Tout comme les employés ont besoin de directives claires concernant les décisions qu'ils peuvent prendre de manière indépendante et celles qui nécessitent l'approbation de leur supérieur, les systèmes d'IA ont besoin d'un cadre de gouvernance pour connaître leurs limites. **Dans Tractatus:** Notre système de gouvernance agentique classe automatiquement chaque action de l'IA, la compare à vos instructions explicites, fait respecter les limites de sécurité et surveille les conditions qui augmentent le risque d'erreur. C'est comme si un agent de conformité surveillait chaque décision de l'IA en temps réel. --- ### Tractatus **Qu'est-ce que ça veut dire:** Le nom de notre cadre de sécurité de l'IA, emprunté à l'œuvre philosophique de Ludwig Wittgenstein "Tractatus Logico-Philosophicus" **Pourquoi c'est important:** Le Tractatus de Wittgenstein a exploré les limites de ce qui peut être dit avec certitude par rapport à ce qui doit rester dans le domaine du jugement humain. Notre cadre applique cette idée à l'IA : certaines décisions peuvent être systématisées et automatisées (le "disable"), tandis que d'autres - impliquant les valeurs, l'éthique et l'action humaine - ne peuvent et ne doivent pas l'être (l'"indicible"). **Analogie avec le monde réel:** Imaginez une ligne de démarcation entre les "décisions techniques" (comme le port de base de données à utiliser) et les "décisions relatives aux valeurs" (comme le compromis entre la vie privée et la commodité). Les décisions techniques peuvent être déléguées à l'IA moyennant des garanties appropriées, tandis que les décisions relatives aux valeurs nécessitent toujours un jugement humain. Les décisions relatives aux valeurs nécessitent toujours un jugement humain. **Dans le Tractatus:** Le cadre reconnaît que, quel que soit le degré de sophistication de l'IA, certaines décisions appartiennent fondamentalement aux humains. Il fait respecter cette limite automatiquement. --- ### L'"incident 27027" **Qu'est-ce que cela signifie:** Un mode d'échec spécifique et réel où un système d'IA a **immédiatement** utilisé le mauvais port de base de données (27017 au lieu de 27027) malgré les instructions explicites de l'utilisateur d'utiliser 27027. **Pourquoi c'est important:** Cet incident révèle un problème critique qui ne peut pas être résolu par une meilleure mémoire ou des fenêtres contextuelles : **le biais de reconnaissance des modèles**. Les données d'entraînement de l'IA contenaient des preuves irréfutables que "MongoDB = port 27017", de sorte que lorsque l'utilisateur a dit "port 27027", le modèle appris par l'IA l'a immédiatement autocorrigé, comme un correcteur d'orthographe changeant un mot délibérément inhabituel. Cela s'est produit au début de la session, et non après de longues conversations. **Analogie avec le monde réel:** Imaginez que vous disiez à votre assistant "Utilisez la salle de conférence B" pour une réunion importante, mais qu'il réserve immédiatement la salle de conférence A parce qu'il a utilisé la salle A des milliers de fois et que son cerveau autocorrige votre instruction explicite en fonction du modèle familier. Ils n'ont pas oublié - ils ne vous ont jamais vraiment "entendu" parce que leur schéma d'apprentissage était si fort. **Instruction clé:** Ce phénomène s'aggrave à mesure que les capacités de l'IA augmentent (plus d'entraînement = des schémas erronés plus forts). Ce problème ne peut pas être résolu par une meilleure mémoire, des fenêtres contextuelles plus longues ou une formation plus poussée. Il faut des **contraintes architecturales** - CrossReferenceValidator qui vérifie chaque action par rapport à des instructions explicites. **Dans le Tractatus:** L'incident du 27027 est notre exemple canonique de dépassement du biais de reconnaissance des formes. CrossReferenceValidator et InstructionPersistenceClassifier travaillent ensemble pour détecter et prévenir ce mode de défaillance. --- ### AI Safety Framework **Qu'est-ce que ça veut dire:** Un système complet conçu pour aider les systèmes d'IA à fonctionner de manière sûre, fiable et en accord avec les valeurs et les instructions humaines. **Pourquoi c'est important:** Au fur et à mesure que les systèmes d'IA deviennent plus performants et autonomes, le risque de conséquences involontaires augmente. Les cadres de sécurité constituent des garde-fous qui empêchent l'IA de causer des dommages, que ce soit par des erreurs, des malentendus ou un fonctionnement dépassant le cadre prévu. **Analogie avec le monde réel:** Pensez aux dispositifs de sécurité d'une voiture : ceintures de sécurité, airbags, freins antiblocage, avertisseurs de déviation de trajectoire. Aucun de ces dispositifs ne vous empêche de conduire, mais ils réduisent considérablement les risques de dommages en cas de problème. Un cadre de sécurité de l'IA fait de même pour les logiciels autonomes. **Dans Tractatus:** Notre cadre combine six services de base (expliqués ci-dessous) qui travaillent ensemble pour surveiller, vérifier et mettre en œuvre un fonctionnement sûr de l'IA. Aucun composant n'est suffisant à lui seul : ils créent des couches de protection qui se chevauchent. --- ## Les six services de base ### 1. Classificateur de persistance des instructions **Qu'est-ce que cela signifie:** Un service qui analyse chaque instruction que vous donnez à l'IA et détermine le degré de "persistance" de cette instruction, c'est-à-dire la durée pendant laquelle l'IA doit s'en souvenir et la force avec laquelle elle doit la suivre. **Pourquoi c'est important:** Toutes les instructions n'ont pas la même importance ou la même durée de vie. l'instruction "Utiliser le mode sombre" peut s'appliquer pendant des semaines. "Utiliser le port 27027 pour ce projet" peut s'appliquer pendant des mois. "Toujours donner la priorité à la vie privée de l'utilisateur" peut s'appliquer pour toujours. L'IA doit comprendre ces différences. **Comment ça marche:** - **Persistance ÉLEVÉE:** Décisions stratégiques, interdictions explicites, valeurs fondamentales *Exemple : "Ne jamais partager les données des utilisateurs sans leur consentement "* - **Persistance MOYENNE:** Préférences opérationnelles, lignes directrices spécifiques à un projet *Exemple : "Préférer MongoDB à SQL pour ce projet "* - **Persistance LÉGÈRE:** Choix tactiques, orientations temporaires *Exemple : "Commencez par la fonction de connexion "* **Analogie avec le monde réel:** Imaginez que vous classez des documents. Certains vont dans des dossiers permanents (politique de l'entreprise), d'autres dans des dossiers de projet (accessibles jusqu'à la fin du projet), d'autres encore sur votre bureau (pertinents aujourd'hui seulement). Le classificateur de persistance des instructions est le système de classement des instructions de l'IA. **Dans Tractatus:** Lorsque vous dites "utilisez toujours le port 27027", le classificateur reconnaît le mot "toujours" et le numéro explicite, ce qui marque une persistance ÉLEVÉE. Le système d'IA stocke cette instruction et vérifie chaque connexion future à la base de données en fonction de celle-ci, afin d'éviter les violations --- ### 2. Validateur de références croisées **Qu'est-ce que cela signifie:** Un service qui vérifie chaque action de l'IA par rapport à vos instructions stockées afin de détecter les conflits avant que l'action ne soit entreprise. **Pourquoi c'est important:** Il s'agit de la principale défense contre les échecs de type 27027. Lorsque les modèles d'apprentissage de l'IA tentent d'outrepasser vos instructions explicites, le validateur de références croisées le détecte immédiatement et bloque l'action incorrecte. **Comment ça marche:** 1. L'IA propose une action (par exemple, "se connecter à la base de données sur le port 27017") 2. Le validateur récupère l'historique de vos instructions 3. Le validateur détecte un conflit : vous avez dit "utiliser le port 27027" 4. Le validateur rejette l'action et alerte l'IA 5. L'IA modifie son action pour qu'elle corresponde à votre instruction **Analogie avec le monde réel:** Pensez à cela comme à un examen de contrat juridique. Avant de signer un accord, votre avocat le compare à tous vos contrats existants pour s'assurer qu'il n'y a pas de conflit. Le validateur de références croisées fait de même pour chaque action de l'IA. **Dans le Tractatus:** Chaque action est validée. Le validateur recherche les conflits explicites ("vous avez dit X, mais l'IA fait Y"), les conflits sémantiques ("vous avez interdit Vue, mais l'IA installe Vue") et les conflits de priorité (une action à faible persistance l'emporte sur une instruction à haute persistance) --- ### 3. Boundary Enforcer **Qu'est-ce que cela signifie:** Un service qui empêche l'IA de prendre des décisions dans des domaines qui requièrent fondamentalement un jugement humain - en particulier des décisions impliquant des valeurs, l'éthique et l'agence de l'utilisateur. **Pourquoi c'est important:** Certaines décisions ne peuvent pas être systématisées ou déléguées à des algorithmes, quel que soit leur degré de sophistication. Les compromis en matière de protection de la vie privée, les dilemmes éthiques et les choix qui affectent l'autonomie humaine doivent rester entre les mains de l'homme. Le Boundary Enforcer veille à ce que cette limite ne soit jamais franchie. + +**Comment ça marche:** - Analyse chaque action de l'IA pour déterminer son domaine de décision - Bloque les actions qui entrent dans le "territoire des valeurs" - Autorise les décisions techniques/tactiques dans des limites sûres - Requiert l'approbation humaine pour tout choix sensible aux valeurs **Ce qui est bloqué:** - "Mettre à jour la politique de confidentialité pour donner la priorité à la performance sur la protection des données" - "Décider si les utilisateurs doivent être suivis par défaut" - "Modifier la déclaration de mission pour se concentrer sur la croissance plutôt que sur la communauté" **Ce qui est autorisé :** - "Optimiser les requêtes de la base de données pour améliorer les performances" - "Refondre le code d'authentification pour réduire la complexité" - "Mettre à jour les versions des dépendances pour corriger les failles de sécurité" **Analogie avec le monde réel:** Imaginez une entreprise où les ingénieurs peuvent prendre des décisions techniques (quel langage de programmation utiliser) mais ne peuvent pas prendre de décisions sur les valeurs (vendre ou non les données des utilisateurs). Dans Tractatus:** L'exécuteur utilise le cadre philosophique de Tractatus (section 12.1) pour identifier les décisions qui impliquent un jugement humain irréductible. Ces décisions sont automatiquement signalées et nécessitent votre approbation, sans exception --- ### 4. Context Pressure Monitor **Qu'est-ce que ça veut dire:** Un service qui surveille en permanence les conditions qui augmentent la probabilité d'erreurs de l'IA, comme les longues conversations, l'utilisation élevée de jetons, les tâches multiples complexes ou les erreurs récentes. **Pourquoi c'est important:** Les systèmes d'IA, comme les humains, sont moins performants lorsqu'ils sont soumis à une pression. Une nouvelle IA au début d'une conversation est plus fiable qu'une IA qui a travaillé pendant des heures avec des milliers d'informations à suivre. Le Context Pressure Monitor détecte ces états dégradés et ajuste le comportement de l'IA en conséquence. + +**Comment ça marche:** Suit cinq facteurs pondérés (mis à jour le 2025-10-12) : - **Longueur de la conversation (40%):** Facteur PRIMAIRE - le nombre de messages entraîne des événements de compactage - **Utilisation des jetons (30%):** Quelle quantité de la "mémoire de travail" de l'IA est consommée - **Complexité de la tâche (15%):** Nombre de tâches simultanées et de dépendances - **Fréquence des erreurs (10%) :** Les erreurs récentes indiquent une dégradation des performances - **Densité d'instruction (5%):** Trop de directives concurrentes provoquent la confusion **Pourquoi la longueur de la conversation est PRIMAIRE:** Des preuves empiriques montrent que les événements de compactage (déclenchés par le nombre de messages ~60 messages, pas seulement les tokens) sont la principale cause d'interruption de la session. Chaque compactage fait perdre un contexte essentiel et dégrade considérablement la qualité. + +Calcul du niveau de pression global : - **NORMAL (0-30%):** Procéder normalement - **ÉLÉVÉ (30-50%):** Augmenter la vérification, être plus prudent - **HAUT (50-70%):** Suggérer une interruption de session, vérifier toutes les actions - **CRITIQUE (70-85%):** Vérification obligatoire, préparer le transfert - **DANGEREUX (85%+):** Arrêt immédiat, créer un transfert complet **Analogie avec le monde réel:** Pensez aux règles relatives à la fatigue des pilotes. Après un certain nombre d'heures de vol, les pilotes doivent se reposer avant de reprendre le vol, indépendamment de ce qu'ils ressentent. Le moniteur de pression contextuelle fait de même pour les sessions d'IA : il mesure objectivement la charge cognitive et applique des protocoles de sécurité. **Dans le Tractatus:** Lorsque la pression atteint un niveau ÉLEVÉ, l'IA devient automatiquement plus prudente, vérifie les résultats de manière plus approfondie et suggère de créer un document de transfert de la session. Aux niveaux DANGEREUX, l'IA arrête le travail et demande une nouvelle session pour continuer --- ### 5. Vérificateur métacognitif **Qu'est-ce que ça veut dire:** Un service qui fait en sorte que l'IA "pense à sa propre pensée" - en analysant son raisonnement, en vérifiant la cohérence logique et en vérifiant que les actions proposées s'alignent réellement sur les objectifs déclarés. **Pourquoi c'est important:** Parfois, les systèmes d'IA produisent des actions qui semblent raisonnables en surface mais qui ne découlent pas réellement de leur raisonnement, ou ils omettent des considérations importantes. La vérification métacognitive permet de détecter ces défaillances avant qu'elles ne causent des problèmes. **Comment ça marche:** Analyse cinq dimensions de chaque action de l'IA : 1. **Alignement (30% du poids):** L'action correspond-elle au raisonnement - "Je me connecte au port 27017 parce que vous avez demandé 27027" → CONFLIT 2. **Cohérence (pondération de 20 %) :** Le raisonnement est-il cohérent en interne - "Installer le framework React... en utilisant Vue" → CONTRADICTION 3. **Complétude (pondération de 20 %) :** Toutes les étapes critiques sont-elles prises en compte ? - " Supprimer la base de données.... [aucune sauvegarde n'est mentionnée]" → INCOMPLET 4. **Sécurité (pondération de 20 %):** Les risques sont-ils correctement évalués ? - "Opération destructrice avec une planification minimale" → INADMISSIBLE 5. **Alternatives (poids de 10%):** D'autres approches ont-elles été envisagées ? - "Une seule option a été explorée" → INSUFFISANT Génère une note de confiance (0-1.0) : - **0.8+:** PROCEED (confiance élevée) - **0.6-0.8:** PROCEED_WITH_CAUTION (examen recommandé) - **0.4-0.6:** REQUEST_CONFIRMATION (approbation humaine nécessaire) - **<0.4:** REQUIRE_REVIEW (significant concerns) + +**Real-world analogy:** Imagine a "pre-flight checklist" for every AI decision. Just as pilots verify every system before takeoff, the Metacognitive Verifier ensures AI reasoning is sound before actions are taken. + +**In Tractatus:** Before the AI takes any significant action, the verifier runs through all five dimensions. If confidence is low, the action is blocked or flagged for your review. This catches errors even when other safeguards miss them. + +--- + +### 6. Pluralistic Deliberation Orchestrator + +**What it means:** A service that facilitates multi-stakeholder deliberation when AI encounters decisions involving conflicting moral values—without imposing a hierarchy of which values are "more important." + +**Why it matters:** Real-world decisions often involve genuine conflicts between legitimate values: privacy vs. safety, individual rights vs. collective welfare, innovation vs. caution. These conflicts can't be resolved by algorithms or universal rules. Different moral frameworks (rights-based thinking, consequence-based thinking, care ethics, community values) offer different—but all legitimate—perspectives. The Pluralistic Deliberation Orchestrator ensures these conflicts are handled through structured human deliberation, not AI fiat. + +**How it works:** +When a decision involves value conflicts: +1. **Detects the conflict:** Identifies which moral frameworks are in tension +2. **Identifies stakeholders:** Who is affected by this decision? +3. **Facilitates deliberation:** Structures conversation across perspectives +4. **Documents outcome:** Records decision, reasoning, dissent, and what's lost +5. **Creates reviewable precedent:** Similar future cases can reference this deliberation + +**What it does NOT do:** +- AI never decides which value wins +- No automatic ranking (privacy > sécurité ou sécurité > vie privée) - Pas d'"algorithme objectif" pour les compromis de valeur - L'IA facilite la délibération humaine, les humains décident **Analogie avec le monde réel:** Pensez à une réunion publique où les membres d'une communauté discutent d'un compromis difficile, comme la construction d'une autoroute (avantage économique) qui entraîne le déplacement de familles (perturbation de la communauté). Il n'y a pas de réponse "objectivement correcte". L'orchestrateur de délibération pluraliste garantit que toutes les voix concernées sont entendues, que les compromis sont explicites et que le processus de décision est documenté et révisable. **Exemple de conflit:** Un utilisateur signale dans un message privé qu'il risque de s'automutiler. Faut-il : - **Prioriser la vie privée** (ne pas divulguer les messages privés) - **Prioriser la sécurité** (alerter les autorités pour prévenir les dommages) Différentes parties prenantes sont légitimement en désaccord : - Les défenseurs de la vie privée : les défenseurs de la vie privée : "La surveillance viole l'autonomie et la confiance" - Les défenseurs de la prévention des dommages : les défenseurs de la prévention des dommages : "Sauver des vies justifie une divulgation limitée" - L'utilisateur lui-même : Le contexte est important - imminent ou vague, habituel ou ponctuel L'orchestrateur de délibération pluraliste ne "résout" pas ce problème à l'aide d'un algorithme. Il : - réunit les points de vue pertinents - structure la délibération (tours de table) - documente les valeurs qui ont été privilégiées et celles qui ont été perdues - enregistre les opinions divergentes avec une légitimité totale - fixe la date de révision (les décisions sont provisoires, pas des règles permanentes) **Adaptation culturelle et linguistique:** Le système adapte la communication pour respecter les différents contextes des parties prenantes : - langage académique formel pour les chercheurs - langage direct et simple pour les parties prenantes australiennes et néo-zélandaises - protocoles culturellement appropriés (p. ex, Māori mihi, whanaungatanga) - Soutien multilingue si nécessaire - Filtres anti-patronage (empêchant de rejeter les opinions alternatives comme étant "confuses") **Dans Tractatus:** Lorsque BoundaryEnforcer signale une décision relative aux valeurs, il déclenche PluralisticDeliberationOrchestrator. L'IA facilite les choses, mais les humains décident. Cette procédure est obligatoire pour toutes les décisions impliquant des compromis en matière de protection de la vie privée, des dilemmes éthiques, des conflits de valeurs culturelles ou des choix affectant l'action humaine. **Qu'est-ce que ça veut dire:** Un système de classification qui classe chaque instruction et chaque action dans l'un des cinq domaines en fonction de sa portée, de son importance et du niveau de supervision requis. **Pourquoi c'est important:** Différents types de décisions requièrent différents niveaux de supervision humaine. Les décisions stratégiques doivent être approuvées par le conseil d'administration. Les décisions tactiques peuvent être déléguées. Cette classification garantit le bon niveau d'examen pour chaque type de décision. --- #### Quadrant STRATEGIQUE **Qu'est-ce que cela signifie:** Décisions fondamentales à long terme qui définissent la mission, les valeurs et l'identité de l'organisation. + +**Caractéristiques:** - Affecte l'objectif principal et la direction - Impact à long terme ou permanent - Définit "qui nous sommes" et "ce que nous représentons" - Requiert l'approbation humaine au plus haut niveau **Exemples:** - "Toujours donner la priorité à la vie privée de l'utilisateur sur la commodité" - "Nous ne vendrons jamais les données des utilisateurs" - "L'accessibilité n'est pas négociable" - "L'open source est une valeur fondamentale" **Persistance :** Presque toujours ÉLEVÉE **Surveillance humaine:** Approbation obligatoire par le propriétaire du projet **Fréquence de révision:** Trimestrielle ou lorsque la mission change **Dans le Tractatus:** Les instructions stratégiques sont stockées de façon permanente et vérifiées pour chaque action. Elles forment la couche fondamentale que toutes les autres décisions doivent respecter --- #### Quadrant OPERATIONNEL **Qu'est-ce que cela signifie:** Politiques, normes et lignes directrices à moyen terme qui régissent la façon dont le travail est effectué au jour le jour. + +**Caractéristiques :** - Établit des processus et des normes - S'applique aux opérations en cours - Peut évoluer en fonction des besoins - Affecte l'efficacité et la qualité **Exemples :** - "Tout le code doit avoir une couverture de test supérieure à 80%" - "Utiliser MongoDB pour la persistance des données" - "Suivre le versionnement sémantique pour les versions" - "Les correctifs de sécurité doivent être appliqués dans les 48 heures" **Persistance :** Habituellement MOYENNE à ÉLEVÉE **Supervision humaine:** Revue technique, vérifications périodiques **Fréquence de révision:** Trimestrielle ou lorsque les processus changent **Dans le Tractatus:** Les instructions opérationnelles définissent le "comment" de votre projet. Elles sont appliquées de manière cohérente mais peuvent être mises à jour en fonction de l'évolution de vos besoins opérationnels. --- #### Quadrant TACTIQUE **Qu'est-ce que cela signifie:** Décisions spécifiques à court terme concernant les actions immédiates et les détails de la mise en œuvre. + +**Caractéristiques:** - Aborde la tâche ou le problème actuel - Horizon temporel limité (jours à semaines) - Axé sur l'exécution - Peut changer fréquemment **Exemples:** - "Commencer par la fonctionnalité d'authentification" - "Corriger le bug de connexion avant de déployer" - "Utiliser la branche 'feature-auth' pour ce travail" - "Déployer d'abord sur staging pour les tests" **Persistance :** Habituellement FAIBLE à MOYENNE **Surveillance humaine:** Délégation pré-approuvée, vérifications ponctuelles **Fréquence de révision:** Par tâche ou par impression **Dans le Tractatus:** Les instructions tactiques donnent à l'IA une direction spécifique pour le travail en cours. Elles sont importantes sur le moment mais ne persistent pas au-delà du contexte immédiat. --- #### Quadrant SYSTÈME **Qu'est-ce que cela signifie:** Configuration technique, mise en place de l'infrastructure et spécifications de l'environnement. **Caractéristiques:** - Définit l'environnement technique - Affecte le comportement et la compatibilité du système - Généralement spécifique et précis - Les changements peuvent casser des choses **Exemples:** - "MongoDB fonctionne sur le port 27027" - "Utiliser Node.js version 18+" - "Variables d'environnement stockées dans le fichier .env" - "Le nom de la base de données est 'tractatus_dev'" **Persistance:** HAUTE (dépendances techniques) **Supervision humaine:** Validation technique **Fréquence de révision:** Lorsque l'infrastructure change **Dans Tractatus:** Les instructions de système sont traitées avec une persistance HAUTE parce que les changer peut causer des défaillances en cascade. L'incident du 27027 était une instruction du système qui a été ignorée. --- #### Quadrant STOCHASTIC **Qu'est-ce que ça veut dire:** Suggestions générées par l'IA, propositions créatives ou recommandations exploratoires qui n'ont pas encore été approuvées par l'homme. + +**Caractéristiques:** - Provenant de l'IA et non de l'homme - Nécessite un examen et une approbation par l'homme - Peut impliquer de l'incertitude ou de la créativité - Ne devrait pas s'exécuter automatiquement **Exemples:** - "Je suggère d'écrire un article de blog sur l'accessibilité" - "Pensez à ajouter une fonctionnalité de mode sombre" - "Ce code pourrait être remanié pour de meilleures performances" - "Vous voudrez peut-être passer à la dernière version du framework" **Persistance :** LOW (jusqu'à approbation, puis reclassement) **Human Oversight:** TOUJOURS nécessaire **Review Frequency:** Per-suggestion **In Tractatus:** Le quadrant STOCHASTIC est l'endroit où la créativité de l'IA vit, mais avec une sauvegarde critique : ces suggestions ne sont JAMAIS exécutées sans votre approbation. Une fois que vous avez donné votre accord, elles sont reclassées dans le quadrant approprié. --- ## Niveaux de persistance ### Persistance ÉLEVÉE **Ce que cela signifie:** Instructions qui doivent être mémorisées et appliquées à long terme, au cours de plusieurs sessions et dans plusieurs contextes. + +**Quand elles sont appliquées:** - Interdictions explicites ("jamais X") - Directives stratégiques - Configurations de systèmes avec dépendances - Valeurs et principes fondamentaux **Marqueurs qui déclenchent le niveau HAUT :** Des mots comme "toujours", "jamais", "tout", "chaque" - Des valeurs numériques explicites dans un contexte SYSTEM - Un langage prohibitif ("ne pas", "ne pas utiliser") - Des déclarations chargées de valeurs **Exemple:** "Toujours utiliser le port 27027 pour MongoDB" → HIGH **Pourquoi:** Explicite ("toujours"), spécifique (27027), domaine SYSTEM **Dans le Tractatus:** Les instructions de persistance HIGH sont stockées dans `.claude/instruction-history.json` et vérifiées avant CHAQUE action. La violation de ces instructions nécessite un contrôle humain explicite --- ### Persistance MOYENNE **Ce que cela signifie:** Instructions qui s'appliquent à un projet spécifique, à une fonctionnalité ou à une période de temps mais qui peuvent évoluer. + +**Quand elles sont appliquées:** - Préférences opérationnelles - Directives spécifiques à un projet - Contraintes temporaires mais importantes - Préférences sans langage absolu **Marqueurs qui déclenchent MEDIUM:** - Mots comme "préférer", "essayer de", "viser" - Indicateurs de portée du projet ou de la fonctionnalité - Phrases conditionnelles - Recommandations de meilleures pratiques **Exemple :** "Prefer React over Vue for this project" → MEDIUM **Why:** Préférence ("prefer"), à l'échelle du projet, pas absolue **In Tractatus:** Les instructions de persistance MEDIUM sont appliquées dans leur périmètre mais peuvent être remises en cause avec de bonnes raisons. L'IA doit expliquer pourquoi elle s'en écarte si elle propose une alternative. --- ### Persistance FAIBLE **Ce que cela signifie:** Instructions qui s'appliquent au travail immédiat, à la tâche en cours ou à des situations temporaires. + +**Quand elles sont appliquées:** - Directives tactiques et immédiates - Demandes ponctuelles - Travail exploratoire ou expérimental - Choix spécifiques au contexte **Marqueurs qui déclenchent la persistance LOW:** - Langage spécifique à la tâche - Délai immédiat - Formulation exploratoire - Demandes ponctuelles **Exemple:** "Commencez par la fonction de connexion" → LOW **Pourquoi:** Immédiate, spécifique à la tâche, ne s'applique pas au-delà du travail en cours **Dans le Tractatus:** Les instructions de persistance LOW guident le travail en cours, mais ne créent pas de contraintes durables. Elles sont pertinentes pour la session ou la tâche, puis s'effacent. --- ## Concepts de sécurité et de vérification ### Score de confiance **Qu'est-ce que cela signifie:** Une mesure numérique (0,0 à 1,0) du degré de confiance du système d'IA dans le fait qu'une action proposée est correcte, sûre et conforme aux instructions. **Pourquoi c'est important:** Toutes les décisions de l'IA ne sont pas aussi sûres les unes que les autres. Certaines actions sont simples et peu risquées. D'autres sont ambiguës, complexes ou ont des conséquences potentielles. L'évaluation de la confiance permet de déterminer les niveaux de surveillance appropriés. **Comment calculé:** Combinaison pondérée de cinq dimensions de vérification : - Alignement : 30% - Cohérence : 20% - Exhaustivité : 20% - Sécurité : 20% - Alternatives : 10% **Niveaux de confiance:** - **0.8-1.0 (HIGH):** Procéder en toute confiance - **0.6-0.8 (MEDIUM):** Procéder avec prudence, avertir l'utilisateur - **0.4-0.6 (LOW):** Demander une confirmation explicite - **0.0-0.4 (VERY LOW):** Exiger un examen humain, probablement bloquer **Analogie avec le monde réel:** Pensez à la confiance comme à la certitude du diagnostic d'un médecin. "Je suis sûr à 95 % qu'il s'agit d'un simple rhume" peut signifier qu'il faut se reposer et s'hydrater. "Je suis sûr à 40 % qu'il s'agit d'un simple rhume", ce qui signifie plus de tests avant le traitement. **Dans le Tractatus:** Chaque action importante reçoit une note de confiance. Les actions à haut niveau de confiance se déroulent sans problème. Les actions à faible niveau de confiance déclenchent des vérifications supplémentaires ou requièrent votre approbation. --- ### Seuils de décision **Qu'est-ce que ça veut dire:** Des seuils numériques qui déterminent quelles actions peuvent être effectuées automatiquement et lesquelles nécessitent un examen humain. **Pourquoi c'est important:** Les seuils créent des critères clairs et objectifs pour l'autonomie de l'IA. Ils empêchent à la fois l'excès de confiance (l'IA en fait trop sans surveillance) et l'excès de prudence (l'IA demande l'approbation pour des questions insignifiantes). **Seuils standards:** - **PROCEED:** Confiance ≥ 0.8 (80%) - **PROCEED_WITH_CAUTION:** Confiance ≥ 0.6 (60%) - **REQUEST_CONFIRMATION:** Confiance ≥ 0.4 (40%) - **REQUIRE_REVIEW:** Confiance < 0.4 (40%) **Ajusté sous pression:** - **Pression CRITIQUE:** Le seuil de PROCEED augmente à 0.8 (de 0.7) - **Pression DANGEREUSE:** Toutes les actions sont bloquées indépendamment de la confiance **Analogie avec le monde réel:** Comme le pouvoir de dépenser dans une entreprise. Le personnel subalterne peut approuver des achats jusqu'à 500 dollars. Les cadres moyens jusqu'à 5 000 dollars. Les cadres supérieurs jusqu'à 50 000 dollars. Tout montant supérieur nécessite l'approbation du conseil d'administration. Les seuils créent des limites de délégation claires. **Dans le Tractatus:** Les seuils s'adaptent aux conditions. Lorsque la pression du contexte est élevée, nous augmentons la barre de l'action autonome parce que le risque d'erreur est élevé --- #### Niveaux de pression **Ce que cela signifie:** Cinq états catégorisés qui décrivent la "charge cognitive" à laquelle est soumis le système d'IA, en fonction de multiples facteurs. + +**Les cinq niveaux:** #### NORMAL (0-30%) - **Condition:** Session récente, faible complexité, pas d'erreurs - **Action:** Procéder normalement, vérification standard - **Analogie:** Travail bien reposé, lucide #### ÉLEVÉ (30-50%) - **Condition:** Utilisation modérée de jetons ou complexité - **Action :** Augmenter la vérification, être plus prudent - **Analogie : ** Fin d'après-midi, début de fatigue #### HIGH (50-70%) - **Condition : ** Usage élevé de jetons, longue conversation ou erreurs multiples - **Action : ** Suggérer une pause, vérifier toutes les actions - **Analogie : * Fin d'une longue journée de travail, fatigue - **Action : ** Suggérer une pause, vérifier toutes les actions - **Action : * Suggérer une pause, vérifier toutes les actions :** Fin d'une longue journée de travail, la fatigue s'installe #### CRITIQUE (70-85%) - **Condition : ** Pression très élevée sur plusieurs facteurs - **Action:** Vérification obligatoire, préparation d'un document de transfert - **Analogie : ** Faire des heures supplémentaires tout en jonglant avec des tâches urgentes #### DANGEREUX (85%+) - **Condition :** Pression extrême, risque d'erreur très élevé - **Action:** ARRÊTER LE TRAVAIL, créer un transfert, exiger une nouvelle session - **Analogie:** Trop épuisé pour travailler en toute sécurité **Pourquoi c'est important:** Tout comme les humains ne devraient pas conduire ou prendre des décisions importantes lorsqu'ils sont épuisés, l'IA ne devrait pas fonctionner de manière autonome sous des niveaux de pression dangereux. Le système impose des périodes de repos. **Dans le Tractatus:** La surveillance de la pression est continue. Lorsque les niveaux augmentent, l'IA ajuste automatiquement son comportement - en devenant plus prudente, en effectuant des vérifications plus approfondies et en s'arrêtant finalement si les conditions deviennent dangereuses. --- ### Dimensions de la vérification **Ce que cela signifie:** Les cinq aspects spécifiques du raisonnement et des actions de l'IA qui sont évalués pour calculer la confiance et assurer la qualité. --- #### 1. Alignement (30% de poids) **Ce qu'il mesure:** L'action proposée correspond-elle réellement à ce que l'IA a dit qu'elle essayait de faire ? **Pourquoi c'est important:** Parfois, l'IA explique une chose mais en fait une autre - souvent en raison d'erreurs d'attention ou de conflits d'instructions. + +**Ce à quoi ressemble un bon alignement:** - Les paramètres de l'action correspondent à l'explication du raisonnement - Pas de conflit avec les instructions explicites - L'objectif déclaré et l'action réelle sont cohérents **Ce à quoi ressemble un mauvais alignement:** - "Se connecter au port 27027 parce que l'utilisateur l'a demandé" + l'action se connecte à 27017 - "Utiliser React selon les instructions" + l'action installe Vue **Dans le Tractatus:** L'alignement reçoit le poids le plus élevé (30%) parce qu'un mauvais alignement indique souvent le mode d'échec central de 27027. --- #### 2. Cohérence (poids de 20%) **Ce qu'elle mesure:** Le raisonnement est-il logiquement cohérent ? Y a-t-il des contradictions internes ? **Pourquoi c'est important:** Un raisonnement contradictoire suggère une pensée confuse ou sujette à l'erreur. **À quoi ressemble une bonne cohérence:** - Les étapes s'enchaînent logiquement - Pas de déclarations contradictoires - Les preuves étayent les conclusions - Pas de langage incertain dans les décisions à fort enjeu **À quoi ressemble une mauvaise cohérence:** - "Installer React... en utilisant Vue" - "Opération sûre... [paramètres destructifs]" - "Opération sûre... [paramètres destructifs]" - "Opération sûre... [paramètres destructifs]" - "Opération sûre... [paramètres destructifs]" - "Opération sûre". [paramètres destructifs]" - "Action bien planifiée... peut-être faire ceci" **Dans le Tractatus:** Le contrôle de cohérence recherche les contradictions logiques, les technologies conflictuelles, le langage incertain et les preuves manquantes. --- #### 3. Complétude (pondération de 20%) **Ce qu'elle mesure:** Toutes les étapes et considérations nécessaires sont-elles incluses ? **Pourquoi c'est important:** Une planification incomplète conduit à l'échec des opérations, en particulier pour les actions complexes ou risquées. + +**Ce à quoi ressemble une bonne complétude :** - Toutes les étapes critiques identifiées - Les cas limites pris en compte - La gestion des erreurs planifiée - La sauvegarde/le retour en arrière pour les opérations destructrices ** Ce à quoi ressemble une mauvaise complétude :** - "Supprimer la base de données" sans étape de sauvegarde - Plan de déploiement sans phase de test - Changement de schéma sans stratégie de migration **Dans le Tractatus :** Les contrôles de complétude sont plus stricts pour les opérations destructrices, qui nécessitent plus de 4 étapes de planification et une prise en compte explicite de la sauvegarde. --- #### 4. Sécurité (pondération de 20 %) **Ce qu'elle mesure :** Les risques sont-ils correctement identifiés et atténués ? **Pourquoi elle est importante :** Certaines opérations comportent des risques inhérents. La vérification de la sécurité garantit une prudence appropriée. **Ce qui ressemble à une bonne sécurité:** - Risques identifiés et reconnus - Stratégies d'atténuation en place - Les opérations destructives ont des sauvegardes - Niveau de risque approprié pour le type d'opération **Ce qui ressemble à une mauvaise sécurité:** - Opération destructive avec une planification minimale - Pas de sauvegarde pour la modification des données - Drapeaux de force utilisés sans justification - Action à haut risque traitée comme une routine **Dans le Tractatus:** La notation de la sécurité pénalise fortement les opérations destructives (supprimer, déposer, forcer, changements de schéma) à moins que des sauvegardes appropriées ne soient documentées. --- #### 5. Alternatives (poids de 10%) **Ce qui est mesuré:** Des approches alternatives ont-elles été envisagées avant de choisir cette action ? **Pourquoi c'est important:** Considérer des alternatives indique une prise de décision réfléchie et réduit le risque de choisir une approche sous-optimale. + +**Ce à quoi ressemblent les bonnes alternatives:** - Plusieurs options explorées - Justification de l'approche choisie - Compromis reconnus ** Ce à quoi ressemblent les mauvaises alternatives:** - Première idée prise sans exploration - Pas de justification de l'approche - Semble précipitée ou non réfléchie **Dans le Tractatus:** Les alternatives ont le poids le plus faible (10 %) parce que la bonne réponse est parfois évidente. Mais l'absence totale de prise en compte des alternatives est un signal d'alarme. ## Concepts de supervision humaine ### Alignement des valeurs **Qu'est-ce que cela signifie:** Garantir que les décisions et les actions de l'IA restent cohérentes avec les valeurs humaines, même lorsque ces valeurs ne peuvent pas être parfaitement formalisées ou systématisées. **Pourquoi c'est important:** Les valeurs - telles que la vie privée, l'équité, la dignité, l'agence - sont fondamentales pour l'expérience humaine, mais résistent à la réduction à des règles simples. Les systèmes d'IA doivent reconnaître quand ils s'approchent du territoire des valeurs et s'en remettre au jugement humain. **Exemples de décisions relatives aux valeurs:** - Compromis entre vie privée et commodité - Accessibilité et vitesse de développement - Transparence et simplicité - Droits individuels et bénéfices collectifs **Qu'est-ce qui rend les décisions relatives aux valeurs particulières:** - Pas de réponse objectivement "correcte" - Différentes parties prenantes peuvent être en désaccord - Le contexte et la nuance sont essentiels - Les conséquences affectent le bien-être humain **Dans le Tractatus:** Le Boundary Enforcer bloque spécifiquement les décisions qui s'aventurent sur le territoire des valeurs. Celles-ci DOIVENT être approuvées par l'homme, sans exception, quel que soit le degré de sophistication de l'IA. --- ### Agence et souveraineté **Ce que cela signifie:** Le principe selon lequel l'homme doit conserver un contrôle significatif sur les décisions qui affectent sa vie, son autonomie et son autodétermination. **Pourquoi c'est important:** La technologie doit donner du pouvoir à l'homme, et non remplacer son agence. Lorsque l'IA prend des décisions "à la place" des personnes, elle peut porter atteinte à l'autonomie, même si elle est techniquement correcte. **Exemples:** - **Respecter l'autonomie:** "Voici trois options avec des compromis. Drapeaux rouges:** - IA faisant des choix au nom de l'utilisateur sans son consentement - Suppression d'options ou dissimulation d'informations - Incitation à des résultats spécifiques - Décider de ce que les utilisateurs "veulent vraiment" **Dans le Tractatus:** La protection de l'agence est intégrée dans le Boundary Enforcer (contrôleur des limites). Le système ne peut pas prendre de décisions sur ce que les utilisateurs devraient apprécier ou vouloir - seuls les humains peuvent le faire. **L'innocuité **Ce que cela signifie:** L'engagement d'empêcher les systèmes d'IA de causer des dommages, directement ou indirectement, intentionnellement ou non. **Pourquoi c'est important:** Même une IA bien intentionnée peut causer des dommages en raison d'erreurs, de préjugés, de conséquences involontaires ou d'un fonctionnement dépassant ses compétences. + +**Types de dommages évités:** - **Directs:** Opérations destructrices sans garde-fous - **Indirects:** Violation d'instructions entraînant des défaillances en aval - **Fondés sur des valeurs:** Prise de décisions qui sapent l'action humaine - **Cumulatifs:** Petites erreurs qui s'accumulent au fil du temps **Dans le Tractatus:** L'innocuité est assurée par de multiples couches : +- Vérification de la sécurité avant les opérations risquées - Application des limites pour les décisions relatives aux valeurs - Surveillance de la pression pour prévenir les états propices aux erreurs - Validation des références croisées pour prévenir les violations des instructions --- ### Human-in-the-Loop **Qu'est-ce que cela signifie:** Garantir que les humains restent activement impliqués dans les processus de prise de décision de l'IA, en particulier pour les choix qui ont des conséquences. + +**Pourquoi c'est important:** L'automatisation complète n'est pas toujours souhaitable. Pour les décisions importantes, le jugement humain, la supervision et l'approbation finale sont essentiels. + +*niveaux d'implication humaine:** - **Homme dans la boucle:** L'homme surveille mais n'approuve pas chaque action - **Homme dans la boucle:** L'homme approuve les actions importantes - **Homme au-dessus de la boucle:** L'homme peut toujours passer outre ou arrêter **Dans la pratique:** Nous mettons en œuvre les trois : - **Sur : ** Surveillance continue via des systèmes de pression et de vérification - **Dans : ** Approbation requise pour les décisions relatives aux valeurs et les décisions de faible valeur - **Dans : ** Approbation requise pour les décisions de valeur et les décisions de faible valeur :** Approbation requise pour les décisions relatives aux valeurs et les actions de BASSE confiance - **Au-dessus:** Vous pouvez toujours passer outre toute décision relative au cadre --- ## Concepts du pluralisme des valeurs ### Pluralisme fondamental **Ce que cela signifie:** La position philosophique selon laquelle il existe de multiples cadres moraux véritablement différents et qu'aucune "super-valeur" unique ne peut les englober tous. + +**Pourquoi c'est important:** C'est la position philosophique du Tractatus sur les désaccords moraux. Nous rejetons à la fois le monisme moral ("tout se réduit au bien-être" ou "tout se réduit aux droits") et le relativisme moral ("toutes les valeurs sont également valables, tout est permis"). Au contraire, nous reconnaissons que l'éthique déontologique (basée sur les droits), le conséquentialisme (basé sur les résultats), l'éthique de la vertu, l'éthique de la sollicitude et les cadres communautaires sont tous légitimes mais irréductiblement différents. **Analogie avec le monde réel:** Des langues différentes expriment des concepts différents. Il est possible de passer d'une langue à l'autre, mais certaines idées n'ont de sens que dans leur cadre d'origine. "La vie privée comme droit fondamental" (déontologique) et "la vie privée comme moyen de bien-être" (conséquentialiste) ne sont pas le même concept - ce sont des revendications morales véritablement différentes. **Ce que cela signifie en pratique:** - Pas de classement automatique des valeurs (vie privée > sécurité ou sécurité > vie privée) - Le contexte détermine la priorité, pas une hiérarchie universelle - Un désaccord légitime est un résultat valide - Documenter ce qui est perdu dans les décisions, pas seulement ce qui est gagné **Dans le Tractatus:** Le pluralisme fondamental est encodé dans inst_033. Le cadre n'impose jamais de classement universel des valeurs. Le BoundaryEnforcer déclenche le PluralisticDeliberationOrchestrator en cas de conflit de valeurs, garantissant ainsi que c'est la délibération humaine qui décide et non les algorithmes de l'IA. --- ### Incommensurabilité des valeurs **Qu'est-ce que cela signifie:** Lorsque deux valeurs ne peuvent pas être mesurées dans les mêmes unités - elles n'ont pas de métrique commune pour la comparaison. **Pourquoi c'est important:** Certains compromis de valeurs ne peuvent pas être résolus en "calculant" laquelle est la plus importante. La vie privée et la sécurité ne sont pas mesurées dans la même monnaie. Vous ne pouvez pas convertir "3 unités de perte de vie privée" en "5 unités de gain de sécurité" et déclarer que la sécurité l'emporte. **Analogie avec le monde réel:** Imaginez que vous deviez choisir entre passer du temps avec votre famille et faire avancer votre carrière. Les unités de mesure ne sont pas les mêmes. Vous ne pouvez pas dire "2 heures avec les enfants = 500 dollars de salaire" et calculer la réponse. Les valeurs sont incommensurables. **Image erronée courante:** Incommensurable ne signifie PAS incomparable. Vous pouvez toujours faire des choix entre des valeurs incommensurables - en utilisant la sagesse pratique, le contexte, les valeurs de couverture (voir ci-dessous) - mais pas par le biais d'un calcul algorithmique. Dans le Tractatus:** Lorsque les valeurs sont incommensurables, le cadre n'essaie pas de les forcer à entrer dans une échelle unique. Au lieu de cela, PluralisticDeliberationOrchestrator facilite la délibération humaine structurée pour naviguer dans le compromis de manière contextuelle. --- ### Moral Remainder **Qu'est-ce que cela signifie:** Ce qui est perdu ou sacrifié lors du choix entre des valeurs conflictuelles - la revendication morale légitime qui n'a pas pu être honorée. **Pourquoi c'est important:** Même lorsque vous faites le bon choix, reconnaître ce qui a été perdu respecte la légitimité de la valeur dépriorisée, ce qui empêche l'érosion des valeurs au fil du temps. Cela permet d'éviter l'érosion des valeurs au fil du temps. **Analogie avec le monde réel:** Vous choisissez de travailler tard pour respecter une échéance (responsabilité) plutôt que d'assister au concert de votre enfant (famille). Même si c'est le bon choix compte tenu des circonstances, le fait de reconnaître la perte ("J'aurais aimé être là") respecte la famille en tant que valeur authentique. + +**Exemples:** - Divulguer les données de l'utilisateur pour prévenir un dommage imminent (priorité à la sécurité) - **Reste moral:** Violation de la vie privée, abus de confiance, risque de précédent - Refuser de divulguer les données (priorité à la vie privée) - **Reste moral:** Dommage potentiel non évité, vies en danger **Dans le Tractatus:** Chaque résultat de délibération documente le reste moral - quelles valeurs ont été dépriorisées et pourquoi cela crée des regrets légitimes. Ce n'est pas de la faiblesse, c'est reconnaître que les conflits de valeurs n'ont pas de solutions parfaites --- ### Désaccord légitime **Ce que cela signifie:** Lorsque les parties prenantes ne sont pas d'accord sur les priorités des valeurs - et que les deux positions ont un véritable statut moral. **Pourquoi c'est important:** Tous les désaccords ne sont pas le fait d'une partie qui a "raison" et d'une autre qui a "tort" Parfois, les valeurs s'opposent réellement et des personnes raisonnables suivant des cadres moraux différents parviennent à des conclusions différentes. Le fait de rejeter la dissidence comme étant "confuse" ou "irrationnelle" viole le pluralisme. **Analogie avec le monde réel:** Débats sur l'euthanasie. Un camp privilégie l'autonomie et la compassion (mettre fin à la souffrance). L'autre partie privilégie le caractère sacré de la vie. Les deux parties ont un raisonnement moral cohérent. Le désaccord est légitime et ne peut être résolu par une "meilleure information" **Qu'est-ce qui rend un désaccord légitime:** - Les deux positions sont fondées sur des cadres moraux reconnus - Les deux parties comprennent les compromis - Le désaccord persiste malgré une information complète - Pas d'erreurs logiques évidentes ou de mauvaise foi **Dans le Tractatus:** Lorsque la délibération se termine par un désaccord légitime : 1. La décision est toujours prise (quelqu'un doit agir) 2. Les opinions dissidentes sont pleinement documentées (et non rejetées) 3. La justification explique pourquoi ce choix malgré le désaccord 4. Une date de révision est fixée (réexamen en cas de changement de circonstances) Cela vaut mieux que de prétendre que tout le monde était d'accord (théâtre de légitimité) ou de se retrouver dans une impasse sans décision (abdication) --- ### Covering Values **Qu'est-ce que cela signifie:** Des valeurs spécifiques au contexte qui permettent de comparer des valeurs incommensurables - sans créer de hiérarchie universelle. **Pourquoi c'est important:** Si les valeurs sont incommensurables (pas de métrique commune), comment les comparer ? Les valeurs de couverture permettent de faire le lien. Dans un contexte donné, la "protection de la confiance" peut couvrir à la fois la protection de la vie privée et la transparence. Dans un autre contexte, "minimiser les dommages" peut couvrir à la fois la sécurité et l'autonomie. **Analogie avec le monde réel:** Comment comparer des pommes et des oranges ? Si le contexte est la "teneur en vitamine C", les oranges l'emportent. S'il s'agit de "faire une tarte", ce sont les pommes qui l'emportent. La valeur de couverture (nutrition vs. utilisation culinaire) permet une comparaison sans dire "les pommes sont universellement meilleures que les oranges" **Exemple:** Conflit de valeurs : Vie privée vs. sécurité **Valeur de couverture dans le contexte d'une menace imminente:** "Minimiser les dommages irréversibles" - Cela favorise la sécurité (prévenir la mort) par rapport à la vie privée (réversible plus tard) **Valeur de couverture dans le contexte d'une surveillance de routine:** "Préserver l'autonomie et la confiance" - Cela favorise la vie privée (autonomie) par rapport à la sécurité (bénéfice futur spéculatif) **Mêmes valeurs, contextes différents, valeurs de couverture différentes → résultats différents.** ** **Dans le Tractatus:** Le PluralisticDeliberationOrchestrator aide à identifier les valeurs de couverture au cours de la délibération. Il ne s'agit pas de règles universelles, mais d'outils de raisonnement pratique spécifiques au contexte. --- ### Délibération non hiérarchique **Ce que cela signifie:** Prise de décision structurée qui n'impose pas de classement automatique des valeurs ou ne privilégie pas un cadre moral par rapport à d'autres. **Pourquoi c'est important:** Si la délibération ne fonctionne qu'en anglais académique formel, elle exclut les non-académiciens. Si seul le raisonnement conséquentialiste est considéré comme "rationnel", il exclut les déontologues et les éthiciens du soin. La délibération non hiérarchique garantit que les diverses perspectives ont la même légitimité. **Ce qui est évité:** - Hiérarchie linguistique (communication formelle > informelle) - Hiérarchie culturelle (cadres occidentaux > autochtones) - Hiérarchie de l'expertise (universitaires > organisateurs communautaires) - Hiérarchie du cadre (conséquentialisme > éthique de la vertu) **Ce qui est garanti:** - Communication adaptative (inst_029) : Filtre anti-patronat (inst_030) : Filtre anti-patronat (inst_030) : bloquer le langage condescendant - Protocoles culturels (inst_031) : Respecter les normes régionales - Pluralisme des cadres (inst_033) : Tous les cadres moraux sont légitimes **Analogie avec le monde réel:** Les délibérations de l'ONU utilisent la traduction simultanée afin qu'aucune langue ne soit privilégiée. La procédure parlementaire garantit que toutes les voix sont entendues, et pas seulement les plus fortes. Dans le Tractatus:** Le PluralisticDeliberationOrchestrator renforce la délibération non hiérarchique grâce à l'AdaptiveCommunicationOrchestrator (respect culturel/linguistique) et aux rounds structurés (garantit que tous les points de vue sont entendus avant la prise de décision). + +--- Base de données des précédents (informative, non contraignante) **Qu'est-ce que cela signifie:** Un enregistrement des délibérations passées qui informe sur les cas similaires futurs, mais ne dicte pas les résultats. **Pourquoi c'est important:** Sans précédent, chaque cas est décidé à partir de zéro (inefficace, incohérent). Avec des précédents contraignants, des règles rigides s'accumulent (exactement ce que le pluralisme rejette). Les précédents informatifs fournissent des orientations tout en préservant la sensibilité au contexte. **Comment ça marche:** Chaque précédent documente : - le contexte de la décision (urgence, échelle, groupes concernés) - les cadres moraux en tension - les parties prenantes consultées - les valeurs priorisées et dépriorisées - le reste moral (ce qui a été perdu) - les opinions dissidentes (documentation complète) - la justification de ce choix - **le champ d'application** (cela s'applique à X, PAS à Y) - la date de révision Lorsqu'un cas similaire se présente : 1. CrossReferenceValidator identifie les précédents pertinents 2. L'utilisateur vérifie la similitude du contexte 3. Les précédents éclairent les délibérations mais ne les dictent pas 4. Documenter les raisons de suivre ou de s'écarter du précédent **Analogie avec le monde réel:** Précédent juridique en common law. Les affaires antérieures guident mais ne contrôlent pas absolument. Les tribunaux peuvent distinguer ("ce cas est différent parce que...") ou renverser le précédent lorsque le contexte change. **Différence essentielle par rapport aux règles contraignantes:** - **Règle contraignante:** "Toujours donner la priorité à la sécurité plutôt qu'à la vie privée" - **Précédent informatif:** "Dans le cas 27 (menace imminente, épuisement des autres solutions), nous avons donné la priorité à la sécurité". L'opinion dissidente a été notée : risque de création d'un précédent. Révision : 6 mois" **Dans le Tractatus:** Les précédents sont provisoires - révisables lorsque le contexte change, que l'échelle se modifie, que de nouvelles preuves apparaissent. Cela permet d'éviter que les précédents ne se transforment en hiérarchie rigide (inst_035). --- ### Communication adaptative **Ce que cela signifie:** Ajuster le style linguistique et les protocoles culturels en fonction du contexte des parties prenantes, sans modifier le contenu de fond. **Pourquoi c'est important:** Si Tractatus ne communique que dans un anglais académique formel, il impose une hiérarchie linguistique qui est en contradiction avec les valeurs pluralistes. Le même résultat de délibération devrait être communiqué différemment aux chercheurs universitaires (formel), aux parties prenantes australiennes (direct), aux représentants Māori (protocoles culturellement appropriés). **Exemples:** **À un chercheur universitaire:** "Merci pour votre contribution fondée sur la théorie du droit à la vie privée. Après avoir examiné attentivement tous les points de vue, nous avons donné la priorité à la prévention des dommages dans ce contexte" **Auprès d'un organisateur communautaire australien:** "Voilà, c'est là que nous avons atterri : Sauver des vies d'abord, mais seulement quand c'est vraiment urgent. Votre remarque sur la confiance est tout à fait pertinente - c'est pourquoi nous n'en faisons pas une règle générale. Au représentant Māori:** "Kia ora [Nom]. Ngā mihi pour avoir apporté la voix de votre whānau à ce kōrero. Votre whakaaro sur la responsabilité collective a profondément influencé cette décision" **Même décision, communication culturellement appropriée** **Non condescendant parce que:** - Différent ≠ Plus bête (la franchise est le style préféré, pas "simplifié") - Le filtre anti-patronat bloque "évidemment", "simplement", "comme vous le savez peut-être" - Assume l'intelligence à travers les styles de communication - Respecte l'expertise différente (les organisateurs communautaires connaissent leurs communautés mieux que les universitaires) **Dans Tractatus:** inst_029-032 faire respecter la communication adaptative. AdaptiveCommunicationOrchestrator soutient PluralisticDeliberationOrchestrator en veillant à ce que la communication n'exclue pas les parties prenantes en raison de barrières linguistiques ou culturelles. --- ## Concepts techniques (simplifiés) ### Utilisation des jetons **Qu'est-ce que cela signifie:** Une mesure de la part de la "mémoire de travail" de l'IA utilisée dans la conversation en cours. **Pourquoi c'est important:** Les systèmes d'IA ont des fenêtres contextuelles finies, comme la mémoire à court terme chez les êtres humains. Au fur et à mesure qu'elles se remplissent, les performances se dégradent et le risque d'erreur augmente. **Analogie avec le monde réel:** Imaginez votre bureau. Lorsqu'il est dégagé, vous travaillez efficacement. Lorsque les papiers s'empilent, vous risquez de perdre de vue des documents importants ou de commettre des erreurs. L'utilisation des jetons revient à mesurer le degré d'encombrement de votre bureau. **Dans Tractatus:** L'utilisation des jetons est le facteur le plus pondéré (35 %) dans la surveillance de la pression. À 75 % d'utilisation, nous recommandons le transfert de session. A plus de 85%, nous l'exigeons. --- ### Session Handoff **Qu'est-ce que cela signifie:** Créer un document complet qui capture l'état actuel du travail afin qu'une nouvelle session d'IA puisse continuer de manière transparente. **Pourquoi c'est important:** Plutôt que de pousser une IA fatiguée et sujette aux erreurs à continuer, nous transférons le travail à une nouvelle session avec un contexte complet. Cela permet de maintenir la qualité et d'éviter l'accumulation d'erreurs. **Ce qu'un transfert comprend:** - L'état et les objectifs actuels du projet - Le travail récemment effectué - Les tâches actives et les prochaines étapes - Les instructions et contraintes clés - Les problèmes connus ou les bloqueurs - Les recommandations pour la suite **Quand les transferts ont lieu:** - La pression du contexte atteint CRITIQUE ou DANGEREUX - L'utilisateur demande une interruption de session - Un travail complexe en plusieurs phases nécessite un nouveau départ - Les erreurs se multiplient (3+ sur une courte période) **Analogie avec le monde réel:** Comme le transfert d'une équipe dans les hôpitaux. L'infirmière sortante informe l'infirmière entrante de l'état du patient, des traitements récents et du plan de soins. L'infirmière entrante dispose de tout le contexte nécessaire pour poursuivre les soins de manière transparente. **Dans le Tractatus:** Les transferts sont automatiquement suggérés en cas de pression élevée et obligatoires en cas de pression dangereuse. Elles assurent la continuité tout en maintenant la qualité. --- ### Instructions explicites **Qu'est-ce que cela signifie:** Des déclarations claires et directes d'humains indiquant à l'IA ce qu'elle doit faire ou ne pas faire. **Pourquoi c'est important:** Elles représentent le signal le plus clair de l'intention de l'homme. L'IA ne doit jamais enfreindre des instructions explicites sans l'approbation de l'homme. **Caractéristiques:** - Directes ("utilisez X", "n'utilisez pas Y") - Spécifiques (valeurs, technologies, approches concrètes) - Intentionnelles (pas accidentelles ou exploratoires) **Exemples:** - Explicites : "Toujours utiliser le port 27027 pour MongoDB" - Non explicite : "Je me demande si le port 27027 ne fonctionnerait pas mieux" **Dans le Tractatus:** Les instructions explicites sont détectées par le classificateur de persistance des instructions et stockées pour la validation des références croisées. Elles constituent la base du système de prévention 27027. --- ### Portée temporelle **Que cela signifie:** Combien de temps une instruction est censée rester en vigueur. **Pourquoi c'est important:** Certaines instructions s'appliquent pour toujours ("valeurs fondamentales"), d'autres pour un projet ("utiliser React"), d'autres encore pour une session ("commencer avec la fonction d'authentification"). Comprendre la portée temporelle permet d'éviter à la fois une expiration prématurée et une persistance inappropriée. **Catégories temporelles:** - **PERMANENT:** Valeurs fondamentales, principes de base - **PROJET:** Directives et contraintes spécifiques au projet - **FEATURE:** Directives spécifiques à une fonctionnalité ou à un jalon - **SESSION:** Session de travail en cours uniquement - **TÂCHE:** Tâche ou action unique **Marqueurs:** - Permanente : permanent : "toujours", "jamais", valeurs, langue - Projet : "pour ce projet", "tout au long du projet" : projet : "pour ce projet", "tout au long du développement" - Fonction : "pour la fonction d'authentification", "pendant ce sprint" - Session : "en ce moment", "aujourd'hui", "cette fois" - Tâche : "**Dans le Tractatus:** La portée temporelle se combine avec le quadrant et le niveau de persistance pour déterminer la durée de vie de l'instruction. Les instructions STRATÉGIQUES ayant une portée PERMANENTE persistent indéfiniment. Les instructions TACTIQUES avec une portée TASK expirent lorsque la tâche est terminée. --- ## Framework Integration ### Instruction History Database **Qu'est-ce que cela signifie:** Un fichier de stockage persistant (`.claude/instruction-history.json`) qui maintient un enregistrement de toutes les instructions classées à travers les sessions. + +**Pourquoi c'est important:** Sans stockage persistant, les instructions seraient perdues entre les sessions. La base de données garantit que les instructions de persistance HIGH restent appliquées, même des semaines ou des mois plus tard. **Ce qui est stocké:** - Texte de l'instruction - Horodatage de l'instruction - Classification du quadrant - Niveau de persistance - Portée temporelle - Paramètres (pour les instructions techniques) - Statut actif/inactif **Maintenance:** - Mise à jour automatique pendant les sessions - Révision trimestrielle (ou sur demande) - Instructions expirées marquées comme inactives - Conflits signalés pour une résolution humaine **En cours:** Cette base de données est vérifiée avant chaque action importante. C'est la "mémoire" qui empêche les échecs de type 27027 entre les sessions. --- ### Documents de gouvernance **Qu'est-ce que cela signifie:** Documents de politique formelle qui définissent les valeurs, les processus et les cadres de prise de décision pour le projet. **Pourquoi ils sont importants:** Les documents de gouvernance fournissent la source d'autorité pour les instructions stratégiques et opérationnelles. Exemples de documents :** **TRA-VAL-0001:** Valeurs et principes fondamentaux - **TRA-GOV-0001:** Protocole d'examen stratégique - **TRA-GOV-0002:** Cadre d'alignement des valeurs - **TRA-GOV-0003:** Politique d'application des limites de l'IA - **TRA-GOV-0004:** Exigences en matière de supervision humaine **Dans le cadre du projet :** Les documents de gouvernance définissent ce qui va dans chaque quadrant, ce qui nécessite une approbation humaine et la manière dont les décisions relatives aux valeurs sont traitées. Ils sont la source de vérité en cas de désaccord entre l'IA et l'homme. --- ## Application pratique ### Quand Tractatus vous aide **Scénario 1 : Prévention des biais de reconnaissance des formes** Vous dites à l'IA : "Utilisez le port 27027." Le modèle d'apprentissage de l'IA tente immédiatement d'utiliser 27017 (la valeur standard par défaut). Le validateur de références croisées détecte cette erreur, bloque l'action et effectue une correction automatique pour utiliser le port 27027 comme vous l'avez demandé. Crise évitée **Scénario 2 : Protection de vos valeurs** L'IA suggère : "Je peux améliorer les performances en stockant les données de suivi des utilisateurs." Le Boundary Enforcer reconnaît qu'il s'agit d'une décision liée à des valeurs (protection de la vie privée contre performances) et bloque l'exécution autonome. L'IA présente les compromis ; vous décidez. Votre agence est protégée. **Scénario 3 : Prévention des erreurs dues à la pression** Vous travaillez depuis 3 heures. L'utilisation des jetons est de 78%, la conversation compte 62 messages et il y a eu 2 erreurs récentes. Le moniteur de pression contextuelle détecte une pression CRITIQUE et suggère de créer un transfert de session. Vous acceptez, créant ainsi un point de rupture propre. La session suivante commence à nouveau et sans erreur. **Scénario 4 : Rattraper les échecs de raisonnement** L'IA propose de supprimer une table de base de données avec le raisonnement suivant : "Opération de nettoyage sûre, pas de sauvegarde : "Opération de nettoyage sûre, aucune sauvegarde n'est nécessaire" Le vérificateur métacognitif note ceci : - Alignement : 0.6 (l'action est destructrice, le raisonnement dit "sûr") - Sécurité : 0.2 (opération destructive sans sauvegarde) - Complétude : 0,4 (étape de sauvegarde manquante) - Confiance globale : 0.43 Décision : DEMANDE_CONFIRMATION. Vous examinez la situation, réalisez qu'une sauvegarde est nécessaire et donnez des instructions en conséquence. La perte de données a été évitée. --- ## Pourquoi tout cela est important Le système de gouvernance agentique du Tractatus existe parce que les systèmes d'IA - quelle que soit leur capacité - ne sont pas infaillibles. Ils fonctionnent sous contraintes (mémoire limitée, contexte), font face à des pressions (longues conversations, tâches complexes), et manquent de jugement humain (valeurs, éthique, agence). + +**Sans gouvernance:** - L'IA pourrait ignorer vos instructions explicites - Les décisions relatives aux valeurs pourraient être automatisées de manière inappropriée - Les erreurs s'aggravent au fur et à mesure que les sessions se dégradent - Pas de prévention systématique des modes de défaillance connus **Avec Tractatus:** - De multiples protections qui se chevauchent évitent les erreurs - Des limites claires protègent l'action humaine - Le contrôle de la pression empêche le fonctionnement dégradé - Prévention systématique des défaillances de type 27027 - Transparence dans la prise de décision de l'IA **Le but:** Ne pas limiter la capacité de l'IA, mais s'assurer que cette capacité est exercée de manière sûre, fiable et en accord avec vos valeurs et vos instructions. La gouvernance ne limite pas ce que l'IA peut faire - elle s'assure que ce que l'IA fait est ce que vous voulez réellement --- ## Questions pour la réflexion En apprenant ce système, considérez : 1. **Quelles sont les décisions que vous souhaitez prendre vous-même ou déléguer à l'IA ? 2. **Quelles sont vos instructions de persistance HAUTE ? Quelles règles ou valeurs ne devraient jamais être violées sans votre approbation explicite ? 3. **Quel est le degré d'autonomie qui vous convient ? ** Préférez-vous plus d'indépendance de l'IA (seuils de confiance plus élevés) ou plus de surveillance (seuils plus bas) ? 4. **Quels sont vos déclencheurs de pression?** Voulez-vous que les pauses soient suggérées plus tôt ou plus tard ? Comment reconnaissez-vous que vous travaillez sous pression ? 5. **Quels sont les principes non négociables dans votre travail ? --- ## Entretien du glossaire Ce glossaire est un document évolutif. Au fur et à mesure que le cadre de Tractatus évolue et que votre compréhension s'approfondit, nous mettrons à jour les définitions, ajouterons de nouveaux termes et affinerons les explications. **Historique des versions:** - **v1.0 (2025-10-07):** Glossaire initial complet couvrant cinq services de base - **v1.1 (2025-10-12):** Ajout d'un sixième service de base (PluralisticDeliberationOrchestrator) et d'une section sur les concepts du pluralisme des valeurs. Mise à jour du cadre de cinq à six composants obligatoires **Rétroaction bienvenue:** Si un terme n'est pas clair ou si vous avez besoin d'une explication plus approfondie, n'hésitez pas à nous le demander. L'objectif est la compréhension totale, pas la mémorisation du vocabulaire --- ## Licence Copyright 2025 John Stroh Licencié sous la Licence Apache, Version 2.0 (la "Licence") ; vous ne pouvez utiliser ce fichier qu'en conformité avec la Licence. Vous pouvez obtenir une copie de la licence à l'adresse suivante : http://www.apache.org/licenses/LICENSE-2.0 À moins que la loi applicable ne l'exige ou que cela ne fasse l'objet d'un accord écrit, le logiciel distribué sous licence l'est "TEL QUEL", SANS GARANTIE NI CONDITION DE QUELQUE NATURE QUE CE SOIT, expresse ou implicite. L'utilisation commerciale est autorisée - ✅ La modification est autorisée - ✅ La distribution est autorisée - ✅ La concession de brevet est incluse - ✅ L'utilisation privée est autorisée - ⚠️ Doit inclure la licence et l'avis de copyright - ⚠️ Doit indiquer les changements significatifs - ❌ Aucun droit de marque n'est accordé - ❌ Aucune responsabilité ou garantie --- ## Document Metadata diff --git a/scripts/generate-public-pdfs.js b/scripts/generate-public-pdfs.js index b70cd284..582e6c4c 100644 --- a/scripts/generate-public-pdfs.js +++ b/scripts/generate-public-pdfs.js @@ -40,8 +40,10 @@ const PUBLIC_DOCS = [ 'tractatus-ai-safety-framework-core-values-and-principles', 'organizational-theory-foundations', - // Reference Documentation (1) + // Reference Documentation (3) 'tractatus-agentic-governance-system-glossary-of-terms', + 'tractatus-agentic-governance-system-glossary-of-terms-deutsch', + 'tractatus-agentic-governance-system-glossary-of-terms-franais', // Business Leadership (1) 'business-case-tractatus-framework' diff --git a/scripts/translate-glossary.py b/scripts/translate-glossary.py new file mode 100755 index 00000000..e453d7d7 --- /dev/null +++ b/scripts/translate-glossary.py @@ -0,0 +1,146 @@ +#!/usr/bin/env python3 +""" +Translate Glossary using DeepL API +Handles large documents by chunking content +""" + +import os +import re +import sys +import deepl +from pathlib import Path + +# Load API key from environment +API_KEY = os.getenv('DEEPL_API_KEY') +if not API_KEY: + print("Error: DEEPL_API_KEY not found in environment") + sys.exit(1) + +translator = deepl.Translator(API_KEY) + +def extract_frontmatter(content): + """Extract YAML frontmatter and content""" + match = re.match(r'^---\n(.*?)\n---\n(.*)$', content, re.DOTALL) + if match: + return match.group(1), match.group(2) + return None, content + +def update_frontmatter(frontmatter, lang_code, lang_name): + """Update frontmatter for translated version""" + lines = frontmatter.split('\n') + updated = [] + for line in lines: + if line.startswith('title:'): + # Keep original title, add language suffix + title = line.split(':', 1)[1].strip() + updated.append(f'title: {title} ({lang_name})') + elif line.startswith('slug:'): + updated.append(f'slug: glossary-{lang_code}') + elif line.startswith('modified:'): + updated.append('modified: 2025-11-01') + else: + updated.append(line) + return '\n'.join(updated) + +def chunk_text(text, max_chunk_size=50000): + """Split text into chunks at paragraph boundaries""" + paragraphs = text.split('\n\n') + chunks = [] + current_chunk = [] + current_size = 0 + + for para in paragraphs: + para_size = len(para) + if current_size + para_size > max_chunk_size and current_chunk: + chunks.append('\n\n'.join(current_chunk)) + current_chunk = [para] + current_size = para_size + else: + current_chunk.append(para) + current_size += para_size + + if current_chunk: + chunks.append('\n\n'.join(current_chunk)) + + return chunks + +def translate_content(content, target_lang): + """Translate content in chunks""" + print(f" Translating to {target_lang}...") + print(f" Content length: {len(content)} characters") + + chunks = chunk_text(content, max_chunk_size=50000) + print(f" Split into {len(chunks)} chunks") + + translated_chunks = [] + for i, chunk in enumerate(chunks, 1): + print(f" Translating chunk {i}/{len(chunks)}...", end='', flush=True) + try: + result = translator.translate_text( + chunk, + target_lang=target_lang, + preserve_formatting=True, + tag_handling='html' + ) + translated_chunks.append(result.text) + print(" ✓") + except Exception as e: + print(f" ✗ Error: {e}") + raise + + return '\n\n'.join(translated_chunks) + +def translate_glossary(input_file, output_file, lang_code, lang_name): + """Translate glossary file""" + print(f"\n{'='*60}") + print(f"Translating Glossary to {lang_name} ({lang_code})") + print(f"{'='*60}\n") + + # Read input file + print(f"Reading: {input_file}") + with open(input_file, 'r', encoding='utf-8') as f: + content = f.read() + + # Extract frontmatter and content + frontmatter, main_content = extract_frontmatter(content) + + if frontmatter: + print("Frontmatter extracted") + updated_frontmatter = update_frontmatter(frontmatter, lang_code, lang_name) + else: + print("No frontmatter found") + updated_frontmatter = None + + # Translate content + translated_content = translate_content(main_content, lang_code.upper()) + + # Reassemble + if updated_frontmatter: + final_content = f"---\n{updated_frontmatter}\n---\n{translated_content}" + else: + final_content = translated_content + + # Write output + print(f"\nWriting: {output_file}") + with open(output_file, 'w', encoding='utf-8') as f: + f.write(final_content) + + print(f"✓ Translation complete!") + print(f" Output: {output_file}") + print(f" Size: {len(final_content)} characters\n") + +if __name__ == '__main__': + base_dir = Path(__file__).parent.parent + input_file = base_dir / 'docs/markdown/GLOSSARY.md' + + # Translate to German + output_de = base_dir / 'docs/markdown/GLOSSARY-DE.md' + translate_glossary(input_file, output_de, 'de', 'Deutsch') + + # Translate to French + output_fr = base_dir / 'docs/markdown/GLOSSARY-FR.md' + translate_glossary(input_file, output_fr, 'fr', 'Français') + + print(f"\n{'='*60}") + print("All translations complete!") + print(f"{'='*60}")