Die philosophischen Grundlagen des Dorfprojekts

Ein Rahmen für digitale Souveränität und pluralistische KI-Governance

Meine digitale Souveränität Begrenzt Februar 2026

Tractatus AI Safety Framework

https://agenticgovernance.digital

Genaue Angaben

Das Village-Projekt stellt einen Versuch dar, strenge philosophische Grundsätze in die Architektur digitaler Gemeinschaftsplattformen und Systeme der künstlichen Intelligenz zu integrieren. Anstatt Philosophie als dekorative Rhetorik oder nachträgliche Rechtfertigung zu behandeln, bettet diese Initiative die Erkenntnisse von Isaiah Berlin über Wertepluralismus, Christopher Alexander über strukturelle Integrität und indigene Rahmen der Datensouveränität in das technische Substrat ein, wie sich Gemeinschaften organisieren und wie sich KI-Systeme verhalten. Das Ergebnis ist eine dreischichtige konstitutionelle Architektur, in der bestimmte Schutzmechanismen unveränderlich sind, ein Governance-Rahmen, in dem KI keine Wertentscheidungen automatisieren kann, und eine Trainingsmethodik, bei der die philosophische Fundierung der Entwicklung von Fähigkeiten vorausgeht. In diesem Dokument werden die intellektuellen Grundlagen, die aktuellen Herausforderungen, die diese Arbeit motivieren, und die konkreten Pläne für die Umsetzung vorgestellt.

I. Philosophische Grundlagen

Isaiah Berlin und die Pluralität der Werte

Das grundlegende philosophische Engagement dieses Projekts geht auf Isaiah Berlins Arbeit zum Wertepluralismus zurück, die er in seiner 1969 erschienenen Sammlung Four Essays on Liberty (Vier Aufsätze zur Freiheit) am ausführlichsten dargelegt hat. Berlin argumentierte, dass die wahren menschlichen Güter - Freiheit, Gleichheit, Gerechtigkeit, Barmherzigkeit, Effizienz, Solidarität - von Grund auf pluralistisch und oft nicht vergleichbar sind. Es gibt keine gemeinsame Währung, keine universelle Skala, keinen Metawert, nach dem man sie endgültig einstufen könnte. Wie die Stanford Encyclopedia of Philosophy zusammenfasst: "Wertepluralismus ist die Ansicht, dass es viele verschiedene Werte gibt, die gleichermaßen richtig und grundlegend sein können, aber miteinander in Konflikt stehen."

Die Implikationen dieser Position sind tiefgreifend und werden häufig missverstanden. Berlin vertrat nicht den Relativismus - die Behauptung, dass alle Wertesysteme gleichermaßen gültig sind oder dass Werte lediglich subjektive Präferenzen sind. Vielmehr vertrat er die Ansicht, dass echte, objektive Werte unlösbar miteinander in Konflikt geraten können. Wenn Freiheit mit Gleichheit oder Barmherzigkeit mit Gerechtigkeit kollidiert, stehen wir vor einer tragischen Entscheidung, bei der etwas von wirklichem Wert geopfert werden muss. Dies ist kein Versagen der Analyse, das durch bessere Argumentation gelöst werden könnte; es ist der menschlichen Natur inhärent.

Für die Steuerung künstlicher Intelligenz ergibt sich aus Berlins Rahmen ein entscheidender Grundsatz: KI-Systeme dürfen niemals eine Standard-Wertehierarchie annehmen. Wenn eine KI auf Effizienz optimiert, ordnet sie andere Werte - Gründlichkeit, Sorgfalt, Reflexion - implizit unter, ohne dass der Mensch diesen Kompromiss ausdrücklich genehmigt. Der Tractatus-Rahmen, der unsere KI-Systeme steuert, erkennt daher sechs irreduzibel unterschiedliche moralische Rahmen an:

Wenn diese Rahmenbedingungen miteinander in Konflikt geraten - was unweigerlich der Fall ist - löst das System die Spannung nicht auf algorithmische Weise. Es legt den Konflikt für die menschlichen Entscheidungsträger offen, indem es transparent macht, was jeder Rahmen empfehlen würde und was bei jeder Wahl verloren ginge. Das ist es, was wir als "pluralistische Deliberation" bezeichnen: die strukturierte Anerkennung, dass vernünftige Menschen, die unterschiedliche, aber legitime Werte vertreten, zu unterschiedlichen Schlussfolgerungen kommen werden, und dass diese Vielfalt ein Merkmal gesunder Gemeinschaften ist und kein Defekt, der weggezüchtet werden muss.

Berlins Unterscheidung zwischen negativer Freiheit (Freiheit von Einmischung) und positiver Freiheit (Freiheit, sich selbst zu beherrschen) ist auch für unseren Ansatz von Bedeutung. Er warnte davor, dass die positive Freiheit trotz ihrer emanzipatorischen Rhetorik Gefahren birgt, wenn sie von denjenigen ausgeübt wird, die behaupten, die "wahren" Interessen anderer besser zu kennen als sie selbst. Diese Warnung ist im Zeitalter der algorithmischen Kuratierung besonders eindringlich, wo Systeme das "Engagement" optimieren, in der Annahme, dass das, was die Aufmerksamkeit auf sich zieht, eine echte Präferenz darstellt. Unser Engagement für negative Freiheit manifestiert sich in der Weigerung, zu optimieren: Wir kuratieren keine Feeds, empfehlen keine Inhalte und steuern das Verhalten nicht in Richtung plattformdefinierter Ergebnisse.

Christopher Alexander und Strukturelle Integrität

Christopher Alexanders Arbeit über Mustersprachen und Architekturtheorie bildet den methodischen Rahmen für die Umsetzung philosophischer Grundsätze in technische Architektur. Alexander, dessen Einfluss sich von der physischen Architektur bis hin zum Softwaredesign erstreckt, vertrat die Ansicht, dass lebende Systeme besondere strukturelle Eigenschaften aufweisen, die nicht durch eine Planung von oben nach unten erreicht werden können, sondern sich aus der sorgfältigen Beachtung der Beziehung zwischen Teilen und Ganzem ergeben.

Fünf von Alexanders Grundsätzen wurden im Tractatus governance framework kodifiziert:

Tiefe Verflechtung (Regel inst_090): Die Komponenten müssen sich durch gegenseitige Validierung koordinieren, anstatt isoliert zu arbeiten. In unserer Implementierung kann kein einzelner Dienst eine Aktion allein genehmigen. Der BoundaryEnforcer validiert, dass eine Operation die Wertgrenzen respektiert; der MetacognitiveVerifier bestätigt, dass die Qualität der Argumentation den Standards entspricht; der CrossReferenceValidator gewährleistet die Konsistenz mit früheren Entscheidungen. Diese Verflechtung verhindert, dass eine einzelne Stelle umgangen wird.

Strukturerhaltende Transformation (Regel inst_091): Änderungen an einem System müssen seine wesentliche Struktur bewahren. Wenn unsere KI-Systeme aus neuen Daten lernen oder sich an neue Kontexte anpassen, dürfen sie nicht die Interpretierbarkeit von Prüfprotokollen zerstören, frühere Entscheidungen der Unternehmensführung ungültig machen oder Präzedenzfälle untergraben. Evolution findet innerhalb struktureller Beschränkungen statt.

Gradienten statt Grenzen (Regel inst_092): Lebende Systeme arbeiten mit Intensitätsgradienten und nicht mit binären Schaltern. Unsere Governance kennt daher Stufen - NORMAL, ERHÖHT, HOCH, KRITISCH, GEFÄHRLICH - mit unterschiedlichen Protokollen für jede Stufe. Dadurch wird die Sprödigkeit von Systemen vermieden, die nur "erlaubte" und "verbotene" Zustände haben.

Lebendiger Prozess (Regel inst_093): Der Rahmen entwickelt sich aus der realen betrieblichen Erfahrung und nicht aus vorgegebenen Spezifikationen. Die Governance-Regeln ergeben sich aus tatsächlichen Fehlern, dokumentierten Vorfällen und beobachteten Grenzfällen. Dies ist ein Bekenntnis zum institutionellen Lernen anstelle institutioneller Starrheit.

Ungetrenntheit (Regel inst_094): Vielleicht der wichtigste Grundsatz. Governance muss in die Architektur eingebettet sein und darf nicht nachträglich aufgeschraubt werden. Wenn ein KI-System ohne Governance-Validierung ausgeführt werden kann, ist die Governance getrennt und wird unter Druck unweigerlich umgangen. In unseren Trainingsschleifen validiert der BoundaryEnforcer jeden Stapel, bevor das Training fortgesetzt wird; Governance ist in der Schleife enthalten und kein nachträglich angewandter Filter.

Dieser letzte Grundsatz zielt auf eine anhaltende Fehlentwicklung im Bereich der KI-Sicherheit ab: die Tendenz, zuerst fähige Systeme zu entwickeln und erst später Sicherheitsmaßnahmen hinzuzufügen. Bei solchen Ansätzen wird die Sicherheit als eine Einschränkung der Leistungsfähigkeit betrachtet und nicht als ein Bestandteil des Systems selbst. Alexanders Arbeit legt nahe, dass diese Trennung nicht nur strategisch unklug, sondern auch architektonisch unsolide ist - Systemen mit aufgeschraubter Governance fehlt die strukturelle Integrität von Systemen, bei denen Governance und Funktion vereint sind.

Indigene Datensouveränität

Die dritte strukturelle Grundlage stützt sich auf indigene Rahmenwerke, die lange vor der digitalen Technologie entstanden sind, aber Fragen der Datenverwaltung, der kollektiven Rechte und der Beziehung zwischen Information und Gemeinschaft direkt ansprechen.

Te Mana Raraunga, das Maori-Netzwerk für Datensouveränität, formuliert Grundsätze, die westliche individualistische Annahmen über Dateneigentum in Frage stellen:

Diese Grundsätze werden durch die von der Global Indigenous Data Alliance entwickelten CARE-Prinzipien ergänzt: Kollektiver Nutzen, Kontrollbefugnis, Verantwortung und Ethik. Das OCAP-Rahmenwerk von First Nations Canada (Ownership, Control, Access, Possession) bietet parallele Leitlinien.

In unserer Implementierung manifestieren sich diese Rahmenbedingungen als strukturelle Garantien: Einzelne Mitglieder können sich nicht über kollektive Governance-Entscheidungen zu gemeinsamen Daten hinwegsetzen; Gemeinschaften behalten die Souveränität darüber, wie ihre kollektiven Erzählungen verarbeitet und präsentiert werden; keine Daten fließen ohne ausdrückliche kollektive Zustimmung durch etablierte Governance-Verfahren an externe Systeme.

Dies stellt eine substanzielle philosophische Verpflichtung dar, keine bloße Anerkennung. Wir erkennen an, dass indigene Gemeinschaften die Datensouveränität schon seit Generationen theoretisieren und praktizieren - lange bevor "Daten" zu einem Begriff der Technologiebranche wurden - und dass ihr Rahmenwerk ausgefeilte Antworten auf Probleme bietet, die die westliche Philosophie erst jetzt zu erkennen beginnt.

Der Tractatus: Wittgenstein und die Grenzen des Sagbaren

Der Name des Governance-Rahmens - Tractatus - ist eine bewusste Anspielung auf Ludwig Wittgensteins Tractatus Logico-Philosophicus (1921), eines der einflussreichsten philosophischen Werke des zwanzigsten Jahrhunderts. Jahrhunderts. Wittgenstein unterschied grundlegend zwischen dem, was gesagt werden kann (ausgedrückt in Sätzen, die der Logik unterliegen), und dem, was nur gezeigt werden kann (Werte, Ethik, das Mystische).

Diese Unterscheidung lässt sich direkt auf die KI-Governance übertragen. Bestimmte Entscheidungen können systematisiert und an autonome Agenten delegiert werden: technische Optimierungen, Mustervergleiche, Datenabfragen, syntaktische Transformationen. Diese gehören in den Bereich des "Sagbaren" - sie können spezifiziert, gemessen und verifiziert werden.

Andere Entscheidungen - solche, die Werte, Ethik, kulturellen Kontext und menschliches Handeln betreffen - können und dürfen grundsätzlich nicht automatisiert werden. Sie gehören zu dem, was Wittgenstein das "Unsagbare" nannte: nicht weil sie irrational oder willkürlich sind, sondern weil sie die Fähigkeit formaler Systeme übersteigen, sie zu erfassen. Der Tractatus-Rahmen setzt diese Grenze architektonisch durch, indem er sicherstellt, dass KI-Systeme nur im Bereich des Sagbaren operieren, während die menschliche Autorität über alles, was darüber hinausgeht, erhalten bleibt.

II. Das Dorf: Architektur als konkret gewordene Philosophie

Dreischichtige verfassungsrechtliche Architektur

Die Village-Plattform implementiert eine dreistufige Verfassungsarchitektur, die philosophische Grundsätze in durchsetzbare Strukturen umsetzt:

Schicht 1: Universelle Plattformprinzipien (unveränderlich)

Diese Schicht umfasst Grundsätze, die von keinem Mieter, Administrator oder Benutzer außer Kraft gesetzt werden können. Sie ist in der Systemarchitektur fest einkodiert und wird vom Tractatus-Framework durchgesetzt. Beispiele hierfür sind:

Bei diesen Grundsätzen handelt es sich nicht um Strategien, die durch Governance-Prozesse geändert werden könnten, sondern um strukturelle Zwänge, die bestimmte Verstöße architektonisch unmöglich machen.

Ebene 2: Mieterverfassungsgrundsätze (anpassbar)

Jedes Dorf (Mietergemeinschaft) definiert seine eigene Verfassung innerhalb der von Ebene 1 festgelegten Grenzen. Diese Ebene umfasst:

Diese Ebene verkörpert den Berliner Wertepluralismus in der Praxis: Verschiedene Gemeinschaften haben legitimerweise unterschiedliche Werte, und die Plattform trägt dieser Vielfalt Rechnung, anstatt Homogenität vorzuschreiben.

Ebene 3: Persönliche Präferenzen des Mitglieds (Individuum)

Die einzelnen Mitglieder konfigurieren ihre eigenen Präferenzen im Rahmen der Verfassung ihrer Gemeinschaft: Häufigkeit der Benachrichtigungen, Sprachpräferenzen, KI-Hilfsstufen, Datenschutzvorgaben für ihre eigenen Inhalte. Die Präferenzen der Schicht 3 entsprechen den Gemeinschaftsstandards der Schicht 2, die wiederum den universellen Prinzipien der Schicht 1 entsprechen.

Diese mehrschichtige Architektur gewährleistet, dass die Grundrechte geschützt werden und ein echter Pluralismus gedeiht. Eine Familiengemeinschaft kann andere Normen annehmen als eine Berufsorganisation; eine Religionsgemeinschaft kann andere Kommunikationsprotokolle festlegen als eine säkulare Gemeinschaft. Aber keine Gemeinschaft kann die grundlegenden Schutzbestimmungen verletzen, die für alle gelten.

Die Unternehmensverfassung

My Digital Sovereignty Limited, das Unternehmen, das die Village-Plattform entwickelt, arbeitet nach einer veröffentlichten Satzung, die auf sechs Grundsätzen beruht:

  1. 1. Souveränität an erster Stelle - Vollständiges Dateneigentum bedeutet vollständige Kontrolle, nicht Datenminimierung. Die Mitglieder können alle ihre Daten jederzeit exportieren. Die Löschung ist eine echte Löschung, aus Produktionssystemen, Backups und KI-Trainingsdaten.
  2. 2. Datenschutz als Standard - Datenschutz ist ein Menschenrecht, kein Premium-Feature. Die Plattform hat keinen "öffentlichen" Modus; jede Interaktion erfolgt innerhalb eines authentifizierten, auf den Mieter zugeschnittenen Kontexts. Keine Tracking-Pixel, keine seitenübergreifenden Analysen, keine Überwachungsinfrastruktur.
  3. 3. Pluralismus statt Homogenität - Die Plattform schreibt keine Werte vor. Verschiedene Gemeinschaften regieren sich selbst nach ihren eigenen Grundsätzen, innerhalb der Grenzen des universellen Schutzes.
  4. 4. Transparenz und Rechenschaftspflicht - Die Verfassung selbst ist öffentlich. KI-Systeme legen offen, welche Modelle verwendet wurden, auf welche Daten zugegriffen wurde und wie Entscheidungen getroffen wurden. Berichte über Vorfälle werden mit vollständigem Kontext veröffentlicht.
  5. 5. Sicherheit ohne Überwachung - Sicherheit und Privatsphäre sind keine gegensätzlichen Kräfte, die "ausgeglichen" werden müssen. Community-geführte Moderation ersetzt die algorithmische Kuratierung von Inhalten. Der Schutz vor Bedrohungen erfolgt an den Systemgrenzen ohne Verhaltensüberwachung der Mitglieder.
  6. 6. Nachhaltiges Geschäftsmodell - Faire Preisgestaltung auf der Grundlage von Kosten plus angemessener Marge. Keine Lockangebote, keine VC-getriebenen Wachstumszwänge, keine Exit-Strategie, die die Interessen der Mitglieder gefährden würde.

Föderation mit Integrität

Dörfer können sich mit anderen Dörfern zusammenschließen, um Inhalte auszutauschen und gemeinschaftsübergreifende Interaktionen zu ermöglichen, und zwar durch bilaterale Vereinbarungen, in denen die verfassungsrechtlichen Unterschiede ausdrücklich festgelegt werden. Eine Föderation ist nicht automatisch oder reibungslos; sie erfordert:

Dieser Ansatz betrachtet die Föderation als eine Beziehung zwischen souveränen Einheiten und nicht als eine technische Integration, die für das Wachstum optimiert werden soll. Er nimmt die Reibungen eines echten Pluralismus in Kauf, anstatt Unterschiede im Namen einer nahtlosen Benutzererfahrung zu beseitigen.

III. Das gegenwärtige Dilemma

Berlins Warnung wird wahr

Isaiah Berlin warnte, dass die positive Freiheit - die Freiheit, sein "wahres" Selbst zu verwirklichen - Gefahren birgt, wenn sie von denjenigen in Anspruch genommen wird, die sich anmaßen, die wahren Interessen der anderen besser zu kennen als sie selbst. Diese Warnung hat in der Aufmerksamkeitsökonomie ihre vollste Verwirklichung gefunden.

Moderne Plattformen optimieren das "Engagement" auf der Grundlage der Theorie, dass das, was Aufmerksamkeit erregt, eine offenkundige Präferenz darstellt. Dies verwechselt jedoch Zwang mit Wahlmöglichkeiten. Die neurologischen Mechanismen, die von algorithmischen Feeds ausgenutzt werden - variable Belohnungspläne, soziale Validierungsschleifen, Empörungsverstärkung - stellen nicht die Präferenzen eines autonomen Agenten dar, der wohlüberlegte Urteile fällt. Sie stellen die Schwachstellen eines biologischen Systems dar, die systematisch ausgenutzt werden.

Die Unternehmen, die diese Systeme betreiben, glauben wirklich, dass sie den Nutzern dienen, indem sie ihr Engagement maximieren. Das ist keine zynische Rationalisierung, sondern aufrichtige Überzeugung - und das macht sie weitaus gefährlicher als bloße Gier. Berlin hat verstanden, dass die zerstörerischsten Formen der Unfreiheit in der Sprache der Befreiung daherkommen und versprechen, den Menschen zu helfen, das zu erreichen, was sie "wirklich" wollen, indem sie sich über ihre ausdrücklichen Präferenzen hinwegsetzen.

Die Konzentration von KI-Fähigkeiten

Die Entwicklung großer Sprachmodelle hat zu einer beispiellosen Konzentration von Fähigkeiten in einer kleinen Anzahl von Organisationen geführt. Diese Systeme sind in der Lage, Texte in menschlicher Qualität zu generieren, komplexe Dokumente zu analysieren, funktionalen Code zu schreiben und weitergehende Überlegungen anzustellen. Sie werden in jeden Bereich menschlicher Aktivitäten integriert: Bildung, Gesundheitswesen, Recht, kreative Arbeit, persönliche Beziehungen.

Diese Konzentration wirft Fragen auf, die der bestehende Governance-Rahmen nicht beantworten kann:

Dies sind keine technischen Probleme, die sich technisch lösen lassen. Es sind philosophische Probleme über die Art von Wesen, die wir sein wollen, und die Art von Gesellschaft, in der wir leben wollen.

Die Erosion der epistemischen Autonomie

Am besorgniserregendsten ist vielleicht die Aushöhlung dessen, was man als epistemische Autonomie bezeichnen könnte: die Fähigkeit, sich durch eigene Überlegungen Überzeugungen zu bilden, anstatt die Schlussfolgerungen von Systemen zu akzeptieren, die man nicht versteht. Wenn ein KI-System eine Antwort liefert, können die meisten Benutzer die Überlegungen, die zu dieser Antwort geführt haben, nicht bewerten. Sie müssen auf der Grundlage von Erfolgsbilanz und Reputation vertrauen oder misstrauen - Heuristiken, die sich leicht austricksen lassen.

Dies stellt eine qualitative Veränderung in der Beziehung des Menschen zum Wissen dar. Frühere Technologien - Bücher, Bibliotheken, Suchmaschinen - erweiterten die menschliche Fähigkeit, Informationen zu finden und zu bewerten. Aktuelle KI-Systeme ersetzen diese Fähigkeit zunehmend, indem sie Schlussfolgerungen statt Beweise, Antworten statt Argumente liefern.

Die langfristige Folge könnte eine Bevölkerung sein, die nicht nur die Informationsbeschaffung, sondern auch das Urteilsvermögen selbst ausgelagert hat - fähig, Fragen zu stellen, aber die Antworten nicht zu bewerten, abhängig von Systemen, deren Abläufe sie nicht überprüfen und deren Werte sie nicht hinterfragen können.

IV. Ein philosophischer Ansatz für die KI-Entwicklung

Das Home AI-Konzept

Als Antwort auf diese Herausforderungen entwickeln wir das, was wir "Home AI" nennen - ein kleines, lokal trainiertes Sprachmodell (SLL), das unter der Kontrolle der Gemeinschaft auf benutzergesteuerter Hardware arbeitet. Die charakteristischen Merkmale sind:

Souveränität: Das Modell läuft auf Hardware, die der Gemeinschaft gehört oder von ihr kontrolliert wird. Die Trainingsdaten bleiben lokal. Es fließen keine Informationen an externe Systeme ohne ausdrückliche Zustimmung durch etablierte Governance-Verfahren.

Transparenz: Gemeinschaften können überprüfen, was das Modell über sie weiß, wie es trainiert wurde und warum es bestimmte Ergebnisse liefert. Das KI-Gedächtnis ist keine Blackbox, sondern eine überprüfbare Aufzeichnung, die der Kontrolle der Gemeinschaft unterliegt.

Philosophische Grundlegung: Das Modell wird unter ausdrücklicher Berücksichtigung der philosophischen Grundlagen entwickelt. Anstatt es nur auf seine Fähigkeiten hin zu optimieren und später Sicherheitsmaßnahmen hinzuzufügen, werden philosophische Einschränkungen bereits in den frühesten Phasen der Entwicklung berücksichtigt.

Gemeinschaftliche Verwaltung: Jede Gemeinschaft konfiguriert das Verhalten ihres KI-Assistenten nach ihren eigenen Verfassungsprinzipien. Eine Gemeinschaft, die Direktheit schätzt, konfiguriert sich für Direktheit; eine Gemeinschaft, die Sanftheit schätzt, konfiguriert sich für Sanftheit. Die Plattform stellt die Infrastruktur zur Verfügung, die Gemeinschaften liefern die Werte.

Stanford Encyclopedia of Philosophy als maßgebliche Referenz

Für philosophische Konzepte haben wir die Stanford Encyclopedia of Philosophy (SEP) als die einzige maßgebliche Referenz festgelegt. Diese Entscheidung spiegelt sowohl die Qualität der SEP-Wissenschaft als auch die Verpflichtung zu intellektueller Strenge wider, die der Versuchung widersteht, komplexe philosophische Positionen als Ressourcen zu behandeln, die man für bequeme Zitate abbauen kann.

Wenn der Trainingsprozess auf philosophische Begriffe stößt, werden Querverweise zu SEP-Einträgen gezogen. Wenn es mehrere Interpretationen gibt, hat die SEP-Analyse der Debatte den Vorrang. Wenn Benutzer philosophische Fragen stellen, basieren die Antworten auf SEP-Definitionen und nicht auf statistischen Mustern in den Trainingsdaten.

Dies ist nicht nur eine Maßnahme zur Qualitätskontrolle, sondern eine grundlegende philosophische Verpflichtung: KI-Systeme, die sich mit philosophischen Konzepten befassen, sollten dies mit der gleichen Strenge tun, die von menschlichen Wissenschaftlern erwartet wird, indem sie die Komplexität anerkennen, anstatt sie zu verflachen, und Debatten darstellen, anstatt sie vorschnell aufzulösen.

Weisheitstraditionen als Schicht-3-Anpassung

Neben den strukturellen philosophischen Grundlagen (Ebene 1) und den konstitutionellen Grundsätzen der Gemeinschaft (Ebene 2) bieten wir ein System annehmbarer Weisheitstraditionen, die Einfluss darauf haben, wie die KI-Hilfe gestaltet und geleistet wird (Ebene 3). Es ist wichtig zu verstehen, was diese Ebene tut und was nicht.

Was Ebene 3 beeinflusst: Kommunikationsstil, Formulierung, Sprachwahl, Vorschläge für das Tempo. Angenommene Traditionen prägen die Art und Weise, wie Home AI mit Ihnen kommuniziert.

Was Layer 3 nicht beeinflusst: Inhaltliche Entscheidungen, Datenzugang, Durchsetzung der Governance. Angenommene Traditionen bestimmen nicht, was das System tun darf. Sie sind Tendenzen, keine Regeln, und können in jeder spezifischen Situation außer Kraft gesetzt werden.

Dreizehn Traditionen wurden in der Stanford Encyclopedia of Philosophy mit wissenschaftlicher Bestätigung dokumentiert, darunter auch diese:

Gemeinschaften und Einzelpersonen können Traditionen übernehmen, die mit ihren Werten übereinstimmen. Diese Übernahmen haben Einfluss darauf, wie AI-Hilfe gestaltet wird - welche Erwägungen im Vordergrund stehen, welche Sprache verwendet wird, welche Optionen angeboten werden -, ohne dass die in Ebene 1 festgelegten strukturellen Schutzmaßnahmen oder die in Ebene 2 festgelegten verfassungsrechtlichen Vorschriften außer Kraft gesetzt werden.

Wenn Traditionen unterschiedliche Ansätze vorschlagen (was manchmal der Fall ist - der toskanische Gleichmut kann in Spannung zu Weils Aufmerksamkeit für das Leiden stehen), bringt das System die Spannung an die Oberfläche, anstatt sie algorithmisch aufzulösen, und lädt den Menschen zum Nachdenken darüber ein, was die Situation erfordert. Das ist der Berliner Wertepluralismus in der Praxis: legitime Werte stehen in einem echten Konflikt, und das System maßt sich nicht an, diesen Konflikt für Sie zu lösen.

In die Ausbildung eingebettete Governance

Gemäß dem Alexander-Prinzip der Untrennbarkeit betten wir die Governance in den Trainingsprozess selbst ein, anstatt sie als Post-hoc-Filter anzuwenden. Die Ausbildungsschleife umfasst:

Bei diesem Ansatz wird ein Leistungsmehraufwand in Kauf genommen - in unseren Tests etwa 5 % - im Austausch für echte Garantien. Die Alternative - uneingeschränktes Training und anschließende Filterung - führt zu Systemen, bei denen die Governance immer potenziell umgangen werden kann, immer in Spannung zur Leistungsfähigkeit steht und immer Gefahr läuft, unter Wettbewerbsdruck zu erodieren.

V. Auf dem Weg zu einer pluralistischen digitalen Souveränität

Das Village-Projekt stellt einen möglichen Ansatz für Herausforderungen dar, die keine endgültigen Lösungen zulassen. Wir erheben nicht den Anspruch, die Spannungen zwischen Leistungsfähigkeit und Sicherheit, zwischen individueller Autonomie und kollektiver Steuerung, zwischen technischer Effizienz und menschlichen Werten gelöst zu haben. Diese Spannungen sind, so wie Berlin sie versteht, wirklich tragisch: Sie zu bewältigen, erfordert Urteilsvermögen, Kompromisse und die Akzeptanz, dass immer etwas von Wert verloren gehen wird.

Was wir stattdessen anbieten, ist ein Rahmen, der diese Spannungen ernst nimmt - der sich weigert, so zu tun, als könnten sie wegoptimiert werden, der philosophische Überlegungen in die technische Architektur einbettet, der die menschliche Handlungsfähigkeit bei Entscheidungen bewahrt, die nicht automatisiert werden sollten.

Dieser Ansatz wird nicht daran gemessen, ob er ein theoretisches Optimum erreicht, sondern ob er Gemeinschaften in die Lage versetzt, sich gemäß ihrem eigenen Verständnis von Wohlstand zu entfalten - ob er die Schwachen schützt, die Vielfalt bewahrt, die Transparenz aufrechterhält und Bedingungen schafft, unter denen echte menschliche Entscheidungen möglich bleiben.

Im Zeitalter zunehmender KI-Fähigkeiten und abnehmender menschlicher Kontrolle ist dies vielleicht die wichtigste Arbeit, die es gibt.

Referenzen

Berlin, I. (1969). Four Essays on Liberty. Oxford University Press.

Alexander, C. (1977). A Pattern Language. Oxford University Press.

Alexander, C. (1979). The Timeless Way of Building. Oxford University Press.

Weil, S. (1951). Waiting for God. G.P. Putnam's Sons.

Wittgenstein, L. (1921). Tractatus Logico-Philosophicus.

Stanford Encyclopedia of Philosophy. "Value Pluralism." https://plato.stanford.edu/entries/value-pluralism/

Stanford Encyclopedia of Philosophy. "Simone Weil." https://plato.stanford.edu/entries/simone-weil/

Te Mana Raraunga. https://www.temanararaunga.maori.nz/

Global Indigenous Data Alliance. "CARE Principles." https://www.gida-global.org/care


— End of Document —


Lizenz

Copyright © 2026 John Stroh.

Dieses Werk ist lizenziert unter der Creative Commons Namensnennung 4.0 International Lizenz (CC BY 4.0).

Es steht Ihnen frei, das Material zu teilen, zu kopieren, weiterzuverbreiten, anzupassen, zu remixen, zu transformieren und darauf aufzubauen, auch kommerziell, sofern Sie eine angemessene Quellenangabe machen, einen Link zur Lizenz angeben und kenntlich machen, ob Änderungen vorgenommen wurden.

Hinweis: Der Quellcode des Tractatus AI Safety Framework ist separat unter der Apache License 2.0 lizenziert. Diese Creative-Commons-Lizenz gilt nur für den Text und die Abbildungen der Forschungsarbeit.