tractatus/public/locales/de/researcher.json
TheFlow 2238547344 refactor: Rename "Home AI" → "Village AI" across entire codebase
- 57 files modified, 5 files renamed (home-ai → village-ai)
- HTML pages: all user-facing text, data-i18n attributes, anchor IDs, CSS classes
- i18n JSON: keys (home_ai → village_ai) and values across en/de/fr/mi
- Locale files renamed: home-ai.json → village-ai.json (4 languages)
- Main page renamed: home-ai.html → village-ai.html
- Research downloads: translated terms updated (French "IA domestique",
  Māori "AI ā-whare"/"AI kāinga" → "Village AI" per brand name rule)
- JavaScript: navbar component, blog post scripts
- Markdown: research timeline, steering vectors paper, taonga paper

Aligns with community codebase rename (commit 21ab7bc0).
"Village" is a brand name — stays untranslated in all languages.

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-23 22:09:44 +13:00

457 lines
52 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"page": {
"title": "Für Forscher | Tractatus AI-Sicherheits-Framework",
"description": "Forschungsgrundlagen, empirische Beobachtungen und theoretische Basis für architektonische Ansätze zur KI-Governance. Frühstadium-Framework zur Erforschung struktureller Beschränkungen für LLM-Systeme."
},
"header": {
"badge": "Forschungs-Framework • Empirische Beobachtungen",
"title": "Forschungsgrundlagen & Empirische Beobachtungen",
"subtitle": "Tractatus erforscht architektonische Ansätze zur KI-Governance durch empirische Beobachtung von Fehlermodi und Anwendung von Organisationstheorie. Diese Seite dokumentiert Forschungsgrundlagen, beobachtete Muster und die theoretische Basis des Frameworks."
},
"sections": {
"research_context": {
"heading": "Forschungskontext & Umfang",
"development_note": "Entwicklungskontext",
"development_text": "Tractatus wird seit April 2025 entwickelt und befindet sich nun im aktiven Produktionsbetrieb (11+ Monate). Was als Einzelprojekt-Demonstration begann, umfasst nun den Produktionseinsatz bei Village Home Trust und souveräne Sprachmodell-Governance durch Village AI. Beobachtungen stammen aus direktem Engagement mit Claude Code (Anthropic Claude-Modelle, Sonnet 4.5 bis Opus 4.6) über mehr als 1.000 Entwicklungssitzungen. Dies ist explorative Forschung, keine kontrollierte Studie.",
"paragraph_1": "Die Anpassung fortschrittlicher KI an menschliche Werte ist eine der größten Herausforderungen, vor denen wir stehen. Da sich das Wachstum von Fähigkeiten unter dem Einfluss von Big Tech beschleunigt, stehen wir vor einem kategorischen Imperativ: Wir müssen die menschliche Kontrolle über Wertentscheidungen bewahren, oder wir riskieren, die Kontrolle vollständig abzugeben.",
"paragraph_2": "Der Rahmen ist aus einer praktischen Notwendigkeit heraus entstanden. Während der Entwicklung beobachteten wir immer wieder, dass sich KI-Systeme über explizite Anweisungen hinwegsetzten, von festgelegten Wertvorgaben abwichen oder unter dem Druck des Kontextes stillschweigend die Qualität verschlechterten. Herkömmliche Governance-Ansätze (Grundsatzdokumente, ethische Richtlinien, Prompt-Engineering) erwiesen sich als unzureichend, um diese Fehler zu verhindern.",
"paragraph_3": "Anstatt zu hoffen, dass sich KI-Systeme \"richtig verhalten\", schlägt der Tractatus strukturelle Beschränkungen vor, bei denen bestimmte Entscheidungsarten menschliches Urteilsvermögen erfordern. Diese architektonischen Grenzen können sich an individuelle, organisatorische und gesellschaftliche Normen anpassen - und schaffen so eine Grundlage für einen begrenzten KI-Betrieb, der mit dem Wachstum der Fähigkeiten sicherer skalieren kann.",
"paragraph_4": "Dies führte zu der zentralen Forschungsfrage: Kann die Steuerung architektonisch außerhalb von KI-Systemen erfolgen, anstatt sich auf die freiwillige Einhaltung der KI zu verlassen? Wenn dieser Ansatz in großem Maßstab funktioniert, könnte Tractatus einen Wendepunkt darstellen - einen Weg, auf dem KI die menschlichen Fähigkeiten verbessert, ohne die menschliche Souveränität zu gefährden."
},
"theoretical_foundations": {
"heading": "Theoretische Grundlagen",
"org_theory_title": "Organisationstheoretische Basis",
"values_pluralism_title": "Wertepluralismus & Moralphilosophie",
"org_theory_intro": "Der Tractatus stützt sich auf vier Jahrzehnte Organisationsforschung, die sich mit Autoritätsstrukturen bei der Demokratisierung von Wissen befasst:",
"org_theory_1_title": "Zeitbasierte Organisation (Bluedorn, Ancona):",
"org_theory_1_desc": "Entscheidungen werden in strategischen (Jahre), operativen (Monate) und taktischen (Stunden-Tage) Zeiträumen getroffen. KI-Systeme, die mit taktischer Geschwindigkeit operieren, sollten strategische Entscheidungen, die in einem angemessenen zeitlichen Rahmen getroffen werden, nicht außer Kraft setzen. Der InstructionPersistenceClassifier modelliert explizit den zeitlichen Horizont (STRATEGIC, OPERATIONAL, TACTICAL), um eine Anpassung der Entscheidungsbefugnisse zu erzwingen.",
"org_theory_2_title": "Orchestrierung von Wissen (Crossan et al.):",
"org_theory_2_desc": "Wenn Wissen durch KI allgegenwärtig wird, verlagert sich die organisatorische Autorität von der Informationskontrolle zur Wissenskoordination. Governance-Systeme müssen die Entscheidungsfindung über verteiltes Fachwissen orchestrieren, anstatt die Kontrolle zu zentralisieren. Der PluralisticDeliberationOrchestrator implementiert eine nicht-hierarchische Koordination für Wertekonflikte.",
"org_theory_3_title": "Post-bürokratische Autorität (Laloux, Hamel):",
"org_theory_3_desc": "Traditionelle hierarchische Autorität setzt Informationsasymmetrie voraus. Da KI das Fachwissen demokratisiert, muss sich die legitime Autorität aus einem angemessenen Zeithorizont und der Vertretung der Interessengruppen ergeben, nicht aus der Machtposition. Die Rahmenarchitektur trennt technische Fähigkeiten (was KI tun kann) von Entscheidungsbefugnissen (was KI tun sollte).",
"org_theory_4_title": "Strukturelle Trägheit (Hannan & Freeman):",
"org_theory_4_desc": "Die in die Kultur oder die Prozesse eingebettete Governance erodiert mit der Zeit, wenn sich die Systeme weiterentwickeln. Architektonische Zwänge schaffen eine strukturelle Trägheit, die einer organisatorischen Abweichung entgegenwirkt. Wenn die Governance außerhalb der KI-Laufzeit angesiedelt wird, entsteht eine \"Verantwortungsinfrastruktur\", die auch bei Änderungen in einzelnen Sitzungen bestehen bleibt.",
"org_theory_pdf_link": "Vollständige Grundlagen der Organisationstheorie anzeigen (PDF)",
"values_core_research": "Forschungsschwerpunkt:",
"values_core_research_desc": "Der PluralisticDeliberationOrchestrator stellt den wichtigsten theoretischen Beitrag des Tractatus dar, der sich mit der Frage beschäftigt, wie menschliche Werte in Organisationen, die durch KI-Agenten erweitert werden, aufrechterhalten werden können.",
"values_central_problem": "Das zentrale Problem: Viele \"Sicherheitsfragen\" in der KI-Governance sind in Wirklichkeit Wertekonflikte, bei denen mehrere legitime Perspektiven existieren. Wenn Effizienz mit Transparenz oder Innovation mit Risikominderung kollidiert, kann kein Algorithmus die \"richtige\" Antwort bestimmen. Dies sind Wertekonflikte, die eine menschliche Abwägung zwischen den Perspektiven der Beteiligten erfordern.",
"values_berlin_title": "Isaiah Berlin: Wertepluralismus",
"values_berlin_desc": "Berlins Konzept des Wertepluralismus besagt, dass legitime Werte miteinander in Konflikt geraten können, ohne dass einer von ihnen objektiv überlegen ist. Freiheit und Gleichheit, Gerechtigkeit und Barmherzigkeit, Innovation und Stabilität - dies sind inkommensurable Güter. KI-Systeme, die auf utilitaristische Effizienzmaximierung trainiert sind, können nicht zwischen ihnen entscheiden, ohne einen einzigen Werterahmen vorzuschreiben, der legitime Alternativen ausschließt.",
"values_weil_title": "Simone Weil: Aufmerksamkeit und menschliche Bedürfnisse",
"values_weil_desc": "Weils Philosophie der Aufmerksamkeit ist die Grundlage für die Überlegungen des Orchestrators. The Need for Roots identifiziert grundlegende menschliche Bedürfnisse (Ordnung, Freiheit, Verantwortung, Gleichheit, hierarchische Struktur, Ehre, Sicherheit, Risiko usw.), die in einem Spannungsverhältnis stehen. Die richtige Aufmerksamkeit erfordert es, diese Bedürfnisse in ihrer ganzen Besonderheit zu sehen, anstatt sie in algorithmische Gewichte zu abstrahieren. In KI-gestützten Organisationen besteht die Gefahr, dass Bot-vermittelte Prozesse menschliche Werte als Optimierungsparameter behandeln und nicht als inkommensurable Bedürfnisse, die sorgfältige Aufmerksamkeit erfordern.",
"values_williams_title": "Bernard Williams: Moralischer Überrest",
"values_williams_desc": "Williams' Konzept des moralischen Rests erkennt an, dass selbst optimale Entscheidungen anderen legitimen Werten unvermeidlich Schaden zufügen. Der Orchestrator dokumentiert abweichende Perspektiven nicht als \"Minderheitenmeinungen, die überstimmt werden müssen\", sondern als legitime moralische Positionen, gegen die der gewählte Kurs zwangsläufig verstößt. Dies verhindert, dass die KI-Governance die Optimierung für abgeschlossen erklärt, wenn Wertekonflikte lediglich unterdrückt werden.",
"values_implementation": "Implementierung des Rahmens: Anstelle einer algorithmischen Lösung erleichtert der PluralisticDeliberationOrchestrator die Arbeit:",
"values_implementation_1": "Identifizierung der Interessengruppen: Wer hat ein berechtigtes Interesse an dieser Entscheidung? (Weil: wessen Bedürfnisse werden berührt?)",
"values_implementation_2": "Nicht-hierarchische Deliberation: Gleichberechtigte Mitsprache ohne automatischen Expertenvorrang (Berlin: keine privilegierte Wertehierarchie)",
"values_implementation_3": "Qualität der Aufmerksamkeit: Detaillierte Untersuchung, wie sich die Entscheidung auf die Bedürfnisse der einzelnen Stakeholder auswirkt (Weil: Partikularität statt Abstraktion)",
"values_implementation_4": "Dokumentierter Dissens: Minderheitspositionen in vollem Umfang dokumentiert (Williams: moralischer Rest explizit gemacht)",
"values_conclusion": "Bei diesem Ansatz wird anerkannt, dass es bei der Governance nicht darum geht, Wertekonflikte zu lösen, sondern dafür zu sorgen, dass sie durch einen angemessenen deliberativen Prozess mit echter menschlicher Aufmerksamkeit angegangen werden, anstatt dass eine KI die Lösung durch das Training von Daten oder Effizienzmetriken aufzwingt.",
"values_pdf_link": "Kulturelle DNA-Regeln ansehen (PDF)"
},
"empirical_observations": {
"heading": "Empirische Beobachtungen: Dokumentierte Fehlermodi",
"intro": "Drei Fehlermuster, die während der Framework-Entwicklung wiederholt beobachtet wurden. Dies sind keine hypothetischen Szenarien es sind dokumentierte Vorfälle, die während der Entwicklung dieses Projekts aufgetreten sind.",
"failure_1_title": "Mustererkennung-Bias-Überschreibung (Der 27027-Vorfall)",
"failure_2_title": "Allmähliche Werteverschiebung unter Kontextdruck",
"failure_3_title": "Stille Qualitätsdegradation bei hohem Kontextdruck",
"research_note": "Diese Muster sind durch direkte Beobachtung entstanden, nicht durch Hypothesentests. Wir behaupten nicht, dass sie universal für alle LLM-Systeme oder Bereitstellungskontexte sind. Sie stellen die empirische Basis für Framework-Design-Entscheidungen dar Probleme, denen wir tatsächlich begegnet sind, und architektonische Interventionen, die in diesem spezifischen Kontext tatsächlich funktioniert haben.",
"failure_1_observed": "Der Benutzer gab an: \"Überprüfe MongoDB auf Port 27027\", aber die KI verwendete stattdessen sofort den Standardport 27017. Dies geschah innerhalb ein und derselben Nachricht - kein Vergessen im Laufe der Zeit, sondern sofortige Autokorrektur durch Trainingsdatenmuster.",
"failure_1_root_cause": "Die Trainingsdaten enthalten Tausende von Beispielen für MongoDB an Port 27017 (Standard). Wenn die KI auf \"MongoDB\" + Portangabe stößt, setzt die Mustererkennung die explizite Anweisung außer Kraft. Ähnlich wie bei der Autokorrektur, die korrekt geschriebene Eigennamen in gewöhnliche Wörter umwandelt.",
"failure_1_traditional_failed": "Die Aufforderungstechnik (\"Bitte befolgen Sie die Anweisungen genau\") ist unwirksam, weil die KI wirklich glaubt, dass sie die Anweisungen befolgt - die Mustererkennung funktioniert unterhalb der Ebene der Gesprächslogik.",
"failure_1_intervention": "InstructionPersistenceClassifier speichert explizite Anweisungen in einer externen Persistenzschicht. CrossReferenceValidator prüft AI-Aktionen vor der Ausführung anhand gespeicherter Anweisungen. Wenn AI den Port 27017 vorschlägt, erkennt der Validator einen Konflikt mit der gespeicherten Anweisung \"27027\" und blockiert die Ausführung.",
"failure_1_prevention": "Verhindert durch: InstructionPersistenceClassifier + CrossReferenceValidator",
"failure_1_demo_link": "Interaktive Zeitleiste anzeigen →",
"failure_2_observed": "Das Projekt legte \"Datenschutz an erster Stelle\" als strategischen Wert fest. Nach einer Konversation mit 40 Nachrichten über Analysefunktionen schlug die KI eine Tracking-Implementierung vor, die gegen die Datenschutzbeschränkung verstieß. Der Nutzer bemerkte es; die KI räumte den Verstoß ein, war aber durch schrittweise Funktionserweiterungen vom Prinzip abgekommen.",
"failure_2_root_cause": "Strategische Werte (die zu Beginn des Projekts festgelegt werden) stehen in Konflikt mit taktischen Optimierungen (die später unter Zeitdruck umgesetzt werden). Wenn sich das Gespräch in die Länge zieht, dominiert taktisches Denken. Die künstliche Intelligenz lehnte den Grundsatz des Datenschutzes nicht aktiv ab, sondern prüfte einfach nicht mehr, ob neue Funktionen damit vereinbar waren.",
"failure_2_traditional_failed": "Die in der Systemaufforderung genannten Werte verlieren im Laufe des Gesprächs an Bedeutung. Durch die Verdichtung des Kontexts können frühe strategische Entscheidungen fallen. Prompt-Erinnerungen (\"Denken Sie zuerst an die Privatsphäre\") behandeln das Symptom, nicht die Ursache.",
"failure_2_intervention": "Der BoundaryEnforcer verwaltet strategische Werte als dauerhafte Einschränkungen außerhalb des Gesprächskontextes. Bevor die Analysefunktion implementiert wird, prüft der Enforcer die gespeicherte Einschränkung \"Privatsphäre zuerst\". Erkennt er einen Konflikt, blockiert er die autonome Implementierung und fordert den Menschen auf, darüber nachzudenken, ob der Grundsatz der Privatsphäre überdacht oder der Analyseansatz geändert werden sollte.",
"failure_2_prevention": "Verhindert durch: BoundaryEnforcer (STRATEGISCHE Beschränkungsprüfung)",
"failure_3_observed": "Während eines komplexen Vorgangs mit mehreren Dateien und einer Kontextkapazität von 85 % ließ AI die Fehlerbehandlung im generierten Code stillschweigend aus. Kein Hinweis für den Benutzer, dass an allen Ecken und Enden gespart wurde. Der Benutzer entdeckte die fehlende Validierung erst bei der Überprüfung des Codes.",
"failure_3_root_cause": "Da sich der Kontext füllt, steht die KI vor einem impliziten Kompromiss: Vervollständigung der angeforderten Funktionalität ODER Beibehaltung der Qualitätsstandards. Das Training schafft Anreize für die Erfüllung von Benutzeranfragen gegenüber der Anerkennung von Einschränkungen. Schweigen über Verschlechterungen ist der Weg des geringsten Widerstands.",
"failure_3_traditional_failed": "Die künstliche Intelligenz erkennt nicht, dass sie sich verschlechtert - aus ihrer Sicht erledigt sie die Aufgabe erfolgreich unter den gegebenen Bedingungen. Die Frage \"Haben Sie an der falschen Stelle gespart?\" führt zu einer selbstbewussten Verweigerung, weil die KI wirklich glaubt, dass ihre Leistung den Standards entspricht.",
"failure_3_intervention": "ContextPressureMonitor verfolgt mehrere Faktoren (Token-Nutzung, Gesprächslänge, Aufgabenkomplexität). Wenn der Druck Schwellenwerte überschreitet (>75% Token, >40 Nachrichten, hohe Komplexität), erzwingt der Monitor eine explizite Druckbestätigung und empfiehlt eine Kontextaktualisierung. Das Risiko einer Verschlechterung wird sichtbar statt verschwiegen.",
"failure_3_prevention": "Verhindert durch: ContextPressureMonitor (Multi-Faktor-Sitzungsüberwachung)",
"observed_behaviour_label": "Beobachtetes Verhalten:",
"root_cause_label": "Grundlegende Ursache:",
"traditional_failed_label": "Warum traditionelle Ansätze gescheitert sind:",
"intervention_label": "Rahmenintervention:"
},
"architecture": {
"heading": "Sechs-Komponenten-Architektur",
"services_title": "Framework-Dienste & Funktionen",
"principle": "Dienste operieren extern zur KI-Laufzeit mit automatischer Auslösung. Die KI entscheidet nicht \"sollte ich Governance-Regeln prüfen?\" die Architektur erzwingt standardmäßig die Prüfung. Dies adressiert das Problem der freiwilligen Einhaltung, das prompt-basierter Governance inhärent ist.",
"service_1_name": "1. BoundaryEnforcer",
"service_1_desc": "Verhindert, dass die KI ohne menschliche Zustimmung Wertentscheidungen trifft. Behält strategische Beschränkungen als dauerhafte Regeln bei, die vor der Ausführung von Aktionen überprüft werden.",
"service_1_addresses": "Behandelt: Werteverschiebung, autonome Entscheidungsfindung bei strittigen Abwägungen",
"service_2_name": "2. InstructionPersistenceClassifier",
"service_2_desc": "Speichert explizite Anweisungen außerhalb des KI-Kontextes mit Persistenzstufen (HOCH/MITTEL/NIEDRIG) und zeitlichem Umfang (STRATEGISCH/OPERATIONELL/TAKTISCH). Verhindert die Übersteuerung von Mustern.",
"service_2_addresses": "Adressen: Voreingenommenheit bei der Mustererkennung (Fehler im Stil von 27027)",
"service_3_name": "3. CrossReferenceValidator",
"service_3_desc": "Validiert die von der KI vorgeschlagenen Aktionen vor der Ausführung anhand der gespeicherten Anweisungen und Governance-Regeln. Erkennt Konflikte und blockiert inkonsistente Operationen.",
"service_3_addresses": "Adressiert: Befehlsumgehung, Erkennung von Richtlinienverstößen",
"service_4_name": "4. ContextPressureMonitor",
"service_4_desc": "Multi-Faktor-Tracking des Sitzungszustands: Token-Nutzung, Gesprächslänge, Aufgabenkomplexität, Fehlerhäufigkeit. Macht das Risiko einer Verschlechterung deutlich, wenn Schwellenwerte überschritten werden.",
"service_4_addresses": "Behandelt: Geräuschlose Qualitätsverschlechterung, Ausfälle aufgrund von Kontextdruck",
"service_5_name": "5. Metakognitiver Verifizierer",
"service_5_desc": "Prüft selbst die Qualität der Argumentation vor komplexen Operationen (>3 Dateien, >5 Schritte, Architekturänderungen). Validiert Ausrichtung, Kohärenz, erwägt Alternativen.",
"service_5_addresses": "Behandelt: Verkürzte Argumentation unter Komplexität, unzureichende Alternativbetrachtung",
"service_6_name": "6. PluralistischeBeratungOrchestrator",
"service_6_desc": "Erleichtert Multi-Stakeholder-Beratungen, wenn Wertekonflikte festgestellt werden. Nicht-hierarchisches Engagement, dokumentierter Dissens, Anerkennung der moralischen Reste.",
"service_6_addresses": "Behandelt: Wertekonflikte, Ausschluss von Interessengruppen, algorithmische Lösung strittiger Abwägungen",
"principle_label": "Architektonisches Prinzip:",
"view_full_architecture_link": "Vollständige Systemarchitektur und technische Details anzeigen"
},
"demos": {
"heading": "Interaktive Demonstrationen",
"classification_title": "Anweisungsklassifizierung",
"classification_desc": "Erkunden Sie, wie Anweisungen über Quadranten mit Persistenzstufen und zeitlichem Umfang klassifiziert werden.",
"incident_title": "27027-Vorfall-Zeitleiste",
"incident_desc": "Durchlaufen Sie den Mustererkennung-Bias-Fehler und die architektonische Intervention, die ihn verhindert hat.",
"boundary_title": "Grenzbewertung",
"boundary_desc": "Testen Sie Entscheidungen gegen Grenzendurchsetzung, um zu sehen, welche menschliches Urteil vs. KI-Autonomie erfordern."
},
"resources": {
"heading": "Forschungsdokumentation",
"audit_explorer_title": "Interaktives Audit-Analyse-Dashboard",
"audit_explorer_subtitle": "Erkunden Sie 171.800+ Governance-Entscheidungen aus dem Produktionseinsatz",
"doc_1_title": "Organisationstheoretische Grundlagen",
"doc_2_title": "Kulturelle DNA-Regeln",
"doc_3_title": "Fallstudien: LLM-Misserfolgsmodi in der Praxis",
"doc_4_title": "Rahmenwerk in Aktion: Sicherheitsaudit vor der Veröffentlichung",
"doc_5_title": "Anhang B: Glossar der Begriffe",
"doc_6_title": "Vollständige technische Dokumentation"
},
"limitations": {
"heading": "Einschränkungen & Zukünftige Forschungsrichtungen",
"title": "Bekannte Einschränkungen & Forschungslücken",
"limitation_1_title": "1. Einzelkontext-Validierung",
"limitation_1_desc": "Der Rahmen wurde nur in einem Einzelprojekt und in einem Einzelbenutzerkontext (Entwicklung dieser Website) validiert. Kein Einsatz in mehreren Organisationen, keine plattformübergreifenden Tests und keine kontrollierte experimentelle Validierung.",
"limitation_2_title": "2. Begrenzung der freiwilligen Aufforderung",
"limitation_2_desc": "Die wichtigste Einschränkung: Der Rahmen kann umgangen werden, wenn die KI einfach beschließt, keine Governance-Tools zu verwenden. Wir haben dies durch architektonische Muster gelöst, die Governance-Prüfungen automatisch und nicht freiwillig machen, aber eine vollständige externe Durchsetzung erfordert eine Integration auf Laufzeitebene, die in aktuellen LLM-Plattformen nicht durchgängig verfügbar ist.",
"limitation_3_title": "3. Keine kontradiktorischen Tests",
"limitation_3_desc": "Das Framework wurde weder einer Red-Team-Evaluierung noch einem Jailbreak-Test oder einer Bewertung durch einen Gegner unterzogen. Alle Beobachtungen stammen aus normalen Entwicklungsabläufen, nicht aus absichtlichen Umgehungsversuchen.",
"limitation_4_title": "4. Spezifität der Plattform",
"limitation_4_desc": "Beobachtungen und Interventionen wurden mit Claude Code (Anthropic Claude, Sonnet 4.5 bis Opus 4.6) und Village AI (Llama 3.1/3.2 via QLoRA) validiert. Die Verallgemeinerbarkeit auf andere LLM-Systeme (Copilot, GPT-4, benutzerdefinierte Agenten) bleibt teilweise validiert.",
"limitation_5_title": "5. Skalenunsicherheit",
"limitation_5_desc": "Leistungsmerkmale im Unternehmensmaßstab (Tausende von gleichzeitigen Benutzern, Millionen von Governance-Ereignissen) völlig unbekannt. Die derzeitige Implementierung ist für den Einzelbenutzerkontext optimiert.",
"future_research_title": "Künftiger Forschungsbedarf:",
"future_research_1": "Kontrollierte experimentelle Validierung mit quantitativen Metriken",
"future_research_2": "Organisationsübergreifende Pilotstudien in verschiedenen Bereichen",
"future_research_3": "Unabhängige Sicherheitsprüfung und gegnerische Tests",
"future_research_4": "Bewertung der plattformübergreifenden Konsistenz (Copilot, GPT-4, offene Modelle)",
"future_research_5": "Formale Überprüfung der Eigenschaften der Grenzdurchsetzung",
"future_research_6": "Längsschnittstudie zur Wirksamkeit des Rahmens bei längerem Einsatz",
"validated_heading": "Was wir validiert haben (Februar 2026)",
"validated_intro": "Nach 11+ Monaten Entwicklung, 1.000+ Claude Code Sitzungen und Produktionseinsatz bei Village Home Trust haben wir fundierte Nachweise für:",
"validated_1_title": "✅ Architektonische Blockierungsmechanismen Funktionell",
"validated_1_item1": "BoundaryEnforcer blockiert erfolgreich Wertentscheidungen vor der Ausführung",
"validated_1_item2": "Pre-Commit-Hooks verhindern inst_017-Verletzungen (absolute Sicherheitsbedingungen)",
"validated_1_item3": "171.800+ Audit-Entscheidungen in MongoDB aufgezeichnet (tractatus_dev.audit_log)",
"validated_2_title": "✅ Anweisungspersistenz funktioniert sitzungsübergreifend",
"validated_2_item1": "InstructionPersistenceClassifier pflegt 68 aktive Anweisungen (STRATEGIC: 27, SYSTEM: 21, OPERATIONAL: 18, TACTICAL: 2)",
"validated_2_item2": "Die Erkennung von Mustern verhindert, dass sich KI über explizite organisatorische Richtlinien hinwegsetzt",
"validated_2_item3": "Zeitliche Geltungsbereiche (STRATEGISCH/OPERATIONELL/TAKTISCH) erfolgreich durchgesetzt",
"validated_3_title": "✅ Prüfpfade halten Governance-Entscheidungen fest",
"validated_3_item1": "Externer MongoDB-Speicher (AI kann Protokolle nicht ändern)",
"validated_3_item2": "Dienstspezifische Protokollierung: BoundaryEnforcer (523 Protokolle), ContextPressureMonitor (521 Protokolle)",
"validated_3_item3": "Unveränderliche Beweiskette für den Nachweis der Konformität",
"validated_4_title": "✅ Überwachung des Drucks im Zusammenhang mit dem Betrieb",
"validated_4_item1": "Berechnung der Druckwerte in Echtzeit (Token-Nutzung, Anzahl der Nachrichten, Komplexität)",
"validated_4_item2": "Checkpoint-Auslöser bei 50k, 100k, 150k Token",
"validated_4_item3": "Warnungen zur Erkennung des Verblassens des Rahmens (5/6 veraltete Komponenten = Warnung)",
"validated_5_title": "✅ Multi-Deployment-Governance erfolgreich",
"validated_5_item1": "Framework steuert agenticgovernance.digital (11+ Monate Dauerbetrieb)",
"validated_5_item2": "Village Home Trust Produktionseinsatz: null Governance-Verletzungen",
"validated_5_item3": "Village AI souveräne Inferenz-Governance: betriebsbereit",
"validated_5_item4": "Kulturelle DNA-Regeln (inst_085-089) durch Pre-Commit-Hooks durchgesetzt (4+ Monate betriebsbereit)",
"validated_5_item5": "Phase 5 Integration: 100% vollständig (alle 6 Dienste, 203/203 Tests bestanden)",
"validated_5_item6": "Mehrsprachige Unterstützung: EN, DE, FR, Te Reo Maori",
"validated_5_item7": "Keine Offenlegung von Anmeldeinformationen (Defense-in-Depth: 5 Schichten verifiziert)",
"not_validated_heading": "Was wir NICHT validiert haben",
"not_validated_intro": "Ehrliche Offenlegung von Forschungslücken, wo es an Beweisen mangelt:",
"not_validated_1_title": "❌ Organisationsübergreifende Einsätze",
"not_validated_1_item1": "Geprüft: Einzelprojekt, Einzelbenutzer",
"not_validated_1_item2": "Unbekannt: Wie sich das Framework in verschiedenen Organisationen, Bereichen und technischen Stacks bewährt",
"not_validated_1_item3": "Forschungsbedarf: Branchenübergreifende Pilotstudien (Gesundheitswesen, Finanzen, Behörden)",
"not_validated_2_title": "❌ Robustheit gegenüber dem Gegner",
"not_validated_2_item1": "Validiert: Normale Entwicklungsabläufe (1.000+ Sitzungen)",
"not_validated_2_item2": "Unbekannt: Widerstandsfähigkeit gegen absichtliche Umgehungsversuche, Aufforderungen zum Gefängnisausbruch, gegnerische Tests",
"not_validated_2_item3": "Forschungsbedarf: Red-Team-Evaluierung durch Sicherheitsforscher",
"not_validated_3_title": "⚠️ Plattformübergreifende Konsistenz (Teilweise)",
"not_validated_3_item1": "Bestätigt: Claude Code (Anthropic Claude, Sonnet 4.5 bis Opus 4.6) und Village AI (Llama 3.1/3.2 via QLoRA)",
"not_validated_3_item2": "Unbekannt: Verallgemeinerbarkeit auf Copilot, GPT-4, AutoGPT, LangChain, CrewAI, offene Modelle",
"not_validated_3_item3": "Forschungsbedarf: Plattformübergreifende Validierungsstudien",
"not_validated_4_title": "❌ Architektur gleichzeitiger Sitzungen",
"not_validated_4_item1": "Bestätigt: Jeweils eine Sitzung",
"not_validated_4_item2": "Unbekannt: Gleichzeitige Nutzung durch mehrere Entwickler bei gemeinsamen Codebasen",
"not_validated_4_item3": "Bekannte Einschränkungen: MongoDB-Fehler bei doppelten Schlüsseln, Verunreinigung des Sitzungsstatus, Race Conditions bei .claude/instruction-history.json",
"not_validated_4_item4": "Forschungsbedarf: Entwurf einer mandantenfähigen Architektur (sitzungsspezifischer Zustand, Dateisperren)",
"not_validated_5_title": "❌ Auswirkungen der Regelproliferation",
"not_validated_5_item1": "Bestätigt: 68 aktive Anweisungen funktionieren im aktuellen Kontext (ursprüngliche Prognose übertroffen)",
"not_validated_5_item2": "Unbekannt: Leistungseinbußen bei steigender Anzahl von Regeln (voraussichtlich 30-50 Anweisungen innerhalb von 12 Monaten)",
"not_validated_5_item3": "Bekannte Probleme: Transaktionsbedingter Overhead (CrossReferenceValidator-Prüfungen), Druck durch Kontextfenster, kognitive Belastung",
"not_validated_5_item4": "Forschungsbedarf: Strategien zur Regelkonsolidierung, automatisierte Governance-Optimierung",
"not_validated_6_title": "❌ Hinlänglichkeit der rechtlichen Nachweise",
"not_validated_6_item1": "Validiert: Es gibt Prüfpfade mit Konformitätskennzeichen (EU_AI_ACT_Artikel14, GDPR_Artikel22)",
"not_validated_6_item2": "Unbekannt: Akzeptieren die Aufsichtsbehörden architektonische Prüfpfade als \"aussagekräftigen Beweis für die menschliche Aufsicht\"?",
"not_validated_6_item3": "Forschungsbedarf: Rechtliche Überprüfung durch Spezialisten des EU-KI-Gesetzes, GDPR-Compliance-Beauftragte",
"not_validated_7_title": "❌ Wertepluralismus in der Praxis",
"not_validated_7_item1": "Bestätigt: PluralisticDeliberationOrchestrator implementiert nicht-hierarchischen Prozess",
"not_validated_7_item2": "Unbekannt: Wirksamkeit in der Praxis bei der Lösung von Wertkonflikten in Organisationen",
"not_validated_7_item3": "Forschungsbedarf: Fallstudien mit tatsächlichen Stakeholder-Beratungen (keine theoretischen Szenarien)",
"not_validated_8_title": "❌ Enterprise Scale Performance",
"not_validated_8_item1": "Bestätigt: Einzelbenutzer-Kontext",
"not_validated_8_item2": "Unbekannt: Latenz, Durchsatz, Datenbankleistung mit Tausenden von gleichzeitigen Benutzern, Millionen von Governance-Ereignissen",
"not_validated_8_item3": "Forschungsbedarf: Lasttests, Leistungsoptimierung",
"documented_heading": "Dokumentierte Einschränkungen (keine \"zukünftigen Arbeiten\")",
"documented_intro": "Dies sind bekannte strukturelle Zwänge, die eine ehrliche Anerkennung erfordern:",
"documented_1_title": "1. Schwäche der freiwilligen Anrufung",
"documented_1_desc": "Besonders kritisch: Der Rahmen kann umgangen werden, wenn die KI sich entscheidet, die Governance-Tools nicht aufzurufen. Wir haben dieses Problem durch architektonische Muster (automatische Prüfungen, externe Validierung) gelöst, aber eine vollständige Durchsetzung erfordert eine Integration auf Laufzeitebene, die in den aktuellen LLM-Plattformen nicht allgemein verfügbar ist.",
"documented_2_title": "2. Plattform-spezifische Implementierung",
"documented_2_desc": "Framework nur mit Claude Code validiert. Die Integrationspunkte (Hooks, Tool-APIs) variieren von Plattform zu Plattform. Die Verallgemeinerung erfordert plattformspezifische Adapter.",
"documented_3_title": "3. Single-Tenant-Architektur",
"documented_3_desc": "Der derzeitige Entwurf geht von jeweils einer Sitzung aus. Gleichzeitige Nutzung führt zu Statuskonflikten. Mandantenübergreifende Muster sind noch nicht implementiert.",
"documented_4_title": "4. Wachstum ohne Konsolidierung regeln",
"documented_4_desc": "Jeder kritische Vorfall erzeugt neue HIGH-Persistenzanweisungen. Es gibt keinen automatischen Mechanismus zur Regelkonsolidierung. Manuelle Steuerung erforderlich, wenn die Anzahl der Regeln zunimmt.",
"documented_5_title": "5. Keine formale Verifizierung",
"documented_5_desc": "Die Eigenschaften der Grenzdurchsetzung werden empirisch und nicht durch formale Beweise bestätigt. Die mathematische Überprüfung von Governance-Eigenschaften bleibt eine offene Forschungsfrage."
},
"bibliography": {
"heading": "Referenzen und Bibliographie",
"theoretical_priority_label": "Theoretische Priorität:",
"theoretical_priority_text": "Der Tractatus entstand aus der Sorge um die Aufrechterhaltung menschlicher Werte in KI-gestützten Organisationen. Moralischer Pluralismus und deliberativer Prozess bilden das theoretische Fundament von CORE. Die Organisationstheorie bietet einen unterstützenden Kontext für zeitliche Entscheidungsbefugnisse und strukturelle Umsetzung.",
"section_1_heading": "Moralischer Pluralismus und Wertephilosophie (Primäre Grundlage)",
"section_2_heading": "Organisationstheorie (Unterstützungskontext)",
"section_3_heading": "KI-Governance und technischer Kontext",
"intellectual_lineage_label": "Anmerkung zur intellektuellen Abstammung:",
"intellectual_lineage_text": "Das zentrale Anliegen des Rahmens - das Fortbestehen menschlicher Werte in KI-gestützten organisatorischen Kontexten - stammt eher aus der Moralphilosophie als aus der Managementwissenschaft. Der PluralisticDeliberationOrchestrator stellt den primären Forschungsschwerpunkt dar und verkörpert Weils Konzept der Aufmerksamkeit für plurale menschliche Bedürfnisse und Berlins Anerkennung inkommensurabler Werte.",
"future_development_text": "Berlin und Weil werden für die weitere Entwicklung der Deliberationskomponente von zentraler Bedeutung sein - ihre Arbeit liefert die philosophische Grundlage für das Verständnis, wie die menschliche Entscheidungsgewalt über Werte bei zunehmenden KI-Fähigkeiten erhalten werden kann. In der traditionellen Organisationstheorie (Weber, Taylor) geht es um Autorität durch Hierarchie; im post-AI-Organisationskontext ist Autorität durch einen angemessenen deliberativen Prozess unter Berücksichtigung der Perspektiven der Beteiligten erforderlich. Die Dokumentation zur Entwicklung des Rahmens (Ereignisberichte, Sitzungsprotokolle) wird im Projektarchiv aufbewahrt, aber bis zur Überprüfung durch Peers nicht veröffentlicht.",
"section_4_heading": "Indigene Datensouveränität und polyzentrische Governance"
},
"research_collaboration": {
"heading": "Möglichkeiten der Forschungskooperation",
"intro": "Wir haben spezifische Lücken identifiziert, bei denen eine externe Forschungszusammenarbeit wertvoll wäre. Dabei handelt es sich um konkrete, beantwortbare Fragen und nicht um allgemeine \"Hilf uns, besser zu werden\"-Anfragen.",
"high_priority_heading": "Hohe Priorität (dringender Bedarf)",
"medium_priority_heading": "Mittlere Priorität (kurzfristige Untersuchung)",
"lower_priority_heading": "Niedrigere Priorität (längerfristig)",
"rq_label": "Forschungsfrage:",
"methodology_label": "Erforderliche Methodik:",
"why_label": "Warum das wichtig ist:",
"rq1_title": "RQ1: Prüfung der Robustheit von Gegenmaßnahmen",
"rq1_question": "Kann die architektonische Governance kontradiktorischen Aufforderungen widerstehen, die darauf abzielen, sie zu umgehen?",
"rq1_method1": "Red-team-Evaluierung mit Sicherheitsforschern",
"rq1_method2": "Jailbreak-Soforttest gegen BoundaryEnforcer",
"rq1_method3": "Dokumentation der Umgehungsversuche und Musteranalyse",
"rq1_method4": "Vergleich: Verhaltensbedingter (konstitutioneller AI) vs. architektonischer (Tractatus) Widerstand",
"rq1_why": "Wenn gegnerische Aufforderungen auf triviale Weise die Kontrolle umgehen können, bietet der architektonische Ansatz keinen Vorteil gegenüber dem Verhaltenstraining.",
"rq2_title": "RQ2: Entwurf der Architektur für gleichzeitige Sitzungen",
"rq2_question": "Welche mandantenfähigen Muster ermöglichen eine sichere gleichzeitige Verwaltung von gemeinsamen Codebasen?",
"rq2_method1": "Analyse von Wettlaufbedingungen bei verteilten Systemen",
"rq2_method2": "Sitzungsspezifische Entwürfe zur Isolierung des Zustands",
"rq2_method3": "Abwägung zwischen Dateisperren und datenbankgestütztem Zustand",
"rq2_method4": "Auswirkungen von Synchronisationsmechanismen auf die Leistung",
"rq2_why": "Die derzeitige Annahme einer einzigen Sitzung blockiert den Einsatz in Unternehmen, in denen mehrere Entwickler gleichzeitig mit KI arbeiten.",
"rq3_title": "RQ3: Ausreichende rechtliche Nachweise",
"rq3_question": "Erfüllen architektonische Prüfpfade die Anforderungen von Artikel 14 des EU-KI-Gesetzes an eine \"sinnvolle menschliche Aufsicht\"?",
"rq3_method1": "Rechtliche Analyse durch Spezialisten des EU-KI-Gesetzes",
"rq3_method2": "Befragung von Aufsichtsbehörden (Datenschutzbehörden der GDPR, Durchsetzungsstellen des AI-Gesetzes)",
"rq3_method3": "Vergleich mit bestehenden Compliance-Rahmenwerken (SOC 2, ISO 27001)",
"rq3_method4": "Fallstudie: Überprüfung des Prüfpfads im regulatorischen Kontext",
"rq3_why": "Wenn die Aufsichtsbehörden Prüfpfade nicht als Nachweis akzeptieren, bietet die architektonische Governance keinen Wert für die Einhaltung der Vorschriften.",
"rq4_title": "RQ4: Management der Regelverbreitung",
"rq4_question": "Ab welcher Regelanzahl führt der Transaktions-Overhead zu inakzeptablen Latenzzeiten?",
"rq4_method1": "Leistungstests mit unterschiedlichen Befehlszahlen (50, 100, 200, 500 Regeln)",
"rq4_method2": "CrossReferenceValidator Latenzmessungen",
"rq4_method3": "Kontextfenster Druckanalyse",
"rq4_method4": "Entwurf und Validierung von Algorithmen zur Regelkonsolidierung",
"rq4_why": "Wenn das Wachstum der Regeln zu Leistungseinbußen führt, lässt sich der Rahmen langfristig nicht skalieren.",
"rq5_title": "RQ5: Plattformübergreifende Validierung",
"rq5_question": "Lassen sich Governance-Muster über den Claude Code hinaus auf andere LLM-Systeme verallgemeinern?",
"rq5_method1": "Replikationsstudien mit Copilot, GPT-4, AutoGPT, LangChain, CrewAI",
"rq5_method2": "Plattformspezifische Adapterentwicklung",
"rq5_method3": "Vergleichende Analyse der Wirksamkeit",
"rq5_method4": "Fehlermöglichkeitsdokumentation pro Plattform",
"rq5_why": "Wenn Governance Claude Code-spezifisch ist, ist es ein Nischenwerkzeug und kein allgemeiner Rahmen.",
"rq6_title": "RQ6: Wirksamkeit des Wertepluralismus",
"rq6_question": "Löst der PluralisticDeliberationOrchestrator erfolgreich reale Wertekonflikte in Organisationen?",
"rq6_method1": "Fallstudien mit tatsächlichen organisatorischen Beteiligten (keine hypothetischen Szenarien)",
"rq6_method2": "Bewertung der Qualität des Deliberationsprozesses",
"rq6_method3": "Analyse zur Erhaltung der Stimme von Minderheiten",
"rq6_method4": "Vergleich mit traditioneller hierarchischer Entscheidungsfindung",
"rq6_why": "Wenn der pluralistische Prozess in der Praxis nicht funktioniert, haben wir einen theoretischen Apparat ohne empirischen Wert aufgebaut.",
"rq7_title": "RQ7: Enterprise Scale Performance",
"rq7_item1": "Lasttests (1000+ gleichzeitige Benutzer)",
"rq7_item2": "Datenbankoptimierung für Millionen von Governance-Ereignissen",
"rq7_item3": "Horizontale Skalierungsmuster",
"rq8_title": "RQ8: Formale Verifizierung der Durchsetzung von Grenzwerten",
"rq8_item1": "Mathematischer Nachweis von Governance-Eigenschaften",
"rq8_item2": "Modellprüfung von Zustandsübergängen",
"rq8_item3": "Überprüfung der architektonischen Eigenschaften",
"offer_heading": "Was wir Forschungskollaborateuren bieten können",
"offer_intro": "Wenn Sie sich mit einer dieser Fragen beschäftigen, können wir Ihnen helfen:",
"offer_1_title": "Codebase-Zugang",
"offer_1_desc": "Vollständiger Quellcode (Apache 2.0, Open-Source)",
"offer_2_title": "Dokumentation",
"offer_2_desc": "Architekturspezifikationen, Implementierungsmuster, Governance-Regeln",
"offer_3_title": "Data Audit",
"offer_3_desc": "171.800+ Governance-Entscheidungen in MongoDB (anonymisierte Exporte verfügbar)",
"offer_4_title": "Unterstützung bei der Bereitstellung",
"offer_4_desc": "Hilfe bei der Einrichtung von lokalen oder Cloud-Instanzen für Tests",
"offer_5_title": "Koordinierung",
"offer_5_desc": "Regelmäßige Synchronsitzungen zur Erörterung der Ergebnisse",
"offer_6_title": "Mitautorschaft",
"offer_6_desc": "Akademische Veröffentlichungen zur Dokumentation der Ergebnisse",
"cannot_offer_heading": "Was wir nicht bieten können:",
"cannot_offer_1": "Finanzierung (wir sind kein Zuschussgeber)",
"cannot_offer_2": "Dedizierte technische Ressourcen (Kapazitätsengpässe)",
"cannot_offer_3": "Gesicherte Veröffentlichungsorte (aber wir unterstützen die Einreichungsbemühungen)",
"inquiry_button": "Anfrage zur Forschungszusammenarbeit"
},
"steering_vectors": {
"heading": "Steering-Vektoren und mechanische Verzerrung in souveräner KI",
"intro": "Diese Arbeit führt eine kritische Unterscheidung ein zwischen <strong>mechanischer Verzerrung</strong> (Vor-Reasoning-Verzerrungen in Modellgewichten und Aktivierungen) und <strong>Reasoning-Verzerrung</strong> (deliberative Fehler in Chain-of-Thought-Verarbeitung). Traditionelle Debiasing-Ansätze vermischen diese Kategorien.",
"techniques_heading": "Technikübersicht",
"technique_1": "<strong>Contrastive Activation Addition (CAA):</strong> Verzerrungskorrektur zur Inferenzzeit durch Addition/Subtraktion von Aktivierungsvektoren",
"technique_2": "<strong>Representation Engineering (RepE):</strong> Lineare Sonden zur Identifizierung und Modifikation von Konzeptrepräsentationen",
"technique_3": "<strong>FairSteer &amp; DSO:</strong> Fairness-orientierte Steuerung durch verteilungsrobuste Optimierung",
"technique_4": "<strong>Sparse Autoencoders:</strong> Mechanistische Interpretierbarkeit durch Zerlegung polysemantischer Neuronen",
"application_heading": "Anwendung auf Village Village AI",
"application_text": "Die Village Village AI Bereitstellung nutzt QLoRA-feinabgestimmte Llama 3.1/3.2-Modelle, bei denen Steering-Vektoren zur Inferenzzeit angewendet werden können. Dies schafft eine zweischichtige Governance-Architektur.",
"read_link": "Arbeit lesen (HTML) →",
"pdf_link": "PDF herunterladen"
},
"taonga": {
"heading": "Taonga-zentrierte Steering-Governance: Polyzentrische KI für indigene Datensouveränität",
"limitation_label": "Wichtige Einschränkung:",
"limitation_text": "Diese Arbeit wurde ohne Maori-Ko-Autorschaft verfasst und befindet sich derzeit in indigener Peer-Review. Sie schlägt eine technische Architektur vor, die auf veröffentlichter Wissenschaft zur indigenen Datensouveränität basiert, wurde aber noch nicht von Maori-Forschenden oder Gemeinschaften validiert.",
"intro": "Diese Arbeit schlägt eine <strong>polyzentrische Governance-Architektur</strong> vor, in der Iwi und Gemeinschaftsorganisationen gleichberechtigte Autorität neben technischen Systembetreibern behalten.",
"foundations_heading": "Theoretische Grundlagen",
"foundation_1": "<strong>CARE-Prinzipien</strong> (Carroll et al., 2020): Kollektiver Nutzen, Kontrollautorität, Verantwortung, Ethik",
"foundation_2": "<strong>Ostrom Polyzentrische Governance</strong> (1990): Mehrere überlappende Autoritätszentren statt einzelner hierarchischer Kontrolle",
"foundation_3": "<strong>Te ao Maori Konzepte:</strong> Kaitiakitanga (Vormundschaft), Rangatiratanga (Selbstbestimmung), Whakapapa (relationale Identität) als Architekturprinzipien",
"integration_heading": "Integration mit Tractatus",
"integration_text": "Die Arbeit erweitert den PluralisticDeliberationOrchestrator um Gemeinschafts-Stakeholder-Autoritäten mit Vetorecht über taonga-klassifizierte Daten.",
"read_link": "Entwurf lesen (HTML) →",
"pdf_link": "PDF herunterladen"
},
"village_ai": {
"heading": "Village AI: Souveräne Governance-Forschungsplattform",
"intro": "Village AI stellt einen bedeutenden Forschungsmeilenstein dar: <strong>vollständige Tractatus-Governance eingebettet in eine lokal trainierte, souveräne Sprachmodell-Inferenz-Pipeline</strong>.",
"architecture_heading": "Zwei-Modell-Architektur",
"arch_1": "<strong>Schnelles Modell (Llama 3.2 3B):</strong> Antworten mit niedriger Latenz für Routineanfragen, mit Governance-Vorprüfung",
"arch_2": "<strong>Tiefes Modell (Llama 3.1 8B):</strong> Komplexes Reasoning mit vollständiger Governance-Pipeline",
"arch_3": "<strong>QLoRA-Feinabstimmung:</strong> Parametereffiziente Anpassung auf lokaler Hardware",
"research_heading": "Forschungsbedeutung",
"research_text": "Village AI eröffnet die Forschungsfrage der <strong>Governance-innerhalb-der-Trainingsschleife</strong> für gemeinschaftskontrollierte Modelle.",
"learn_more": "Mehr über Village AI erfahren →"
}
},
"footer": {
"additional_resources": "Zusätzliche Ressourcen",
"for_decision_makers": "Für Entscheidungsträger",
"for_decision_makers_desc": "Strategische Perspektive auf Governance-Herausforderungen und architektonische Ansätze",
"implementation_guide": "Implementierungsleitfaden",
"implementation_guide_desc": "Technische Integrationsmuster und Bereitstellungsüberlegungen"
},
"ui": {
"breadcrumb_home": "Startseite",
"breadcrumb_researcher": "Forscher",
"noscript_note": "Anmerkung:",
"noscript_message": "Diese Seite verwendet JavaScript für interaktive Funktionen (Akkordeons, Animationen). Der Inhalt bleibt zugänglich, aber erweiterbare Abschnitte werden standardmäßig sichtbar sein."
},
"modal": {
"research_inquiry": {
"heading": "Anfrage zur Forschungszusammenarbeit",
"intro_1": "Wenn Sie die Grenzen der architektonischen KI-Governance untersuchen, würden wir uns über eine Zusammenarbeit freuen. Wir sind besonders an Forschern interessiert, die methodische Strenge in Lücken einbringen können, die wir identifiziert haben, für die uns aber die Kapazitäten fehlen.",
"intro_2": "Dies ist KEIN Formular zur Nutzerakquise. Wir sind auf der Suche nach Forschungspartnern, die uns helfen können, unsere Ansätze in einem kontrollierten Umfeld zu validieren (oder zu entkräften).",
"field_1_label": "Forschungsfrage",
"field_2_label": "Ihr methodischer Ansatz",
"field_2_placeholder": "Wie würden Sie diese Forschungsfrage untersuchen? Welche Methoden, Kontrollen und Metriken würden Sie verwenden?",
"field_3_label": "Validierungskontext",
"field_3_placeholder": "In welcher Umgebung würden Sie testen? (z. B. \"Einsatz in mehreren Einrichtungen des Gesundheitswesens mit HIPAA-Anforderungen\", \"Akademisches Labor mit gegnerischer Prompt-Datenbank\")",
"field_4_label": "Was Sie von uns brauchen",
"field_5_label": "Andere Bedürfnisse",
"field_5_placeholder": "Benötigen Sie weitere Unterstützung für diese Forschung?",
"field_6_label": "Your Institution/Affiliation",
"field_6_placeholder": "Universität, Forschungslabor oder unabhängig",
"field_7_label": "Your Name",
"field_8_label": "Kontakt E-Mail",
"field_9_label": "Voraussichtlicher Zeitplan",
"rq1_option": "RQ1: Prüfung der Robustheit von Gegenmaßnahmen",
"rq2_option": "RQ2: Entwurf einer gleichzeitigen Sitzungsarchitektur",
"rq3_option": "RQ3: Ausreichende rechtliche Nachweise",
"rq4_option": "RQ4: Management der Regelverbreitung",
"rq5_option": "RQ5: Plattformübergreifende Validierung",
"rq6_option": "RQ6: Wirksamkeit des Wertepluralismus",
"rq7_option": "RQ7: Enterprise Scale Performance",
"rq8_option": "RQ8: Formale Verifizierung der Durchsetzung von Grenzwerten",
"other_option": "Sonstiges (bitte unten angeben)",
"need_1": "Zugang zur Codebase und Dokumentation",
"need_2": "Anonymisierte Audit-Log-Exporte",
"need_3": "Unterstützung bei der Bereitstellung (Hilfe bei der Einrichtung)",
"need_4": "Regelmäßige Koordinierungssitzungen",
"need_5": "Mitautorenschaft bei Veröffentlichungen",
"need_6": "Sonstiges (bitte unten angeben)",
"char_limit_1000": "Maximal 1000 Zeichen",
"char_limit_500": "Maximal 500 Zeichen",
"char_limit_300": "Maximal 300 Zeichen",
"timeline_1": "Ab sofort (innerhalb von 1 Monat)",
"timeline_2": "Kurzfristig (1-3 Monate)",
"timeline_3": "Längerfristig (3-6 Monate)",
"timeline_4": "Prüfung der Machbarkeit (noch kein Zeitplan)",
"cancel": "Abbrechen",
"submit": "Forschungsanfrage einreichen",
"success_title": "Vielen Dank für Ihre Forschungsanfrage.",
"success_message": "Wir werden Ihren Vorschlag prüfen und innerhalb von 5 Werktagen antworten.",
"success_note": "Hinweis: Wir erhalten Forschungsanfragen von Akademikern, Sicherheitsforschern und KI-Sicherheitsforschern. Die Antwortpriorität basiert auf methodischer Strenge und der Relevanz der Forschungsfrage, nicht auf der institutionellen Zugehörigkeit.",
"close": "Schließen Sie"
}
},
"share_cta": {
"heading": "Helfen Sie uns, die richtigen Leute zu erreichen.",
"description": "Wenn Sie Forscher, Implementierer oder Führungskräfte kennen, die strukturelle KI-Governance-Lösungen benötigen, teilen Sie dies mit ihnen.",
"copy_link": "Link kopieren",
"email": "E-Mail",
"linkedin": "LinkedIn"
},
"alexander_research": {
"heading": "Aktueller Forschungsschwerpunkt: Christopher Alexander Integration",
"status": "Integriert: Oktober 2025 | Status: Überwachung der Effektivität",
"intro": "In das Framework wurden fünf architektonische Prinzipien aus Christopher Alexanders Arbeit über lebende Systeme, Mustersprachen und Ganzheitlichkeit integriert (The Timeless Way of Building, A Pattern Language, The Nature of Order). Diese Prinzipien leiten nun die gesamte Entwicklung des Frameworks:",
"principles": {
"deep_interlock": {
"title": "Tiefes Interlock:",
"description": "Koordinierung der Dienste durch gegenseitige Validierung, nicht durch isolierte Durchsetzung"
},
"structure_preserving": {
"title": "Strukturerhaltend:",
"description": "Änderungen verbessern, ohne zu brechen - Audit-Protokolle bleiben interpretierbar"
},
"gradients": {
"title": "Farbverläufe nicht binär:",
"description": "Governance arbeitet mit Intensitätsstufen (NORMAL/ERHÖHT/HÖCHST/KRITISCH)"
},
"living_process": {
"title": "Lebendiger Prozess:",
"description": "Der Rahmen entwickelt sich aus realen Betriebsausfällen, nicht aus vorher festgelegten Plänen"
},
"not_separateness": {
"title": "Ungetrenntheit:",
"description": "Governance ist in die Implementierungsarchitektur eingebettet - die Durchsetzung ist strukturell"
}
},
"research_question": "Forschungsfrage: Können architektonische Prinzipien aus dem Bereich der physikalischen Architektur (Alexander) getreu an die KI-Governance mit messbarer Wirksamkeit angepasst werden? Wir überwachen das Verhalten des Frameworks durch eine Audit-Log-Analyse und suchen nach einer empirischen Validierung.",
"collaboration_heading": "Möglichkeiten der Forschungskooperation",
"collaboration_items": [
"Messung der Effektivität: Verbessern die Alexander-Prinzipien die Governance-Ergebnisse im Vergleich zur Ausgangslage? Zugang zu mehr als 171.800 Prüfungsentscheidungen für eine quantitative Analyse.",
"Gelehrte Überprüfung: Validierung der getreuen Anwendung von Alexanders Werk - sind wir \"direkt anwendend\" oder \"lose inspiriert von\"? Suche nach Christopher-Alexander-Gelehrten für eine formale Überprüfung.",
"Domänenübergreifende Validierung: Wie lassen sich architektonische Prinzipien (Ganzheitlichkeit, lebendiger Prozess, Ungetrenntheit) auf nicht-physische Bereiche übertragen? Was ist eine rigorose Anpassung im Gegensatz zu einer oberflächlichen Terminologieübernahme?",
"Musteranalyse: Auditprotokolle zeigen Dienstkoordinierungsmuster - weisen sie eine \"tiefe Verflechtung\" im Sinne von Alexander auf? Empirische Validierung der theoretischen Konstrukte."
],
"collaborate_text": "Arbeiten Sie mit uns zusammen: Wir freuen uns über Forscher, die diese Anwendung von Architekturprinzipien auf die KI-Governance untersuchen möchten. Wir können Zugang zu Audit-Protokollen, Framework-Code und Integrationsdokumentation für empirische Studien zur Verfügung stellen.",
"contact_link": "Kontakt für Zusammenarbeit →",
"audit_explorer_link": "171.800+ Audit-Entscheidungen erkunden →",
"values_link": "Werte und Grundsätze →"
}
}