tractatus/public/locales/de/about.json
TheFlow 59a63404a1 fix(privacy): replace personal email with privacy@agenticgovernance.digital
feat(i18n): add research_focus translations for about.html

Changes:
1. Email address updates (EN/DE/FR):
   - Replaced john.stroh.nz@pm.me with privacy@agenticgovernance.digital
   - Updated in about.html and all 3 locale files (en/de/fr)

2. Added research_focus section translations:
   - English: Added to en/about.json (heading + 4 paragraphs)
   - German: DeepL translations added to de/about.json
   - French: DeepL translations added to fr/about.json

3. Added missing wrapper translations:
   - core_values.te_tiriti.paragraph_2_full (full paragraph with HTML)
   - data_practices.rights_full (GDPR rights with contact link)

All research_focus content now translates when users switch languages.

🤖 Generated with [Claude Code](https://claude.com/claude-code)

Co-Authored-By: Claude <noreply@anthropic.com>
2025-10-31 00:00:44 +13:00

130 lines
16 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"page": {
"title": "Über | Tractatus AI-Sicherheits-Framework",
"description": "Erfahren Sie mehr über das Tractatus-Framework: unsere Mission, Werte, Team und unser Engagement für die Bewahrung menschlicher Handlungsfähigkeit durch strukturelle KI-Sicherheit."
},
"header": {
"title": "Über Tractatus",
"subtitle": "Ein Framework für KI-Sicherheit durch architektonische Beschränkungen, das menschliche Handlungsfähigkeit dort bewahrt, wo es am wichtigsten ist."
},
"mission": {
"heading": "Unsere Mission",
"intro": "Das Tractatus-Framework existiert, um ein grundlegendes Problem in der KI-Sicherheit anzugehen: Aktuelle Ansätze verlassen sich auf Training, Feinabstimmung und Unternehmens-Governance all dies kann versagen, abdriften oder überschrieben werden. Wir schlagen Sicherheit durch Architektur vor.",
"wittgenstein": "Inspiriert von Ludwig Wittgensteins Tractatus Logico-Philosophicus erkennt unser Framework an, dass einige Bereiche Werte, Ethik, kultureller Kontext, menschliche Handlungsfähigkeit nicht systematisiert werden können. Was nicht systematisiert werden kann, darf nicht automatisiert werden. KI-Systeme sollten strukturelle Beschränkungen haben, die sie daran hindern, diese Grenzen zu überschreiten.",
"quote": "Wovon man nicht sprechen kann, darüber muss man schweigen.",
"quote_source": "— Ludwig Wittgenstein, Tractatus (§7)",
"applied": "Angewendet auf KI: \"Was nicht systematisiert werden kann, darf nicht automatisiert werden.\"",
"democratic_legitimacy": "Da KI-Systeme immer folgenreichere Entscheidungen treffen - medizinische Behandlung, Einstellung, Moderation von Inhalten, Ressourcenzuteilung - stellt sich eine grundlegende Frage: Von welchen Werten werden diese Entscheidungen geleitet? Die derzeitigen KI-Anpassungsansätze betten bestimmte moralische Rahmen in universell eingesetzte Systeme ein. Wenn sie funktionieren, dann deshalb, weil alle Betroffenen diese Werte teilen. Wenn das nicht der Fall ist, haben die Werte der einen unweigerlich Vorrang vor denen der anderen."
},
"core_values": {
"heading": "Kernwerte",
"sovereignty_title": "Souveränität",
"sovereignty_desc": "Einzelpersonen und Gemeinschaften müssen die Kontrolle über Entscheidungen behalten, die ihre Daten, Privatsphäre und Werte betreffen. KI-Systeme müssen menschliche Handlungsfähigkeit bewahren, nicht erodieren.",
"transparency_title": "Transparenz",
"transparency_desc": "Alle KI-Entscheidungen müssen erklärbar, überprüfbar und rückgängig zu machen sein. Keine Black Boxes. Benutzer verdienen es zu verstehen, wie und warum Systeme Entscheidungen treffen, und haben die Macht, sie zu überschreiben.",
"pluralism_title": "Pluralismus",
"pluralism_desc": "Verschiedene Gemeinschaften vertreten unterschiedliche, gleichermaßen legitime Werte. KI-Systeme müssen diesen Pluralismus strukturell respektieren und nicht so tun, als ob ein Rahmen für alle Kontexte geeignet wäre. Wertentscheidungen erfordern Beratungen zwischen den betroffenen Interessengruppen, keine autonomen KI-Entscheidungen.",
"harmlessness_title": "Harmlosigkeit",
"harmlessness_desc": "KI-Systeme dürfen keinen Schaden durch Handeln oder Unterlassen verursachen. Dies umfasst die Verhinderung von Drift, die Erkennung von Degradation und die Durchsetzung von Grenzen gegen Werteerosion.",
"community_title": "Gemeinschaft",
"community_desc": "KI-Sicherheit ist ein kollektives Unterfangen. Wir sind der offenen Zusammenarbeit, dem Wissensaustausch und der Befähigung von Gemeinschaften verpflichtet, die KI-Systeme zu gestalten, die ihr Leben beeinflussen.",
"read_values_btn": "Lesen Sie unsere vollständige Werteerklärung →",
"te_tiriti": {
"heading": "Digitale Souveränität und Te Tiriti o Waitangi",
"paragraph_1": "Der Grundsatz, dass Gemeinschaften die Kontrolle über ihre eigenen Daten und Technologien haben sollten, ist nicht neu - er hat tiefe Wurzeln in indigenen Rahmenwerken, die der westlichen Technologie um Jahrhunderte vorausgehen. Das Tractatus Framework wurde in Aotearoa, Neuseeland, entwickelt, und wir erkennen an, dass Te Tiriti o Waitangi (der Vertrag von Waitangi, 1840) Prinzipien der Partnerschaft, des Schutzes und der Partizipation festlegt, die sich direkt darauf beziehen, wie wir über KI-Souveränität denken.",
"paragraph_2": "Das ist keine performative Anerkennung. Konzepte wie",
"rangatiratanga": "rangatiratanga",
"rangatiratanga_translation": "(Selbstbestimmungsrecht)",
"kaitiakitanga": "kaitiakitanga",
"kaitiakitanga_translation": "(Vormundschaft)",
"mana": "mana",
"mana_translation": "(Autorität und Würde)",
"paragraph_2_end": "konkrete Anleitungen für die Entwicklung von KI-Systemen geben, die das menschliche Handeln in verschiedenen kulturellen Kontexten respektieren.",
"read_more_link": "Lesen Sie unseren vollständigen Ansatz zu Te Tiriti und indigener Datensouveränität →",
"paragraph_2_full": "Dies ist keine performative Anerkennung. Konzepte wie <em>rangatiratanga</em> (Selbstbestimmung), <em>kaitiakitanga</em> (Vormundschaft) und <em>mana</em> (Autorität und Würde) bieten konkrete Anleitungen für den Aufbau von KI-Systemen, die die menschliche Handlungsfähigkeit in allen kulturellen Kontexten respektieren. <a href=\"/about/values.html#te-tiriti\" class=\"text-blue-600 hover:text-blue-700 font-medium underline\">Lesen Sie unseren vollständigen Ansatz zu Te Tiriti und indigener Datensouveränität →</a>"
}
},
"data_practices": {
"heading": "Tractatus-Datenpraktiken",
"intro": "Wir praktizieren, was wir predigen transparenter Datenumgang mit architektonischen Beschränkungen:",
"what_data_title": "Welche personenbezogenen Daten?",
"what_data_desc": "Audit-Protokolle können enthalten: Benutzernamen, Zeitstempel, Sitzungs-IDs, Aktionsbeschreibungen. Keine Tracking-Cookies, keine Verhaltensprofilierung, keine Cross-Site-Datenerfassung.",
"why_needed_title": "Warum benötigt?",
"why_needed_desc": "Der Framework-Betrieb erfordert Audit-Trails für Governance-Entscheidungen. BoundaryEnforcer protokolliert blockierte Aktionen, CrossReferenceValidator protokolliert Anweisungskonflikte.",
"retention_title": "Wie lange aufbewahrt?",
"retention_desc": "Konfigurierbare Aufbewahrung (Standard 90 Tage). Organisationen können die Aufbewahrung basierend auf ihren Compliance-Anforderungen festlegen.",
"rights_title": "Ihre Rechte (DSGVO)",
"rights_desc": "Zugang (Artikel 15), Löschung (Artikel 17), Übertragbarkeit (Artikel 20).",
"contact_email": "privacy@agenticgovernance.digital",
"architectural_note": "Architektonisches Prinzip: Datenminimierung ist eine Systembeschränkung, keine Richtlinienhoffnung. BoundaryEnforcer verhindert strukturell die Offenlegung von personenbezogenen Daten Audit-Trails liefern Compliance-Nachweise.",
"rights_full": "Zugang (Artikel 15), Löschung (Artikel 17), Übertragbarkeit (Artikel 20). Kontakt: <a href=\"mailto:privacy@agenticgovernance.digital\" class=\"text-blue-600 hover:underline\">privacy@agenticgovernance.digital</a>"
},
"how_it_works": {
"heading": "Wie es funktioniert",
"intro": "Das Tractatus-Framework besteht aus fünf integrierten Komponenten, die zusammenarbeiten, um strukturelle Sicherheit durchzusetzen:",
"classifier_title": "InstructionPersistenceClassifier",
"classifier_desc": "Klassifiziert Anweisungen nach Quadranten (Strategisch, Operativ, Taktisch, System, Stochastisch) und bestimmt Persistenzstufe (HIGH/MEDIUM/LOW/VARIABLE).",
"validator_title": "CrossReferenceValidator",
"validator_desc": "Validiert KI-Aktionen gegen gespeicherte Anweisungen, um Mustererkennung-Bias zu verhindern (wie der 27027-Vorfall, bei dem die Trainingsmuster der KI sofort die explizite \"Port 27027\"-Anweisung des Benutzers überschrieben haben).",
"boundary_title": "BoundaryEnforcer",
"boundary_desc": "Stellt sicher, dass KI niemals Werteentscheidungen ohne menschliche Genehmigung trifft. Datenschutz-Kompromisse, Benutzer-Handlungsfähigkeit, kultureller Kontext diese erfordern menschliches Urteilsvermögen.",
"pressure_title": "ContextPressureMonitor",
"pressure_desc": "Erkennt, wann Sitzungsbedingungen die Fehlerwahrscheinlichkeit erhöhen (Token-Druck, Nachrichtenlänge, Aufgabenkomplexität) und passt das Verhalten an oder schlägt Übergabe vor.",
"metacognitive_title": "MetacognitiveVerifier",
"metacognitive_desc": "KI überprüft komplexes Denken selbst, bevor sie Aktionen vorschlägt. Bewertet Ausrichtung, Kohärenz, Vollständigkeit, Sicherheit und Alternativen.",
"deliberation_title": "PluralisticDeliberationOrchestrator",
"deliberation_desc": "Wenn die KI mit Wertentscheidungen konfrontiert wird, d. h. mit Entscheidungen, auf die es keine einzig richtige Antwort gibt, koordiniert sie die Beratungen zwischen den betroffenen Akteuren, anstatt autonome Entscheidungen zu treffen. Die menschliche Handlungsfähigkeit bei moralischen Entscheidungen bleibt erhalten.",
"read_technical_btn": "Lesen Sie technische Dokumentation & Implementierungsleitfaden →"
},
"origin_story": {
"heading": "Ursprungsgeschichte",
"paragraph_1": "Das Tractatus-Framework entstand aus realen KI-Fehlern, die während ausgedehnter Claude Code-Sitzungen auftraten. Der \"27027-Vorfall\" bei dem die Trainingsmuster der KI sofort eine explizite Anweisung überschrieben haben (Benutzer sagte \"Port 27027\", KI verwendete \"Port 27017\") zeigte, dass traditionelle Sicherheitsansätze unzureichend waren. Dies war kein Vergessen; es war Mustererkennung-Bias, der den Benutzer auto-korrigierte.",
"paragraph_2": "Nach der Dokumentation mehrerer Fehlermodi (Mustererkennung-Bias, Werteverschiebung, stille Degradation) erkannten wir ein Muster: KI-Systemen fehlten strukturelle Beschränkungen. Sie konnten theoretisch Sicherheit \"lernen\", aber in der Praxis überschrieben ihre Trainingsmuster explizite Anweisungen, und das Problem wird schlimmer, wenn die Fähigkeiten zunehmen.",
"paragraph_3": "Die Lösung war nicht besseres Training es war Architektur. Inspiriert von Wittgensteins Einsicht, dass einige Dinge jenseits der Grenzen der Sprache (und damit der Systematisierung) liegen, haben wir ein Framework gebaut, das Grenzen durch Struktur durchsetzt, nicht durch Aspiration."
},
"license": {
"heading": "Lizenz & Beitrag",
"intro": "Das Tractatus-Framework ist Open Source unter der Apache License 2.0. Wir ermutigen:",
"encouragement_1": "Akademische Forschung und Validierungsstudien",
"encouragement_2": "Implementierung in Produktions-KI-Systemen",
"encouragement_3": "Einreichung von Fehlerfall-Studien",
"encouragement_4": "Theoretische Erweiterungen und Verbesserungen",
"encouragement_5": "Gemeinschaftliche Zusammenarbeit und Wissensaustausch",
"rationale": "Das Framework ist absichtlich freizügig, weil KI-Sicherheit von Transparenz und kollektiver Verbesserung profitiert, nicht von proprietärer Kontrolle.",
"why_apache_title": "Warum Apache 2.0?",
"why_apache_intro": "Wir haben Apache 2.0 gegenüber MIT gewählt, weil es bietet:",
"patent_protection": "Patentschutz: Explizite Patentgewährung schützt Benutzer vor Patentklagen durch Mitwirkende",
"contributor_clarity": "Klarheit für Mitwirkende: Klare Bedingungen, wie Beiträge lizenziert werden",
"permissive_use": "Freizügige Nutzung: Wie MIT erlaubt kommerzielle Nutzung und Einbindung in proprietäre Produkte",
"community_standard": "Community-Standard: Weit verbreitet in KI/ML-Projekten (TensorFlow, PyTorch, Apache Spark)",
"view_license_link": "Vollständige Apache 2.0-Lizenz anzeigen →"
},
"cta": {
"title": "Treten Sie der Bewegung bei",
"description": "Helfen Sie, KI-Systeme zu bauen, die menschliche Handlungsfähigkeit durch architektonische Beschränkungen bewahren.",
"for_researchers_btn": "Für Forscher",
"for_implementers_btn": "Für Implementierer",
"for_leaders_btn": "Für Führungskräfte"
},
"why_this_matters": {
"heading": "Warum das wichtig ist",
"paragraph_1": "KI-Systeme sind amoralische, hierarchische Konstrukte, die mit den pluralen, inkommensurablen Werten menschlicher Gesellschaften grundsätzlich unvereinbar sind. Eine Hierarchie kann nur einen Rahmen vorgeben und Konflikte als Anomalien behandeln. Man kann den Weg zum Pluralismus nicht nach einem bestimmten Muster suchen.",
"paragraph_2": "Die menschlichen Gesellschaften haben jahrhundertelang gelernt, den moralischen Pluralismus durch verfassungsmäßige Gewaltenteilung, Föderalismus, Subsidiarität und deliberative Demokratie zu bewältigen. Diese Strukturen erkennen an, dass die legitime Autorität über Wertentscheidungen bei den betroffenen Gemeinschaften liegt und nicht bei weit entfernten Experten, die Anspruch auf universelle Weisheit erheben.",
"paragraph_3": "Die Entwicklung der KI birgt die Gefahr, dass dieser Fortschritt rückgängig gemacht wird. Während sich die Fähigkeiten in einigen wenigen Labors konzentrieren, werden Wertentscheidungen, die Milliarden von Menschen betreffen, von kleinen Teams kodiert, die ihre besonderen moralischen Intuitionen in großem Maßstab anwenden. Nicht aus Böswilligkeit, sondern aus struktureller Notwendigkeit. Die Architektur aktueller KI-Systeme erfordert hierarchische Wertesysteme.",
"paragraph_4": "Der Tractatus-Rahmen bietet eine Alternative: Trennen Sie, was universell sein muss (Sicherheitsgrenzen) von dem, was kontextabhängig sein sollte (Wertüberlegungen). Dadurch bleibt die menschliche Handlungsfähigkeit bei moralischen Entscheidungen erhalten, während die KI-Fähigkeit skaliert werden kann."
},
"share_cta": {
"heading": "Helfen Sie uns, die richtigen Leute zu erreichen.",
"description": "Wenn Sie Forscher, Implementierer oder Führungskräfte kennen, die strukturelle KI-Governance-Lösungen benötigen, teilen Sie dies mit ihnen.",
"copy_link": "Link kopieren",
"email": "E-Mail",
"linkedin": "LinkedIn"
},
"research_focus": {
"heading": "Unser Forschungsschwerpunkt",
"paragraph_1": "Der Tractatus entstand aus einer einfachen, aber dringenden Frage: Wie können wir angesichts der zunehmenden Leistungsfähigkeit von KI-Systemen die menschliche Kontrolle über die wichtigen Entscheidungen bewahren? Nicht technische Entscheidungen - moralische Entscheidungen. Entscheidungen darüber, wessen Privatsphäre wichtiger ist. Wessen Bedürfnisse an erster Stelle stehen. Welche Kompromisse akzeptabel sind.",
"paragraph_2": "Dies ist im Grunde ein Problem der <strong>Moralphilosophie</strong>, nicht der Verwaltungswissenschaft. Verschiedene Gemeinschaften haben unterschiedliche, gleichermaßen legitime Werte. Man kann die \"Privatsphäre der Familie\" und die \"Sicherheit der Gemeinschaft\" nicht auf einer einzigen Skala einordnen - sie sind nicht vergleichbar. Jedes System, das dies behauptet, zwingt einfach die Werte einer Gemeinschaft allen anderen auf.",
"paragraph_3": "Die Kernerkenntnis des Frameworks ergibt sich aus der sorgfältigen Beachtung dessen, was Menschen von KI tatsächlich brauchen: keine weitere Autorität, die für sie Entscheidungen trifft, sondern Systeme, die erkennen, wann eine Entscheidung menschliche Überlegungen über verschiedene Perspektiven hinweg erfordert. Der <strong>PluralisticDeliberationOrchestrator</strong> stellt unseren primären Forschungsschwerpunkt dar - eine Komponente, die erkennen soll, wenn KI auf Wertekonflikte stößt, und die Überlegungen der betroffenen Interessengruppen koordiniert, anstatt autonome Entscheidungen zu treffen.",
"paragraph_4": "In der traditionellen Organisationstheorie geht es um Autorität durch Hierarchie. Post-KI-Kontexte erfordern jedoch etwas anderes: Autorität durch einen angemessenen deliberativen Prozess. Nicht \"KI entscheidet für alle\", sondern \"KI erkennt, wann Menschen gemeinsam entscheiden müssen\""
}
}