diff --git a/public/about.html b/public/about.html index 199692d8..7621c6b2 100644 --- a/public/about.html +++ b/public/about.html @@ -215,7 +215,7 @@

Your Rights (GDPR)

Access (Article 15), Deletion (Article 17), Portability (Article 20). - Contact: john.stroh.nz@pm.me + Contact: privacy@agenticgovernance.digital

diff --git a/public/locales/de/about.json b/public/locales/de/about.json index c910c1fe..b8dbd810 100644 --- a/public/locales/de/about.json +++ b/public/locales/de/about.json @@ -40,7 +40,8 @@ "mana": "mana", "mana_translation": "(Autorität und Würde)", "paragraph_2_end": "konkrete Anleitungen für die Entwicklung von KI-Systemen geben, die das menschliche Handeln in verschiedenen kulturellen Kontexten respektieren.", - "read_more_link": "Lesen Sie unseren vollständigen Ansatz zu Te Tiriti und indigener Datensouveränität →" + "read_more_link": "Lesen Sie unseren vollständigen Ansatz zu Te Tiriti und indigener Datensouveränität →", + "paragraph_2_full": "Dies ist keine performative Anerkennung. Konzepte wie rangatiratanga (Selbstbestimmung), kaitiakitanga (Vormundschaft) und mana (Autorität und Würde) bieten konkrete Anleitungen für den Aufbau von KI-Systemen, die die menschliche Handlungsfähigkeit in allen kulturellen Kontexten respektieren. Lesen Sie unseren vollständigen Ansatz zu Te Tiriti und indigener Datensouveränität →" } }, "data_practices": { @@ -54,8 +55,9 @@ "retention_desc": "Konfigurierbare Aufbewahrung (Standard 90 Tage). Organisationen können die Aufbewahrung basierend auf ihren Compliance-Anforderungen festlegen.", "rights_title": "Ihre Rechte (DSGVO)", "rights_desc": "Zugang (Artikel 15), Löschung (Artikel 17), Übertragbarkeit (Artikel 20).", - "contact_email": "john.stroh.nz@pm.me", - "architectural_note": "Architektonisches Prinzip: Datenminimierung ist eine Systembeschränkung, keine Richtlinienhoffnung. BoundaryEnforcer verhindert strukturell die Offenlegung von personenbezogenen Daten – Audit-Trails liefern Compliance-Nachweise." + "contact_email": "privacy@agenticgovernance.digital", + "architectural_note": "Architektonisches Prinzip: Datenminimierung ist eine Systembeschränkung, keine Richtlinienhoffnung. BoundaryEnforcer verhindert strukturell die Offenlegung von personenbezogenen Daten – Audit-Trails liefern Compliance-Nachweise.", + "rights_full": "Zugang (Artikel 15), Löschung (Artikel 17), Übertragbarkeit (Artikel 20). Kontakt: privacy@agenticgovernance.digital" }, "how_it_works": { "heading": "Wie es funktioniert", @@ -117,5 +119,12 @@ "copy_link": "Link kopieren", "email": "E-Mail", "linkedin": "LinkedIn" + }, + "research_focus": { + "heading": "Unser Forschungsschwerpunkt", + "paragraph_1": "Der Tractatus entstand aus einer einfachen, aber dringenden Frage: Wie können wir angesichts der zunehmenden Leistungsfähigkeit von KI-Systemen die menschliche Kontrolle über die wichtigen Entscheidungen bewahren? Nicht technische Entscheidungen - moralische Entscheidungen. Entscheidungen darüber, wessen Privatsphäre wichtiger ist. Wessen Bedürfnisse an erster Stelle stehen. Welche Kompromisse akzeptabel sind.", + "paragraph_2": "Dies ist im Grunde ein Problem der Moralphilosophie, nicht der Verwaltungswissenschaft. Verschiedene Gemeinschaften haben unterschiedliche, gleichermaßen legitime Werte. Man kann die \"Privatsphäre der Familie\" und die \"Sicherheit der Gemeinschaft\" nicht auf einer einzigen Skala einordnen - sie sind nicht vergleichbar. Jedes System, das dies behauptet, zwingt einfach die Werte einer Gemeinschaft allen anderen auf.", + "paragraph_3": "Die Kernerkenntnis des Frameworks ergibt sich aus der sorgfältigen Beachtung dessen, was Menschen von KI tatsächlich brauchen: keine weitere Autorität, die für sie Entscheidungen trifft, sondern Systeme, die erkennen, wann eine Entscheidung menschliche Überlegungen über verschiedene Perspektiven hinweg erfordert. Der PluralisticDeliberationOrchestrator stellt unseren primären Forschungsschwerpunkt dar - eine Komponente, die erkennen soll, wenn KI auf Wertekonflikte stößt, und die Überlegungen der betroffenen Interessengruppen koordiniert, anstatt autonome Entscheidungen zu treffen.", + "paragraph_4": "In der traditionellen Organisationstheorie geht es um Autorität durch Hierarchie. Post-KI-Kontexte erfordern jedoch etwas anderes: Autorität durch einen angemessenen deliberativen Prozess. Nicht \"KI entscheidet für alle\", sondern \"KI erkennt, wann Menschen gemeinsam entscheiden müssen\"" } } diff --git a/public/locales/en/about.json b/public/locales/en/about.json index 9f1d5fc5..1c0ee0f3 100644 --- a/public/locales/en/about.json +++ b/public/locales/en/about.json @@ -16,6 +16,13 @@ "quote_source": "— Ludwig Wittgenstein, Tractatus (§7)", "applied": "Applied to AI: \"What cannot be systematized must not be automated.\"" }, + "research_focus": { + "heading": "Our Research Focus", + "paragraph_1": "Tractatus emerged from a simple but urgent question: as AI systems become more capable, how do we preserve human control over the decisions that matter? Not technical decisions—moral ones. Decisions about whose privacy matters more. Whose needs come first. What trade-offs are acceptable.", + "paragraph_2": "This is fundamentally a problem of moral philosophy, not management science. Different communities hold genuinely different, equally legitimate values. You cannot rank \"family privacy\" against \"community safety\" on a single scale—they are incommensurable. Any system claiming to do so is simply imposing one community's values on everyone else.", + "paragraph_3": "The framework's core insight comes from attending carefully to what humans actually need from AI: not another authority making decisions for them, but systems that recognize when a decision requires human deliberation across different perspectives. The PluralisticDeliberationOrchestrator represents our primary research focus—a component designed to detect when AI encounters values conflicts and coordinate deliberation among affected stakeholders rather than making autonomous choices.", + "paragraph_4": "Traditional organizational theory addresses authority through hierarchy. But post-AI contexts require something different: authority through appropriate deliberative process. Not \"AI decides for everyone,\" but \"AI recognizes when humans must decide together.\"" + }, "why_this_matters": { "heading": "Why This Matters", "paragraph_1": "AI systems are amoral hierarchical constructs, fundamentally incompatible with the plural, incommensurable values human societies exhibit. A hierarchy can only impose one framework and treat conflicts as anomalies. You cannot pattern-match your way to pluralism.", @@ -40,6 +47,7 @@ "heading": "Digital Sovereignty & Te Tiriti o Waitangi", "paragraph_1": "The principle that communities should control their own data and technology isn't new—it has deep roots in indigenous frameworks that predate Western tech by centuries. The Tractatus Framework is developed in Aotearoa New Zealand, and we recognize Te Tiriti o Waitangi (the Treaty of Waitangi, 1840) as establishing principles of partnership, protection, and participation that directly inform how we think about AI sovereignty.", "paragraph_2": "This isn't performative acknowledgment. Concepts like", + "paragraph_2_full": "This isn't performative acknowledgment. Concepts like rangatiratanga (self-determination), kaitiakitanga (guardianship), and mana (authority and dignity) provide concrete guidance for building AI systems that respect human agency across cultural contexts. Read our complete approach to Te Tiriti and indigenous data sovereignty →", "rangatiratanga": "rangatiratanga", "rangatiratanga_translation": "(self-determination)", "kaitiakitanga": "kaitiakitanga", @@ -61,7 +69,8 @@ "retention_desc": "Configurable retention (default 90 days). Organizations can set retention based on their compliance requirements.", "rights_title": "Your Rights (GDPR)", "rights_desc": "Access (Article 15), Deletion (Article 17), Portability (Article 20).", - "contact_email": "john.stroh.nz@pm.me", + "rights_full": "Access (Article 15), Deletion (Article 17), Portability (Article 20). Contact: privacy@agenticgovernance.digital", + "contact_email": "privacy@agenticgovernance.digital", "architectural_note": "Architectural principle: Data minimization is a system constraint, not a policy hope. BoundaryEnforcer prevents PII exposure structurally—audit trails provide compliance evidence." }, "how_it_works": { diff --git a/public/locales/fr/about.json b/public/locales/fr/about.json index 88caff6f..325ffdb8 100644 --- a/public/locales/fr/about.json +++ b/public/locales/fr/about.json @@ -40,7 +40,8 @@ "mana": "mana", "mana_translation": "(autorité et dignité)", "paragraph_2_end": "fournir des conseils concrets pour construire des systèmes d'intelligence artificielle qui respectent l'action humaine dans tous les contextes culturels.", - "read_more_link": "Lire notre approche complète de Te Tiriti et de la souveraineté des données des populations autochtones →" + "read_more_link": "Lire notre approche complète de Te Tiriti et de la souveraineté des données des populations autochtones →", + "paragraph_2_full": "Il ne s'agit pas d'une reconnaissance performative. Des concepts tels que rangatiratanga (autodétermination), kaitiakitanga (tutelle) et mana (autorité et dignité) fournissent des orientations concrètes pour construire des systèmes d'IA qui respectent l'agence humaine dans tous les contextes culturels. Lire notre approche complète de Te Tiriti et de la souveraineté des données indigènes →" } }, "data_practices": { @@ -54,8 +55,9 @@ "retention_desc": "Rétention configurable (par défaut 90 jours). Les organisations peuvent définir la rétention en fonction de leurs exigences de conformité.", "rights_title": "Vos droits (RGPD)", "rights_desc": "Accès (Article 15), Suppression (Article 17), Portabilité (Article 20).", - "contact_email": "john.stroh.nz@pm.me", - "architectural_note": "Principe architectural : La minimisation des données est une contrainte système, pas un espoir de politique. BoundaryEnforcer empêche structurellement l'exposition des DCP — les pistes d'audit fournissent des preuves de conformité." + "contact_email": "privacy@agenticgovernance.digital", + "architectural_note": "Principe architectural : La minimisation des données est une contrainte système, pas un espoir de politique. BoundaryEnforcer empêche structurellement l'exposition des DCP — les pistes d'audit fournissent des preuves de conformité.", + "rights_full": "Accès (article 15), Suppression (article 17), Portabilité (article 20). Contact : privacy@agenticgovernance.digital" }, "how_it_works": { "heading": "Comment Ça Fonctionne", @@ -117,5 +119,12 @@ "copy_link": "Copier le lien", "email": "E-mail", "linkedin": "LinkedIn" + }, + "research_focus": { + "heading": "Nos axes de recherche", + "paragraph_1": "Le Tractatus est né d'une question simple mais urgente : alors que les systèmes d'IA deviennent de plus en plus performants, comment préserver le contrôle humain sur les décisions importantes ? Pas des décisions techniques, mais des décisions morales. Les décisions relatives à la protection de la vie privée des uns et des autres. Les besoins de qui passent en premier. Quels sont les compromis acceptables ?", + "paragraph_2": "Il s'agit fondamentalement d'un problème de philosophie morale, et non de science de la gestion. Des communautés différentes ont des valeurs véritablement différentes et tout aussi légitimes. Il n'est pas possible de classer la \"vie privée de la famille\" et la \"sécurité de la communauté\" sur une même échelle : elles sont incommensurables. Tout système qui prétend le faire ne fait qu'imposer les valeurs d'une communauté à toutes les autres.", + "paragraph_3": "L'idée centrale de ce cadre est de prêter attention à ce que les humains attendent réellement de l'IA : non pas une autre autorité prenant des décisions à leur place, mais des systèmes qui reconnaissent quand une décision nécessite une délibération humaine à travers différentes perspectives. Le PluralisticDeliberationOrchestrator représente notre principal axe de recherche : il s'agit d'un composant conçu pour détecter les cas où l'IA rencontre des conflits de valeurs et pour coordonner les délibérations entre les parties prenantes concernées plutôt que de faire des choix autonomes.", + "paragraph_4": "La théorie traditionnelle des organisations aborde l'autorité par le biais de la hiérarchie. Mais les contextes post-AI requièrent quelque chose de différent : l'autorité par le biais d'un processus délibératif approprié. Non pas \"l'IA décide pour tout le monde\", mais \"l'IA reconnaît quand les humains doivent décider ensemble\"" } }