diff --git a/public/locales/de/about.json b/public/locales/de/about.json index 539006ad..ea49a71e 100644 --- a/public/locales/de/about.json +++ b/public/locales/de/about.json @@ -22,6 +22,8 @@ "sovereignty_desc": "Einzelpersonen und Gemeinschaften müssen die Kontrolle über Entscheidungen behalten, die ihre Daten, Privatsphäre und Werte betreffen. KI-Systeme müssen menschliche Handlungsfähigkeit bewahren, nicht erodieren.", "transparency_title": "Transparenz", "transparency_desc": "Alle KI-Entscheidungen müssen erklärbar, überprüfbar und rückgängig zu machen sein. Keine Black Boxes. Benutzer verdienen es zu verstehen, wie und warum Systeme Entscheidungen treffen, und haben die Macht, sie zu überschreiben.", + "pluralism_title": "Pluralismus", + "pluralism_desc": "Verschiedene Gemeinschaften vertreten unterschiedliche, gleichermaßen legitime Werte. KI-Systeme müssen diesen Pluralismus strukturell respektieren und nicht so tun, als ob ein Rahmen für alle Kontexte geeignet wäre. Wertentscheidungen erfordern Beratungen zwischen den betroffenen Interessengruppen, keine autonomen KI-Entscheidungen.", "harmlessness_title": "Harmlosigkeit", "harmlessness_desc": "KI-Systeme dürfen keinen Schaden durch Handeln oder Unterlassen verursachen. Dies umfasst die Verhinderung von Drift, die Erkennung von Degradation und die Durchsetzung von Grenzen gegen Werteerosion.", "community_title": "Gemeinschaft", @@ -41,6 +43,8 @@ "pressure_desc": "Erkennt, wann Sitzungsbedingungen die Fehlerwahrscheinlichkeit erhöhen (Token-Druck, Nachrichtenlänge, Aufgabenkomplexität) und passt das Verhalten an oder schlägt Übergabe vor.", "metacognitive_title": "MetacognitiveVerifier", "metacognitive_desc": "KI überprüft komplexes Denken selbst, bevor sie Aktionen vorschlägt. Bewertet Ausrichtung, Kohärenz, Vollständigkeit, Sicherheit und Alternativen.", + "deliberation_title": "PluralisticDeliberationOrchestrator", + "deliberation_desc": "Wenn die KI mit Wertentscheidungen konfrontiert wird, d. h. mit Entscheidungen, auf die es keine einzig richtige Antwort gibt, koordiniert sie die Beratungen zwischen den betroffenen Akteuren, anstatt autonome Entscheidungen zu treffen. Die menschliche Handlungsfähigkeit bei moralischen Entscheidungen bleibt erhalten.", "read_technical_btn": "Lesen Sie technische Dokumentation & Implementierungsleitfaden →" }, "origin_story": { diff --git a/public/locales/fr/about.json b/public/locales/fr/about.json index 6d53c398..826f4d02 100644 --- a/public/locales/fr/about.json +++ b/public/locales/fr/about.json @@ -22,6 +22,8 @@ "sovereignty_desc": "Les individus et les communautés doivent conserver le contrôle des décisions affectant leurs données, leur vie privée et leurs valeurs. Les systèmes IA doivent préserver l'agence humaine, ne pas l'éroder.", "transparency_title": "Transparence", "transparency_desc": "Toutes les décisions de l'IA doivent être explicables, auditables et réversibles. Pas de boîtes noires. Les utilisateurs méritent de comprendre comment et pourquoi les systèmes prennent des décisions, et ont le pouvoir de les annuler.", + "pluralism_title": "Pluralisme", + "pluralism_desc": "Différentes communautés ont des valeurs différentes, tout aussi légitimes. Les systèmes d'IA doivent respecter ce pluralisme de manière structurelle, et non pas en prétendant qu'un cadre unique peut servir tous les contextes. Les décisions relatives aux valeurs nécessitent des délibérations entre les parties prenantes concernées, et non des choix autonomes de la part de l'IA.", "harmlessness_title": "Innocuité", "harmlessness_desc": "Les systèmes IA ne doivent pas causer de dommages par action ou inaction. Cela comprend la prévention de la dérive, la détection de la dégradation et l'application de limites contre l'érosion des valeurs.", "community_title": "Communauté", @@ -41,6 +43,8 @@ "pressure_desc": "Détecte quand les conditions de session augmentent la probabilité d'erreur (pression de tokens, longueur de message, complexité de tâche) et ajuste le comportement ou suggère un transfert.", "metacognitive_title": "MetacognitiveVerifier", "metacognitive_desc": "L'IA auto-vérifie le raisonnement complexe avant de proposer des actions. Évalue l'alignement, la cohérence, l'exhaustivité, la sécurité et les alternatives.", + "deliberation_title": "PluralisticDeliberationOrchestrator", + "deliberation_desc": "Lorsque l'IA est confrontée à des décisions de valeur, des choix sans réponse correcte unique, elle coordonne les délibérations entre les parties prenantes concernées plutôt que de faire des choix autonomes. Préserve la capacité de l'homme à prendre des décisions morales.", "read_technical_btn": "Lire la Documentation Technique & le Guide d'Implémentation →" }, "origin_story": {