-We recognize this is one small step in addressing AI safety challenges. Explore the framework through the lens that resonates with your work.
-
-
+
diff --git a/public/locales/de/homepage.json b/public/locales/de/homepage.json
index 803cffc1..a9cafa04 100644
--- a/public/locales/de/homepage.json
+++ b/public/locales/de/homepage.json
@@ -8,10 +8,10 @@
},
"value_prop": {
"heading": "Ein Ausgangspunkt",
- "text": "Anstatt zu hoffen, dass KI-Systeme \"sich richtig verhalten\", schlagen wir strukturelle Beschränkungen vor, bei denen bestimmte Entscheidungstypen menschliches Urteilsvermögen erfordern. Diese architektonischen Grenzen können sich an individuelle, organisatorische und gesellschaftliche Normen anpassen—und schaffen eine Grundlage für begrenzte KI-Operationen, die möglicherweise sicherer mit dem Wachstum der Fähigkeiten skalieren."
+ "text": "Die Ausrichtung fortschrittlicher KI auf menschliche Werte gehört zu den folgenreichsten Herausforderungen, denen wir gegenüberstehen. Während das Wachstum der Fähigkeiten unter dem Momentum großer Technologiekonzerne beschleunigt, stehen wir vor einem kategorischen Imperativ: die menschliche Entscheidungsfreiheit bei Wertefragen bewahren oder riskieren, die Kontrolle vollständig abzugeben.
Anstatt zu hoffen, dass KI-Systeme \"sich richtig verhalten\", schlagen wir strukturelle Beschränkungen vor, bei denen bestimmte Entscheidungstypen menschliches Urteilsvermögen erfordern. Diese architektonischen Grenzen können sich an individuelle, organisatorische und gesellschaftliche Normen anpassen—und schaffen eine Grundlage für begrenzte KI-Operationen, die möglicherweise sicherer mit dem Wachstum der Fähigkeiten skalieren.
Wenn dieser Ansatz im großen Maßstab funktionieren kann, könnte Tractatus einen Wendepunkt darstellen—einen Weg, bei dem KI die menschlichen Fähigkeiten verbessert, ohne die menschliche Souveränität zu beeinträchtigen. Erkunden Sie das Framework aus der Perspektive, die mit Ihrer Arbeit resoniert."
},
"paths": {
- "intro": "Wir erkennen an, dass dies ein kleiner Schritt bei der Bewältigung der Herausforderungen der KI-Sicherheit ist. Erkunden Sie das Framework aus der Perspektive, die mit Ihrer Arbeit resoniert.",
+ "intro": "",
"researcher": {
"title": "Forscher",
"subtitle": "Akademische & technische Tiefe",
diff --git a/public/locales/en/homepage.json b/public/locales/en/homepage.json
index 7e21588b..688bd9e0 100644
--- a/public/locales/en/homepage.json
+++ b/public/locales/en/homepage.json
@@ -8,10 +8,10 @@
},
"value_prop": {
"heading": "A Starting Point",
- "text": "Instead of hoping AI systems \"behave correctly,\" we propose structural constraints where certain decision types require human judgment. These architectural boundaries can adapt to individual, organizational, and societal norms—creating a foundation for bounded AI operation that may scale more safely with capability growth."
+ "text": "Aligning advanced AI with human values is among the most consequential challenges we face. As capability growth accelerates under big tech momentum, we confront a categorical imperative: preserve human agency over values decisions, or risk ceding control entirely.
Instead of hoping AI systems \"behave correctly,\" we propose structural constraints where certain decision types require human judgment. These architectural boundaries can adapt to individual, organizational, and societal norms—creating a foundation for bounded AI operation that may scale more safely with capability growth.
If this approach can work at scale, Tractatus may represent a turning point—a path where AI enhances human capability without compromising human sovereignty. Explore the framework through the lens that resonates with your work."
},
"paths": {
- "intro": "We recognize this is one small step in addressing AI safety challenges. Explore the framework through the lens that resonates with your work.",
+ "intro": "",
"researcher": {
"title": "Researcher",
"subtitle": "Academic & technical depth",
diff --git a/public/locales/fr/homepage.json b/public/locales/fr/homepage.json
index f5fe6478..8cac4c9c 100644
--- a/public/locales/fr/homepage.json
+++ b/public/locales/fr/homepage.json
@@ -8,10 +8,10 @@
},
"value_prop": {
"heading": "Un Point de Départ",
- "text": "Au lieu d'espérer que les systèmes d'IA \"se comportent correctement\", nous proposons des contraintes structurelles où certains types de décisions nécessitent un jugement humain. Ces limites architecturales peuvent s'adapter aux normes individuelles, organisationnelles et sociétales—créant une fondation pour une opération d'IA délimitée qui pourrait évoluer plus sûrement avec la croissance des capacités."
+ "text": "L'alignement de l'IA avancée avec les valeurs humaines est parmi les défis les plus importants auxquels nous sommes confrontés. Alors que la croissance des capacités s'accélère sous l'élan des grandes entreprises technologiques, nous affrontons un impératif catégorique : préserver l'autonomie humaine sur les décisions de valeurs, ou risquer de céder complètement le contrôle.
Au lieu d'espérer que les systèmes d'IA \"se comportent correctement\", nous proposons des contraintes structurelles où certains types de décisions nécessitent un jugement humain. Ces limites architecturales peuvent s'adapter aux normes individuelles, organisationnelles et sociétales—créant une fondation pour une opération d'IA délimitée qui pourrait évoluer plus sûrement avec la croissance des capacités.
Si cette approche peut fonctionner à grande échelle, Tractatus pourrait représenter un tournant—un chemin où l'IA améliore la capacité humaine sans compromettre la souveraineté humaine. Explorez le framework à travers la perspective qui résonne avec votre travail."
},
"paths": {
- "intro": "Nous reconnaissons qu'il ne s'agit que d'un petit pas pour relever les défis de la sécurité de l'IA. Explorez le framework à travers la perspective qui résonne avec votre travail.",
+ "intro": "",
"researcher": {
"title": "Chercheur",
"subtitle": "Profondeur académique & technique",