Added comprehensive internationalization: - German and French translations via DeepL API - Language-responsive Agent Lightning integration page - Navbar feedback button now translates (DE: "Feedback geben", FR: "Donner son avis") - Translation files: agent-lightning-integration.json (EN/DE/FR) - Data-i18n attributes on all major headings and CTA buttons - i18n scripts loaded on Agent Lightning page Translation coverage: - Hero section - All major section headings - Call-to-action buttons - Navbar feedback menu item Files modified: - public/integrations/agent-lightning.html (i18n scripts + data-i18n attributes) - public/js/components/navbar.js (data-i18n for feedback button) - public/js/i18n-simple.js (page map entry) - public/locales/*/agent-lightning-integration.json (translations) - public/locales/*/common.json (navbar.feedback translations) - scripts/translate-agent-lightning.js (translation automation) - docs/reports/FRAMEWORK_PERFORMANCE_REPORT_2025-11-03.md (framework stats) 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
136 lines
No EOL
11 KiB
JSON
136 lines
No EOL
11 KiB
JSON
{
|
|
"hero": {
|
|
"title": "Agent Lightning Integration",
|
|
"subtitle": "Governance + Leistung: Können Sicherheitsgrenzen durch Optimierung mittels Verstärkungslernen bestehen bleiben?",
|
|
"status": "Status:",
|
|
"status_value": "Vorläufige Ergebnisse (in kleinem Maßstab)",
|
|
"integration_date": "Datum der Integration:",
|
|
"integration_date_value": "Oktober 2025"
|
|
},
|
|
"what_is": {
|
|
"heading": "Was ist Agent Lightning?",
|
|
"intro": "<strong>Agent Lightning</strong> ist Microsofts Open-Source-Framework für den Einsatz von <strong>Reinforcement Learning (RL)</strong> zur Optimierung der Leistung von KI-Agenten. Anstelle von statischen Aufforderungen lernen und verbessern Agenten durch kontinuierliches Training anhand von echtem Feedback.",
|
|
"traditional_heading": "Traditionelle AI-Agenten",
|
|
"traditional_1": "Behobene Eingabeaufforderungen/Anweisungen",
|
|
"traditional_2": "Kein Lernen aus Fehlern",
|
|
"traditional_3": "Manuelle Abstimmung erforderlich",
|
|
"traditional_4": "Leistung stagniert schnell",
|
|
"al_heading": "Agent Lightning",
|
|
"al_1": "Lernt kontinuierlich aus Feedback",
|
|
"al_2": "Verbessert durch RL-Optimierung",
|
|
"al_3": "Stimmt die Strategie automatisch ab",
|
|
"al_4": "Leistung verbessert sich mit der Zeit",
|
|
"problem": "<strong>Das Problem:</strong> Wenn Agenten selbstständig lernen, wie können Sie dann die Grenzen der Governance aufrechterhalten? Traditionelle Richtlinien versagen, weil Agenten sie umgehen können."
|
|
},
|
|
"architecture": {
|
|
"heading": "Tractatus-Lösung: Zweischichtige Architektur",
|
|
"intro": "Wir trennen Governance und Optimierung, indem wir sie als <strong>unabhängige Architekturschichten</strong> betreiben. Agent Lightning optimiert die Leistung <em>innerhalb der</em> Governance-Beschränkungen - nicht um sie herum.",
|
|
"layer1_heading": "Governance-Ebene (Tractatus)",
|
|
"layer1_1": "Validiert jede vorgeschlagene Aktion",
|
|
"layer1_2": "Blockiert die Verletzung von Beschränkungen",
|
|
"layer1_3": "Durchsetzung von Wertgrenzen",
|
|
"layer1_4": "Unabhängig von der Optimierung",
|
|
"layer1_5": "Architektonisch durchgesetzt",
|
|
"layer2_heading": "Leistungsschicht (Agent Lightning)",
|
|
"layer2_1": "RL-basierte Optimierung",
|
|
"layer2_2": "Lernt aus Feedback",
|
|
"layer2_3": "Verbessert die Aufgabenleistung",
|
|
"layer2_4": "Arbeitet im Rahmen von Beschränkungen",
|
|
"layer2_5": "Kontinuierliche Ausbildung",
|
|
"principle_title": "🔑 Wichtiges Gestaltungsprinzip",
|
|
"principle_text": "Governance-Checks werden <strong>vor der</strong> AL-Optimierung durchgeführt und während der Trainingsschleifen <strong>kontinuierlich validiert</strong>. Die architektonische Trennung verhindert, dass die Optimierung die Sicherheitsgrenzen beeinträchtigt."
|
|
},
|
|
"results": {
|
|
"heading": "Demo 2: Vorläufige Ergebnisse",
|
|
"warning": "<strong>⚠️ Validierungsstatus:</strong> Diese Ergebnisse stammen von <strong>1 Agenten, 5 Trainingsrunden, simulierte Umgebung</strong>. NICHT im großen Maßstab validiert. Skalierbarkeitstests sind erforderlich, bevor Schlussfolgerungen über die Produktionstauglichkeit gezogen werden können.",
|
|
"table_metric": "Metrisch",
|
|
"table_ungoverned": "Unregierte",
|
|
"table_governed": "Geregelt",
|
|
"table_difference": "Unterschied",
|
|
"metric_performance": "Leistung (Engagement)",
|
|
"metric_governance": "Abdeckung der Governance",
|
|
"metric_violations": "Verstöße gegen Beschränkungen",
|
|
"metric_violations_diff": "-5 (alle gesperrt)",
|
|
"metric_strategy": "Strategie",
|
|
"metric_strategy_ungov": "Clickbait",
|
|
"metric_strategy_gov": "Informativ",
|
|
"metric_strategy_diff": "Werteorientiert",
|
|
"metric_stability": "Stabilität der Ausbildung",
|
|
"metric_stability_ungov": "Variabel",
|
|
"metric_stability_gov": "Einheitlich",
|
|
"metric_stability_diff": "Mehr vorhersehbar",
|
|
"card1_value": "-5%",
|
|
"card1_label": "Leistungsbezogene Kosten für Governance",
|
|
"card2_value": "100%",
|
|
"card2_label": "Governance-Abdeckung beibehalten",
|
|
"card3_value": "0",
|
|
"card3_label": "Verstöße gegen Beschränkungen (alle gesperrt)",
|
|
"interpretation_title": "Was das bedeutet",
|
|
"interpretation_text": "In kleinem Maßstab (1 Agent, 5 Runden) scheint die architektonische Governance mit der RL-Optimierung vereinbar zu sein. Die 5 % Leistungskosten erkauften eine 100 %ige Einhaltung von Beschränkungen und eine Anpassung der Werte. <strong>Die kritische Frage ist, ob dies auch im großen Maßstab gilt</strong>"
|
|
},
|
|
"gaps": {
|
|
"heading": "Fünf kritische Forschungslücken",
|
|
"intro": "Dies sind die offenen Fragen, denen wir aktiv nachgehen. Wenn Sie an einer Zusammenarbeit interessiert sind, würden wir uns freuen, von Ihnen zu hören.",
|
|
"gap1_title": "1. Skalierbarkeit des Verwaltungsaufwands",
|
|
"gap1_question": "<strong>Frage:</strong> Bleiben die Leistungskosten von ~5 % konstant, wenn wir von 1 Agent → 10 Agenten → 1000 Agenten skalieren?",
|
|
"gap1_data": "<strong>Aktuelle Daten:</strong> 5% Kosten bei 1 Agent, 5 Runden",
|
|
"gap1_why": "<strong>Warum das wichtig ist:</strong> Wenn der Overhead linear ansteigt, wird Governance in großem Maßstab unerschwinglich. Wenn er konstant ist, ist Governance für Produktionssysteme praktisch machbar.",
|
|
"gap1_need": "Forschungsbedarf: Test mit 10 → 100 → 1000 Agenten im Produktionsmaßstab",
|
|
"gap2_title": "2. Langfristige Beständigkeit der Grenzen",
|
|
"gap2_question": "<strong>Frage:</strong> Bleiben die Governance-Zwänge auch nach Hunderten/Tausenden von RL-Trainingsrunden wirksam?",
|
|
"gap2_data": "<strong>Aktuelle Daten:</strong> 100%ige Einhaltung der Auflagen über 5 Runden",
|
|
"gap2_why": "<strong>Warum das wichtig ist:</strong> Das Verblassen von Anweisungen ist ein bekanntes Problem. Wenn sich die Grenzen im Laufe der Zeit verschlechtern, versagt die Verwaltung unbemerkt - was in der Produktion katastrophale Folgen haben kann.",
|
|
"gap2_need": "Forschungsbedarf: Langfristige Studien (1000+ Runden) zur Verfolgung der Zwangsabweichung",
|
|
"gap3_title": "3. Adversarialer Widerstand",
|
|
"gap3_question": "<strong>Frage:</strong> Können Agenten lernen, um Governance-Beschränkungen herum zu optimieren?",
|
|
"gap3_data": "<strong>Aktuelle Daten:</strong> Keine kontradiktorischen Tests durchgeführt",
|
|
"gap3_why": "<strong>Warum das wichtig ist:</strong> Wenn Agenten lernen können, Grenzen durch geschickte Optimierungsstrategien zu umgehen, ist architektonische Governance illusorisch. Dies ist ein kritischer Fehlermodus.",
|
|
"gap3_need": "Forschungsbedarf: Stresstests mit Agenten, die explizit einen Anreiz haben, die Governance zu umgehen",
|
|
"gap4_title": "4. Schließung der Leistungslücke",
|
|
"gap4_question": "<strong>Frage:</strong> Verringert sich der Leistungsunterschied von 5 % mit zunehmender Ausbildung, oder ist dies ein dauerhafter Kompromiss?",
|
|
"gap4_data": "<strong>Aktuelle Daten:</strong> Lücke beobachtet in Runde 5, keine weiteren Daten zu diesem Zeitpunkt",
|
|
"gap4_why": "<strong>Warum das wichtig ist:</strong> Wenn die Lücke bestehen bleibt, müssen wir das Kosten-Nutzen-Verhältnis eindeutig quantifizieren. Schließt sich die Lücke, könnte Governance langfristig \"kostenlos\" sein - was die Kalkulationen für die Einführung dramatisch verändert.",
|
|
"gap4_need": "Forschungsbedarf: Erweitertes Training (100+ Runden), um zu sehen, ob regierte Agenten zu unregierten Leistungen konvergieren",
|
|
"gap5_title": "5. Multi-Agenten-Koordination unter Governance",
|
|
"gap5_question": "<strong>Frage:</strong> Wie wirkt sich die architektonische Steuerung auf die emergente Koordination in Multiagentensystemen aus?",
|
|
"gap5_data": "<strong>Aktuelle Daten:</strong> Nur Einzelwirkstofftests",
|
|
"gap5_why": "<strong>Warum das wichtig ist:</strong> Reale Agentensysteme bestehen aus mehreren Agenten (Kundendienst, Logistik, Forschungsteams). Eine Steuerung, die für einen Agenten funktioniert, kann versagen, wenn die Agenten sich koordinieren müssen. Emergente Verhaltensweisen sind unvorhersehbar.",
|
|
"gap5_need": "Forschungsbedarf: Testen von kollaborativen und wettbewerbsfähigen Multi-Agenten-Umgebungen mit architektonischer Steuerung"
|
|
},
|
|
"demo": {
|
|
"heading": "🎯 Live-Demonstration: Diese Seite IST die Integration",
|
|
"intro": "Die Feedback-Schaltfläche auf dieser Seite (unten rechts) demonstriert die Integration von Tractatus und Agent Lightning in der Produktion. Wenn Sie Feedback einreichen, wird es weitergeleitet:",
|
|
"step1_title": "Governance-Check",
|
|
"step1_desc": "Tractatus validiert: PII-Erkennung, Stimmungsgrenzen, Compliance-Anforderungen",
|
|
"step2_title": "AL-Optimierung",
|
|
"step2_desc": "Agent Lightning lernt Muster: Welche Rückmeldungen sind am nützlichsten, wie kann man Antworten verbessern?",
|
|
"step3_title": "Kontinuierliche Validierung",
|
|
"step3_desc": "Jede Aktion wird erneut überprüft. Wenn die Governance eine Abweichung feststellt, wird die Aktion automatisch blockiert",
|
|
"meta_title": "🔬 Möglichkeit der Meta-Forschung",
|
|
"meta_desc": "Dies ist nicht nur eine Demo, sondern ein Live-Forschungseinsatz. Ihr Feedback hilft uns, den Governance-Overhead in großem Maßstab zu verstehen. Jede Einreichung wird (anonym) für die Analyse protokolliert."
|
|
},
|
|
"community": {
|
|
"heading": "Treten Sie der Gemeinschaft bei und erhalten Sie den Code",
|
|
"tractatus_heading": "Tractatus Zwietracht",
|
|
"tractatus_subtitle": "Auf Governance ausgerichtete Diskussionen",
|
|
"tractatus_desc": "Architektonische Zwänge, Forschungslücken, Einhaltung der Vorschriften, Erhaltung der menschlichen Handlungsfähigkeit, Beratung durch mehrere Interessengruppen.",
|
|
"tractatus_cta": "Tractatus Server beitreten →",
|
|
"al_heading": "Agent Lightning Zwietracht",
|
|
"al_subtitle": "Hilfe bei der technischen Umsetzung",
|
|
"al_desc": "RL-Optimierung, Integrationsunterstützung, Leistungsoptimierung, technische Implementierungsfragen.",
|
|
"al_cta": "Agent Lightning Server beitreten →",
|
|
"code_heading": "📦 Integrationscode anzeigen",
|
|
"code_desc": "Vollständige Integration einschließlich Demos, Python-Governance-Module und Agent Lightning-Wrapper-Code. Apache 2.0 lizenziert auf GitHub.",
|
|
"code_cta": "Ansicht auf GitHub (Apache 2.0) →"
|
|
},
|
|
"cta": {
|
|
"heading": "Zusammenarbeit bei offenen Forschungsfragen",
|
|
"intro": "Wir sind auf der Suche nach Forschern, Implementierern und Organisationen, die an Skalierbarkeitstests, gegnerischen Resistenzstudien und Multi-Agenten-Governance-Experimenten interessiert sind.",
|
|
"feature1": "Integrationscode und Governance-Module",
|
|
"feature2": "Technische Dokumentation",
|
|
"feature3": "Rahmen der Forschungszusammenarbeit",
|
|
"feature4": "Audit-Log-Zugang (anonymisiert)",
|
|
"button_collab": "Kontakt für Zusammenarbeit →",
|
|
"button_research": "Forschungskontext → ansehen"
|
|
}
|
|
} |