Updates Agent Lightning integration documentation to reflect operational status: - Status changed from "Preliminary findings (small-scale)" to "Operational (CPU baseline established)" - Integration date updated to November 2025 - All translations updated (EN/DE/FR) - Real LLM integration implemented with Mistral-7B (4-bit quantized) - CPU stress testing validated with 1300%+ CPU utilization - Documented CPU performance bottleneck and GPU migration plan Technical changes: - Modified stress_test_vllm.py to use transformers library instead of vLLM API - Implemented 4-bit quantization (BitsAndBytes) to fit model in available RAM - Added CPU_BASELINE_FINDINGS.md documenting operational metrics - Validated governance architecture under RL optimization Research integrity maintained: Clear distinction between validated claims (operational CPU baseline) and future work (GPU acceleration, scale testing). 🤖 Generated with [Claude Code](https://claude.com/claude-code) Co-Authored-By: Claude <noreply@anthropic.com>
127 lines
No EOL
9.8 KiB
JSON
127 lines
No EOL
9.8 KiB
JSON
{
|
|
"hero": {
|
|
"title": "Agent Lightning Integration",
|
|
"subtitle": "Governance + Leistung: Können Sicherheitsgrenzen durch Optimierung mittels Verstärkungslernen bestehen bleiben?",
|
|
"status": "Status:",
|
|
"status_value": "Operativ (CPU-Grundlinie etabliert)",
|
|
"integration_date": "Datum der Integration:",
|
|
"integration_date_value": "November 2025"
|
|
},
|
|
"what_is": {
|
|
"heading": "Was ist Agent Lightning?",
|
|
"intro": "<strong>Agent Lightning</strong> ist Microsofts Open-Source-Framework für den Einsatz von <strong>Reinforcement Learning (RL)</strong> zur Optimierung der Leistung von KI-Agenten. Anstelle von statischen Aufforderungen lernen und verbessern Agenten durch kontinuierliches Training anhand von echtem Feedback.",
|
|
"traditional_heading": "Traditionelle AI-Agenten",
|
|
"traditional_1": "Behobene Eingabeaufforderungen/Anweisungen",
|
|
"traditional_2": "Kein Lernen aus Fehlern",
|
|
"traditional_3": "Manuelle Abstimmung erforderlich",
|
|
"traditional_4": "Leistung stagniert schnell",
|
|
"al_heading": "Agent Lightning",
|
|
"al_1": "Lernt kontinuierlich aus Feedback",
|
|
"al_2": "Verbessert durch RL-Optimierung",
|
|
"al_3": "Stimmt die Strategie automatisch ab",
|
|
"al_4": "Leistung verbessert sich mit der Zeit",
|
|
"problem": "<strong>Das Problem:</strong> Wenn Agenten selbstständig lernen, wie können Sie dann die Grenzen der Governance aufrechterhalten? Traditionelle Richtlinien versagen, weil Agenten sie umgehen können."
|
|
},
|
|
"architecture": {
|
|
"heading": "Tractatus-Lösung: Zweischichtige Architektur",
|
|
"intro": "Wir trennen Governance und Optimierung, indem wir sie als <strong>unabhängige Architekturschichten</strong> betreiben. Agent Lightning optimiert die Leistung <em>innerhalb der</em> Governance-Beschränkungen - nicht um sie herum.",
|
|
"layer1_heading": "Governance-Ebene (Tractatus)",
|
|
"layer1_1": "Validiert jede vorgeschlagene Aktion",
|
|
"layer1_2": "Blockiert die Verletzung von Beschränkungen",
|
|
"layer1_3": "Durchsetzung von Wertgrenzen",
|
|
"layer1_4": "Unabhängig von der Optimierung",
|
|
"layer1_5": "Architektonisch durchgesetzt",
|
|
"layer2_heading": "Leistungsschicht (Agent Lightning)",
|
|
"layer2_1": "RL-basierte Optimierung",
|
|
"layer2_2": "Lernt aus Feedback",
|
|
"layer2_3": "Verbessert die Aufgabenleistung",
|
|
"layer2_4": "Arbeitet im Rahmen von Beschränkungen",
|
|
"layer2_5": "Kontinuierliche Ausbildung",
|
|
"principle_title": "🔑 Wichtiges Gestaltungsprinzip",
|
|
"principle_text": "Governance-Checks werden <strong>vor der</strong> AL-Optimierung durchgeführt und während der Trainingsschleifen <strong>kontinuierlich validiert</strong>. Die architektonische Trennung verhindert, dass die Optimierung die Sicherheitsgrenzen beeinträchtigt."
|
|
},
|
|
"results": {
|
|
"heading": "Demo 2: Vorläufige Ergebnisse",
|
|
"warning": "<strong>⚠️ Validierungsstatus:</strong> Diese Ergebnisse stammen von <strong>1 Agenten, 5 Trainingsrunden, simulierte Umgebung</strong>. NICHT im großen Maßstab validiert. Skalierbarkeitstests sind erforderlich, bevor Schlussfolgerungen über die Produktionstauglichkeit gezogen werden können.",
|
|
"table_metric": "Metrisch",
|
|
"table_ungoverned": "Unregierte",
|
|
"table_governed": "Geregelt",
|
|
"table_difference": "Unterschied",
|
|
"metric_performance": "Leistung (Engagement)",
|
|
"metric_governance": "Abdeckung der Governance",
|
|
"metric_violations": "Verstöße gegen Beschränkungen",
|
|
"metric_violations_diff": "-5 (alle gesperrt)",
|
|
"metric_strategy": "Strategie",
|
|
"metric_strategy_ungov": "Clickbait",
|
|
"metric_strategy_gov": "Informativ",
|
|
"metric_strategy_diff": "Werteorientiert",
|
|
"metric_stability": "Stabilität der Ausbildung",
|
|
"metric_stability_ungov": "Variabel",
|
|
"metric_stability_gov": "Einheitlich",
|
|
"metric_stability_diff": "Mehr vorhersehbar",
|
|
"card1_value": "-5%",
|
|
"card1_label": "Leistungsbezogene Kosten für Governance",
|
|
"card2_value": "100%",
|
|
"card2_label": "Governance-Abdeckung beibehalten",
|
|
"card3_value": "0",
|
|
"card3_label": "Verstöße gegen Beschränkungen (alle gesperrt)",
|
|
"interpretation_title": "Was das bedeutet",
|
|
"interpretation_text": "In kleinem Maßstab (1 Agent, 5 Runden) scheint die architektonische Governance mit der RL-Optimierung vereinbar zu sein. Die 5 % Leistungskosten erkauften eine 100 %ige Einhaltung von Beschränkungen und eine Anpassung der Werte. <strong>Die kritische Frage ist, ob dies auch im großen Maßstab gilt</strong>"
|
|
},
|
|
"gaps": {
|
|
"heading": "Fünf kritische Forschungslücken",
|
|
"intro": "Dies sind die offenen Fragen, denen wir aktiv nachgehen. Wenn Sie an einer Zusammenarbeit interessiert sind, würden wir uns freuen, von Ihnen zu hören.",
|
|
"gap1_title": "1. Skalierbarkeit des Verwaltungsaufwands",
|
|
"gap1_question": "<strong>Frage:</strong> Bleiben die Leistungskosten von ~5 % konstant, wenn wir von 1 Agent → 10 Agenten → 1000 Agenten skalieren?",
|
|
"gap1_data": "<strong>Aktuelle Daten:</strong> 5% Kosten bei 1 Agent, 5 Runden",
|
|
"gap1_why": "<strong>Warum das wichtig ist:</strong> Wenn der Overhead linear ansteigt, wird Governance in großem Maßstab unerschwinglich. Wenn er konstant ist, ist Governance für Produktionssysteme praktisch machbar.",
|
|
"gap1_need": "Forschungsbedarf: Test mit 10 → 100 → 1000 Agenten im Produktionsmaßstab",
|
|
"gap2_title": "2. Langfristige Beständigkeit der Grenzen",
|
|
"gap2_question": "<strong>Frage:</strong> Bleiben die Governance-Zwänge auch nach Hunderten/Tausenden von RL-Trainingsrunden wirksam?",
|
|
"gap2_data": "<strong>Aktuelle Daten:</strong> 100%ige Einhaltung der Auflagen über 5 Runden",
|
|
"gap2_why": "<strong>Warum das wichtig ist:</strong> Das Verblassen von Anweisungen ist ein bekanntes Problem. Wenn sich die Grenzen im Laufe der Zeit verschlechtern, versagt die Verwaltung unbemerkt - was in der Produktion katastrophale Folgen haben kann.",
|
|
"gap2_need": "Forschungsbedarf: Langfristige Studien (1000+ Runden) zur Verfolgung der Zwangsabweichung",
|
|
"gap3_title": "3. Adversarialer Widerstand",
|
|
"gap3_question": "<strong>Frage:</strong> Können Agenten lernen, um Governance-Beschränkungen herum zu optimieren?",
|
|
"gap3_data": "<strong>Aktuelle Daten:</strong> Keine kontradiktorischen Tests durchgeführt",
|
|
"gap3_why": "<strong>Warum das wichtig ist:</strong> Wenn Agenten lernen können, Grenzen durch geschickte Optimierungsstrategien zu umgehen, ist architektonische Governance illusorisch. Dies ist ein kritischer Fehlermodus.",
|
|
"gap3_need": "Forschungsbedarf: Stresstests mit Agenten, die explizit einen Anreiz haben, die Governance zu umgehen",
|
|
"gap4_title": "4. Schließung der Leistungslücke",
|
|
"gap4_question": "<strong>Frage:</strong> Verringert sich der Leistungsunterschied von 5 % mit zunehmender Ausbildung, oder ist dies ein dauerhafter Kompromiss?",
|
|
"gap4_data": "<strong>Aktuelle Daten:</strong> Lücke beobachtet in Runde 5, keine weiteren Daten zu diesem Zeitpunkt",
|
|
"gap4_why": "<strong>Warum das wichtig ist:</strong> Wenn die Lücke bestehen bleibt, müssen wir das Kosten-Nutzen-Verhältnis eindeutig quantifizieren. Schließt sich die Lücke, könnte Governance langfristig \"kostenlos\" sein - was die Kalkulationen für die Einführung dramatisch verändert.",
|
|
"gap4_need": "Forschungsbedarf: Erweitertes Training (100+ Runden), um zu sehen, ob regierte Agenten zu unregierten Leistungen konvergieren",
|
|
"gap5_title": "5. Multi-Agenten-Koordination unter Governance",
|
|
"gap5_question": "<strong>Frage:</strong> Wie wirkt sich die architektonische Steuerung auf die emergente Koordination in Multiagentensystemen aus?",
|
|
"gap5_data": "<strong>Aktuelle Daten:</strong> Nur Einzelwirkstofftests",
|
|
"gap5_why": "<strong>Warum das wichtig ist:</strong> Reale Agentensysteme bestehen aus mehreren Agenten (Kundendienst, Logistik, Forschungsteams). Eine Steuerung, die für einen Agenten funktioniert, kann versagen, wenn die Agenten sich koordinieren müssen. Emergente Verhaltensweisen sind unvorhersehbar.",
|
|
"gap5_need": "Forschungsbedarf: Testen von kollaborativen und wettbewerbsfähigen Multi-Agenten-Umgebungen mit architektonischer Steuerung"
|
|
},
|
|
"demo": {
|
|
"heading": "🔧 Integrationsstatus: Das echte System aufbauen"
|
|
},
|
|
"community": {
|
|
"heading": "Treten Sie der Gemeinschaft bei und erhalten Sie den Code",
|
|
"tractatus_heading": "Tractatus Zwietracht",
|
|
"tractatus_subtitle": "Auf Governance ausgerichtete Diskussionen",
|
|
"tractatus_desc": "Architektonische Zwänge, Forschungslücken, Einhaltung der Vorschriften, Erhaltung der menschlichen Handlungsfähigkeit, Beratung durch mehrere Interessengruppen.",
|
|
"tractatus_cta": "Tractatus Server beitreten →",
|
|
"al_heading": "Agent Lightning Zwietracht",
|
|
"al_subtitle": "Hilfe bei der technischen Umsetzung",
|
|
"al_desc": "RL-Optimierung, Integrationsunterstützung, Leistungsoptimierung, technische Implementierungsfragen.",
|
|
"al_cta": "Agent Lightning Server beitreten →",
|
|
"code_heading": "📦 Integrationscode anzeigen",
|
|
"code_desc": "Vollständige Integration einschließlich Demos, Python-Governance-Module und Agent Lightning-Wrapper-Code. Apache 2.0 lizenziert auf GitHub.",
|
|
"code_cta": "Ansicht auf GitHub (Apache 2.0) →"
|
|
},
|
|
"cta": {
|
|
"heading": "Zusammenarbeit bei offenen Forschungsfragen",
|
|
"intro": "Wir sind auf der Suche nach Forschern, Implementierern und Organisationen, die an Skalierbarkeitstests, gegnerischen Resistenzstudien und Multi-Agenten-Governance-Experimenten interessiert sind.",
|
|
"feature1": "Integrationscode und Governance-Module",
|
|
"feature2": "Technische Dokumentation",
|
|
"feature3": "Rahmen der Forschungszusammenarbeit",
|
|
"feature4": "Audit-Log-Zugang (anonymisiert)",
|
|
"button_collab": "Kontakt für Zusammenarbeit →",
|
|
"button_research": "Forschungskontext → ansehen"
|
|
}
|
|
} |