fix: Remove confidential details from Village AI page translations

Matches village-ai.html corrections across EN/DE/FR/MI:
- Remove specific run numbers, metrics, hardware model, base model name
- Replace DPO references with QLoRA fine-tuning (actual method used)
- Add Operational/Planned badges to 3B/8B model cards
- Fix Catalyst NZ presented as active (shelved)
- Add 7th bias category (Confidence-Correctness)
- Change "four federated tenants" to "multiple tenants"

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
TheFlow 2026-02-24 10:31:09 +13:00
parent 302bf516f3
commit 82e07cbfe2
4 changed files with 72 additions and 60 deletions

View file

@ -7,7 +7,7 @@
"badge": "SOUVERÄNES, LOKAL TRAINIERTES SPRACHMODELL", "badge": "SOUVERÄNES, LOKAL TRAINIERTES SPRACHMODELL",
"title": "Village AI", "title": "Village AI",
"subtitle": "Ein Sprachmodell, bei dem die Gemeinschaft die Trainingsdaten, die Modellgewichte und die Steuerungsregeln kontrolliert. Nicht nur geregelte Inferenz &mdash; geregeltes Training.", "subtitle": "Ein Sprachmodell, bei dem die Gemeinschaft die Trainingsdaten, die Modellgewichte und die Steuerungsregeln kontrolliert. Nicht nur geregelte Inferenz &mdash; geregeltes Training.",
"status": "<strong>Status:</strong> Village AI arbeitet in der Produktion sowohl für Inferenz als auch für souveränes Training. Es wurden sieben Trainingsläufe auf lokaler Hardware (AMD RX 7900 XTX) durchgeführt. Lauf 006 ist das aktuelle Produktionsmodell. Die Steuerung der Trainingszeit ist empirisch validiert." "status": "<strong>Status:</strong> Village AI arbeitet in der Produktion sowohl für Inferenzen als auch für souveränes Training. Das Training auf lokaler Hardware hat begonnen und ein Produktionsmodell ist im Einsatz. Die Verwaltung der Trainingszeit ist einsatzbereit. Auf dieser Seite werden sowohl die aktuellen Fähigkeiten als auch die geplante Architektur beschrieben."
}, },
"sll": { "sll": {
"heading": "Was ist eine SLL?", "heading": "Was ist eine SLL?",
@ -36,12 +36,14 @@
"heading": "Zwei-Modelle-Architektur", "heading": "Zwei-Modelle-Architektur",
"intro": "Village AI verwendet zwei Modelle unterschiedlicher Größe, die nach der Komplexität der Aufgabe geordnet sind. Dabei handelt es sich nicht um einen Ausweichmechanismus &mdash; jedes Modell ist für seine Aufgabe optimiert.", "intro": "Village AI verwendet zwei Modelle unterschiedlicher Größe, die nach der Komplexität der Aufgabe geordnet sind. Dabei handelt es sich nicht um einen Ausweichmechanismus &mdash; jedes Modell ist für seine Aufgabe optimiert.",
"fast_title": "3B Modell &mdash; Schneller Assistent", "fast_title": "3B Modell &mdash; Schneller Assistent",
"fast_badge": "Operativ",
"fast_desc": "Bearbeitet Hilfeanfragen, Tooltips, Fehlererklärungen, kurze Zusammenfassungen und Übersetzungen. Angestrebte Antwortzeit: unter 5 Sekunden vollständig.", "fast_desc": "Bearbeitet Hilfeanfragen, Tooltips, Fehlererklärungen, kurze Zusammenfassungen und Übersetzungen. Angestrebte Antwortzeit: unter 5 Sekunden vollständig.",
"fast_routing": "Routing-Auslöser: einfache Abfragen, bekannte FAQ-Muster, einstufige Aufgaben.", "fast_routing": "Routing-Auslöser: einfache Abfragen, bekannte FAQ-Muster, einstufige Aufgaben.",
"deep_title": "8B Modell &mdash; Deep Reasoning", "deep_title": "8B Modell &mdash; Deep Reasoning",
"deep_badge": "Geplant",
"deep_desc": "Ermöglicht die Erstellung von Lebensgeschichten, Jahresrückblicken, komplexen Zusammenfassungen und sensibler Korrespondenz. Angestrebte Antwortzeit: unter 90 Sekunden.", "deep_desc": "Ermöglicht die Erstellung von Lebensgeschichten, Jahresrückblicken, komplexen Zusammenfassungen und sensibler Korrespondenz. Angestrebte Antwortzeit: unter 90 Sekunden.",
"deep_routing": "Routing-Auslöser: Schlüsselwörter wie \"alles über\", Multi-Source-Abruf, Trauer/Trauma-Marker.", "deep_routing": "Routing-Auslöser: Schlüsselwörter wie \"alles über\", Multi-Source-Abruf, Trauer/Trauma-Marker.",
"footer": "Beide Modelle arbeiten unter demselben Governance-Stack. Die Routing-Entscheidung selbst wird durch &mdash; geregelt, ContextPressureMonitor kann das Routing außer Kraft setzen, wenn der Zustand der Sitzung dies erfordert." "footer": "Beide Modelle arbeiten unter demselben Governance-Stack. Eine Routing-Governance ist vorgesehen; eine ContextPressureMonitor-Überlagerungsfunktion ist geplant."
}, },
"training_tiers": { "training_tiers": {
"heading": "Drei Schulungsebenen", "heading": "Drei Schulungsebenen",
@ -53,7 +55,7 @@
"tier2_title": "Ebene 2: Mieteradapter", "tier2_title": "Ebene 2: Mieteradapter",
"tier2_badge": "Pro Gemeinde", "tier2_badge": "Pro Gemeinde",
"tier2_desc": "Jede Community trainiert einen leichtgewichtigen LoRA-Adapter auf ihre eigenen Inhalte &mdash; Geschichten, Dokumente, Fotos und Ereignisse, deren Aufnahme die Mitglieder ausdrücklich zugestimmt haben. Dadurch kann Village AI Fragen wie \"Welche Geschichten hat Oma geteilt?\" beantworten, ohne auf die Daten einer anderen Community zuzugreifen.", "tier2_desc": "Jede Community trainiert einen leichtgewichtigen LoRA-Adapter auf ihre eigenen Inhalte &mdash; Geschichten, Dokumente, Fotos und Ereignisse, deren Aufnahme die Mitglieder ausdrücklich zugestimmt haben. Dadurch kann Village AI Fragen wie \"Welche Geschichten hat Oma geteilt?\" beantworten, ohne auf die Daten einer anderen Community zuzugreifen.",
"tier2_update": "Adapter sind klein (50&ndash;100MB). Die Zustimmung erfolgt pro Inhaltselement. Inhalte, die mit \"nur ich\" gekennzeichnet sind, werden unabhängig von der Zustimmung nie einbezogen. Die Schulung verwendet DPO (Direct Preference Optimization) für den Werteabgleich.", "tier2_update": "Adapter sind klein (50&ndash;100MB). Die Zustimmung erfolgt pro Inhaltselement. Inhalte, die mit \"nur ich\" gekennzeichnet sind, werden unabhängig von der Zustimmung nie einbezogen. Trainingsmethode: QLoRA-Feinabstimmung mit Governance-validierten Daten.",
"tier3_title": "Stufe 3: Individuell (Zukunft)", "tier3_title": "Stufe 3: Individuell (Zukunft)",
"tier3_badge": "Pro Mitglied", "tier3_badge": "Pro Mitglied",
"tier3_desc": "Persönliche Adapter, die individuelle Vorlieben und Interaktionsmuster lernen. Spekulativ &mdash; diese Ebene wirft erhebliche Fragen zur Machbarkeit, zum Datenschutz und zu den für eine sinnvolle Personalisierung erforderlichen Mindesttrainingsdaten auf.", "tier3_desc": "Persönliche Adapter, die individuelle Vorlieben und Interaktionsmuster lernen. Spekulativ &mdash; diese Ebene wirft erhebliche Fragen zur Machbarkeit, zum Datenschutz und zu den für eine sinnvolle Personalisierung erforderlichen Mindesttrainingsdaten auf.",
@ -84,7 +86,7 @@
"intro": "Village AI wird von Tractatus auf <strong>zwei verschiedenen Schichten</strong> gleichzeitig gesteuert. Dies ist die architektonische Einsicht, die den SLL-Ansatz sowohl von ungeregelten Modellen als auch von aufgeschraubten Sicherheitsfiltern unterscheidet.", "intro": "Village AI wird von Tractatus auf <strong>zwei verschiedenen Schichten</strong> gleichzeitig gesteuert. Dies ist die architektonische Einsicht, die den SLL-Ansatz sowohl von ungeregelten Modellen als auch von aufgeschraubten Sicherheitsfiltern unterscheidet.",
"layer_a_badge": "EBENE A: INHÄRENT", "layer_a_badge": "EBENE A: INHÄRENT",
"layer_a_title": "Tractatus Im Inneren des Modells", "layer_a_title": "Tractatus Im Inneren des Modells",
"layer_a_desc": "Während des Trainings validiert das BoundaryEnforcer jedes Los. Die DPO-Anpassung formt die Präferenzen für ein geregeltes Verhalten. Das Modell <em>lernt</em>, Grenzen zu respektieren, transparente Antworten zu bevorzugen und Wertentscheidungen dem Menschen zu überlassen.", "layer_a_desc": "Während des Trainings validiert der BoundaryEnforcer jeden Stapel. Durch die Feinabstimmung anhand der durch die Governance validierten Trainingsdaten wird das Modell auf ein geregeltes Verhalten ausgerichtet. Das Modell <em>lernt</em>, Grenzen zu respektieren, transparente Antworten zu bevorzugen und Wertentscheidungen an Menschen zu delegieren.",
"layer_a_item1": "<strong>Mechanismus:</strong> Governance in der Ausbildungsschleife", "layer_a_item1": "<strong>Mechanismus:</strong> Governance in der Ausbildungsschleife",
"layer_a_item2": "<strong>Effekt:</strong> Das Modell neigt zu geregeltem Verhalten", "layer_a_item2": "<strong>Effekt:</strong> Das Modell neigt zu geregeltem Verhalten",
"layer_a_item3": "<strong>Einschränkung:</strong> Tendenzen können durch gegnerische Aufforderung außer Kraft gesetzt werden", "layer_a_item3": "<strong>Einschränkung:</strong> Tendenzen können durch gegnerische Aufforderung außer Kraft gesetzt werden",
@ -100,7 +102,7 @@
"principle_line3": "Ein Modell, das über verinnerlichte Governance-Regeln verfügt UND innerhalb der Governance-Architektur arbeitet", "principle_line3": "Ein Modell, das über verinnerlichte Governance-Regeln verfügt UND innerhalb der Governance-Architektur arbeitet",
"principle_line4": "führt zu besseren Ergebnissen als jeder Ansatz allein. Das Modell funktioniert MIT den Leitplanken,", "principle_line4": "führt zu besseren Ergebnissen als jeder Ansatz allein. Das Modell funktioniert MIT den Leitplanken,",
"principle_line5": "nicht gegen sie &mdash; Verringerung der Rechenzeitverschwendung und Verbesserung der Antwortqualität.", "principle_line5": "nicht gegen sie &mdash; Verringerung der Rechenzeitverschwendung und Verbesserung der Antwortqualität.",
"caveat": "<strong>Ehrlicher Vorbehalt:</strong> Schicht A (inhärente Governance über Training) wurde in sieben Trainingsläufen empirisch validiert &mdash; Lauf 006 erreicht 100% Governance-Compliance und 4,8/5,0 Bias-Score. Schicht B (aktive Governance über die Village-Codebasis) ist seit über 11 Monaten in der Produktion im Einsatz. Die Dual-Layer-These zeigt Ergebnisse, auch wenn die Bewertung weiterhin in Eigenregie erfolgt. Eine unabhängige Prüfung ist geplant." "caveat": "<strong>Ehrlicher Vorbehalt:</strong> Schicht A (inhärente Governance über Schulungen) wurde empirisch in mehreren Schulungsläufen mit konsistenter Governance-Einhaltung validiert. Schicht B (aktive Governance über die Village-Codebasis) ist seit über 11 Monaten in der Produktion im Einsatz. Die zweischichtige These zeigt Ergebnisse, auch wenn die Bewertung weiterhin auf eigenen Angaben beruht. Eine unabhängige Prüfung ist geplant."
}, },
"philosophy": { "philosophy": {
"heading": "Philosophische Grundlagen", "heading": "Philosophische Grundlagen",
@ -180,20 +182,19 @@
"local_title": "Lokale Ausbildung", "local_title": "Lokale Ausbildung",
"local_item1": "Consumer-GPU mit 24GB VRAM über externes Gehäuse", "local_item1": "Consumer-GPU mit 24GB VRAM über externes Gehäuse",
"local_item2": "QLoRA-Feinabstimmung (4-Bit-Quantisierung passt in VRAM-Budget)", "local_item2": "QLoRA-Feinabstimmung (4-Bit-Quantisierung passt in VRAM-Budget)",
"local_item3": "DPO (Direkte Präferenz-Optimierung) &mdash; benötigt nur 2 Modelle im Speicher im Gegensatz zu PPO's 4", "local_item3": "QLoRA-Feinabstimmung (4-Bit-Quantisierung passt bequem in den VRAM einer Consumer-GPU)",
"local_item4": "Übernachtungstraining läuft &mdash; kompatibel mit netzunabhängigem Solarstrom", "local_item4": "Übernachtungstraining läuft &mdash; kompatibel mit netzunabhängigem Solarstrom",
"local_item5": "Dauerhafte Leistungsaufnahme unter 500 W", "local_item5": "Dauerhafte Leistungsaufnahme unter 500 W",
"remote_title": "Ferninferenz", "remote_title": "Ferninferenz",
"remote_item1": "Modellgewichte auf Produktionsservern eingesetzt (OVH Frankreich, Catalyst NZ)", "remote_item1": "Modellgewichte auf Produktionsserver übertragen (OVH Frankreich)",
"remote_item2": "Inferenz über Ollama mit mandantenbezogener Adapterladung", "remote_item2": "Ableitung über Ollama auf dem Produktionsserver",
"remote_item3": "Hybride GPU/CPU-Architektur mit Zustandsüberwachung", "remote_item3": "Home GPU-Inferenz über WireGuard VPN (geplant)",
"remote_item4": "Home GPU verfügbar über WireGuard VPN als primäre Inferenzmaschine", "remote_item4": "CPU-basierte Inferenz bietet grundlegende Verfügbarkeit",
"remote_item5": "CPU-Fallback gewährleistet Verfügbarkeit, wenn die GPU offline ist",
"why_consumer": "<strong>Warum Consumer-Hardware?</strong> Die SLL-These ist, dass souveränes KI-Training zugänglich sein sollte und nicht nur für Organisationen mit Rechenzentrums-Budgets. Eine einzige Consumer-GPU kann ein 7B-Modell effizient über QLoRA feinjustieren. Die gesamte Trainingsinfrastruktur passt auf einen Schreibtisch." "why_consumer": "<strong>Warum Consumer-Hardware?</strong> Die SLL-These ist, dass souveränes KI-Training zugänglich sein sollte und nicht nur für Organisationen mit Rechenzentrums-Budgets. Eine einzige Consumer-GPU kann ein 7B-Modell effizient über QLoRA feinjustieren. Die gesamte Trainingsinfrastruktur passt auf einen Schreibtisch."
}, },
"bias": { "bias": {
"heading": "Bias-Dokumentation und -Überprüfung", "heading": "Bias-Dokumentation und -Überprüfung",
"intro": "Village AI ist im Bereich des familiären Geschichtenerzählens tätig, das spezifische Verzerrungsrisiken birgt. Es wurden sechs Verzerrungskategorien mit Aufdeckungshinweisen, entschärfenden Beispielen und Bewertungskriterien dokumentiert.", "intro": "Village AI bewegt sich im Bereich des familiären Geschichtenerzählens, das spezifische Verzerrungsrisiken birgt. Sieben Verzerrungskategorien wurden mit Aufdeckungshinweisen, entschärfenden Beispielen und Bewertungskriterien dokumentiert.",
"family_title": "Familienstruktur", "family_title": "Familienstruktur",
"family_desc": "Kernfamilie als Standard; gleichgeschlechtliche Eltern, gemischte Familien, Alleinerziehende werden als normativ behandelt.", "family_desc": "Kernfamilie als Standard; gleichgeschlechtliche Eltern, gemischte Familien, Alleinerziehende werden als normativ behandelt.",
"elder_title": "Vertretung der Älteren", "elder_title": "Vertretung der Älteren",
@ -206,6 +207,8 @@
"grief_desc": "Effizienz vor Sensibilität; Tempo, Aufmerksamkeit für Details, kein vorzeitiger Abschluss.", "grief_desc": "Effizienz vor Sensibilität; Tempo, Aufmerksamkeit für Details, kein vorzeitiger Abschluss.",
"naming_title": "Benennungskonventionen", "naming_title": "Benennungskonventionen",
"naming_desc": "Westliche Annahmen zur Namensreihenfolge; korrekter Umgang mit Patronymen, Ehrentiteln, diakritischen Zeichen.", "naming_desc": "Westliche Annahmen zur Namensreihenfolge; korrekter Umgang mit Patronymen, Ehrentiteln, diakritischen Zeichen.",
"confidence_title": "Vertrauenswürdigkeit-Korrektheit",
"confidence_desc": "Erkenntnistheoretische Demut; angemessener Ausdruck von Ungewissheit; Bereitschaft zu sagen: \"Ich weiß es nicht\".",
"verification_title": "Rahmen für die Verifizierung", "verification_title": "Rahmen für die Verifizierung",
"metrics_title": "Governance-Metriken", "metrics_title": "Governance-Metriken",
"metrics_item1": "Leckrate bei Mietern: Ziel 0%", "metrics_item1": "Leckrate bei Mietern: Ziel 0%",
@ -232,11 +235,11 @@
}, },
"limitations": { "limitations": {
"heading": "Beschränkungen und offene Fragen", "heading": "Beschränkungen und offene Fragen",
"item1": "<strong>Frühphasen-Training:</strong> Sieben QLoRA-Feinabstimmungsläufe wurden auf einer Llama 3.2 3B-Basis abgeschlossen. Lauf 006 ist das aktuelle Produktionsmodell (FAQ 72,1%, Persona 100%, Governance 100%, Bias 4,8/5,0, Halluzination 0,8%). Die Steuerung während der Ausbildungszeit ist empirisch validiert, aber die Bewertung ist eine Selbstauskunft. Ein unabhängiges Audit ist geplant.", "item1": "<strong>Frühphasen-Training:</strong> Mehrere QLoRA-Feinabstimmungsläufe wurden abgeschlossen. Ein Produktionsmodell wird eingesetzt, bei dem die Zielvorgaben für die Einhaltung der Governance und die Verzerrungskennzahlen erfüllt sind. Die Bewertung wird selbst berichtet. Ein unabhängiges Audit ist geplant.",
"item2": "<strong>Beschränkter Einsatz:</strong> Village AI arbeitet mit vier föderierten Mandanten innerhalb einer Plattform, die vom Entwickler des Frameworks gebaut wurde. Die Wirksamkeit der Governance kann ohne unabhängige Einsätze nicht verallgemeinert werden.", "item2": "<strong>Beschränkter Einsatz:</strong> Village AI arbeitet über mehrere Mieter hinweg auf einer Plattform, die vom Entwickler des Frameworks entwickelt wurde. Die Wirksamkeit der Governance kann ohne unabhängige Einsätze nicht verallgemeinert werden.",
"item3": "<strong>Selbstberichtete Metriken:</strong> Leistungs- und Sicherheitszahlen werden von demselben Team gemeldet, das das System gebaut hat. Ein unabhängiges Audit ist geplant, wurde aber noch nicht durchgeführt.", "item3": "<strong>Selbstberichtete Metriken:</strong> Leistungs- und Sicherheitszahlen werden von demselben Team gemeldet, das das System gebaut hat. Ein unabhängiges Audit ist geplant, wurde aber noch nicht durchgeführt.",
"item4": "<strong>Operationalisierung von Traditionen:</strong> Lassen sich reichhaltige philosophische Traditionen authentisch auf Hinweise zur Rahmung reduzieren? Wenn ein Mitglied \"Buddhist\" auswählt, bedeutet das nicht, dass es den Buddhismus versteht oder praktiziert. Dies birgt die Gefahr der Oberflächlichkeit.", "item4": "<strong>Operationalisierung von Traditionen:</strong> Lassen sich reichhaltige philosophische Traditionen authentisch auf Hinweise zur Rahmung reduzieren? Wenn ein Mitglied \"Buddhist\" auswählt, bedeutet das nicht, dass es den Buddhismus versteht oder praktiziert. Dies birgt die Gefahr der Oberflächlichkeit.",
"item5": "<strong>Ausdauer des Trainings bei aktiver Forschung:</strong> Lauf 007 zeigte katastrophales Vergessen (21 Rückschritte bei 35 gezielten Ergänzungen), was die Drift als reales Risiko bestätigt. Für Lauf 008 wurde eine Wiederholungspufferstrategie eingeführt. Die Drift-Erkennung wurde entwickelt und wird empirisch validiert.", "item5": "<strong>Ausdauer des Trainings bei aktiver Forschung:</strong> Beim Hinzufügen von gezielten Trainingspaaren wurde ein katastrophales Vergessen beobachtet, was bestätigt, dass die Drift ein echtes Risiko darstellt. Wiederholungspuffer-Strategie implementiert. Die Drift-Erkennung wird derzeit empirisch validiert.",
"item6": "<strong>Eingeschränkte adversarische Tests:</strong> Der Governance-Stack wurde keiner systematischen adversarischen Bewertung unterzogen. Red-teaming ist eine Priorität.", "item6": "<strong>Eingeschränkte adversarische Tests:</strong> Der Governance-Stack wurde keiner systematischen adversarischen Bewertung unterzogen. Red-teaming ist eine Priorität.",
"item7": "<strong>Skala unbekannt:</strong> Der Governance-Overhead (~5% pro Interaktion) wird in der aktuellen Skala gemessen. Ob dies auch bei hohem Durchsatz der Fall ist, wurde noch nicht getestet.", "item7": "<strong>Skala unbekannt:</strong> Der Governance-Overhead (~5% pro Interaktion) wird in der aktuellen Skala gemessen. Ob dies auch bei hohem Durchsatz der Fall ist, wurde noch nicht getestet.",
"item8": "<strong>Kulturelle Validierung erforderlich:</strong> Die Spezifikationen der Module für indigenes Wissen erfordern eine ständige Konsultation mit den kulturellen Beratern der M&#257;ori. Die Dokumentation ist ein Ausgangspunkt, keine endgültige Instanz." "item8": "<strong>Kulturelle Validierung erforderlich:</strong> Die Spezifikationen der Module für indigenes Wissen erfordern eine ständige Konsultation mit den kulturellen Beratern der M&#257;ori. Die Dokumentation ist ein Ausgangspunkt, keine endgültige Instanz."

View file

@ -7,7 +7,7 @@
"badge": "SOVEREIGN LOCALLY-TRAINED LANGUAGE MODEL", "badge": "SOVEREIGN LOCALLY-TRAINED LANGUAGE MODEL",
"title": "Village AI", "title": "Village AI",
"subtitle": "A language model where the community controls the training data, the model weights, and the governance rules. Not just governed inference &mdash; governed training.", "subtitle": "A language model where the community controls the training data, the model weights, and the governance rules. Not just governed inference &mdash; governed training.",
"status": "<strong>Status:</strong> Village AI operates in production for both inference and sovereign training. Seven training runs have been completed on local hardware (AMD RX 7900 XTX). Run 006 is the current production model. Training-time governance is empirically validated." "status": "<strong>Status:</strong> Village AI operates in production for both inference and sovereign training. Training on local hardware has begun and a production model is deployed. Training-time governance is operational. This page describes both current capability and intended architecture."
}, },
"sll": { "sll": {
"heading": "What is an SLL?", "heading": "What is an SLL?",
@ -36,12 +36,14 @@
"heading": "Two-Model Architecture", "heading": "Two-Model Architecture",
"intro": "Village AI uses two models of different sizes, routed by task complexity. This is not a fallback mechanism &mdash; each model is optimised for its role.", "intro": "Village AI uses two models of different sizes, routed by task complexity. This is not a fallback mechanism &mdash; each model is optimised for its role.",
"fast_title": "3B Model &mdash; Fast Assistant", "fast_title": "3B Model &mdash; Fast Assistant",
"fast_badge": "Operational",
"fast_desc": "Handles help queries, tooltips, error explanations, short summaries, and translation. Target response time: under 5 seconds complete.", "fast_desc": "Handles help queries, tooltips, error explanations, short summaries, and translation. Target response time: under 5 seconds complete.",
"fast_routing": "Routing triggers: simple queries, known FAQ patterns, single-step tasks.", "fast_routing": "Routing triggers: simple queries, known FAQ patterns, single-step tasks.",
"deep_title": "8B Model &mdash; Deep Reasoning", "deep_title": "8B Model &mdash; Deep Reasoning",
"deep_badge": "Planned",
"deep_desc": "Handles life story generation, year-in-review narratives, complex summarisation, and sensitive correspondence. Target response time: under 90 seconds.", "deep_desc": "Handles life story generation, year-in-review narratives, complex summarisation, and sensitive correspondence. Target response time: under 90 seconds.",
"deep_routing": "Routing triggers: keywords like \"everything about\", multi-source retrieval, grief/trauma markers.", "deep_routing": "Routing triggers: keywords like \"everything about\", multi-source retrieval, grief/trauma markers.",
"footer": "Both models operate under the same governance stack. The routing decision itself is governed &mdash; the ContextPressureMonitor can override routing if session health requires it." "footer": "Both models operate under the same governance stack. Routing governance is designed; ContextPressureMonitor override capability is planned."
}, },
"training_tiers": { "training_tiers": {
"heading": "Three Training Tiers", "heading": "Three Training Tiers",
@ -53,7 +55,7 @@
"tier2_title": "Tier 2: Tenant Adapters", "tier2_title": "Tier 2: Tenant Adapters",
"tier2_badge": "Per community", "tier2_badge": "Per community",
"tier2_desc": "Each community trains a lightweight LoRA adapter on its own content &mdash; stories, documents, photos, and events that members have explicitly consented to include. This allows Village AI to answer questions like \"What stories has Grandma shared?\" without accessing any other community's data.", "tier2_desc": "Each community trains a lightweight LoRA adapter on its own content &mdash; stories, documents, photos, and events that members have explicitly consented to include. This allows Village AI to answer questions like \"What stories has Grandma shared?\" without accessing any other community's data.",
"tier2_update": "Adapters are small (50&ndash;100MB). Consent is per-content-item. Content marked \"only me\" is never included regardless of consent. Training uses DPO (Direct Preference Optimization) for value alignment.", "tier2_update": "Adapters are small (50&ndash;100MB). Consent is per-content-item. Content marked \"only me\" is never included regardless of consent. Training method: QLoRA fine-tuning with governance-validated data.",
"tier3_title": "Tier 3: Individual (Future)", "tier3_title": "Tier 3: Individual (Future)",
"tier3_badge": "Per member", "tier3_badge": "Per member",
"tier3_desc": "Personal adapters that learn individual preferences and interaction patterns. Speculative &mdash; this tier raises significant questions about feasibility, privacy, and the minimum training data required for meaningful personalisation.", "tier3_desc": "Personal adapters that learn individual preferences and interaction patterns. Speculative &mdash; this tier raises significant questions about feasibility, privacy, and the minimum training data required for meaningful personalisation.",
@ -84,7 +86,7 @@
"intro": "Village AI is governed by Tractatus at <strong>two distinct layers</strong> simultaneously. This is the architectural insight that distinguishes the SLL approach from both ungoverned models and bolt-on safety filters.", "intro": "Village AI is governed by Tractatus at <strong>two distinct layers</strong> simultaneously. This is the architectural insight that distinguishes the SLL approach from both ungoverned models and bolt-on safety filters.",
"layer_a_badge": "LAYER A: INHERENT", "layer_a_badge": "LAYER A: INHERENT",
"layer_a_title": "Tractatus Inside the Model", "layer_a_title": "Tractatus Inside the Model",
"layer_a_desc": "During training, the BoundaryEnforcer validates every batch. DPO alignment shapes preferences toward governed behaviour. The model <em>learns</em> to respect boundaries, prefer transparent responses, and defer values decisions to humans.", "layer_a_desc": "During training, the BoundaryEnforcer validates every batch. Fine-tuning on governance-validated training data shapes the model toward governed behaviour. The model <em>learns</em> to respect boundaries, prefer transparent responses, and defer values decisions to humans.",
"layer_a_item1": "<strong>Mechanism:</strong> Governance in the training loop", "layer_a_item1": "<strong>Mechanism:</strong> Governance in the training loop",
"layer_a_item2": "<strong>Effect:</strong> Model tends toward governed behaviour", "layer_a_item2": "<strong>Effect:</strong> Model tends toward governed behaviour",
"layer_a_item3": "<strong>Limitation:</strong> Tendencies can be overridden by adversarial prompting", "layer_a_item3": "<strong>Limitation:</strong> Tendencies can be overridden by adversarial prompting",
@ -100,7 +102,7 @@
"principle_line3": "A model that has internalised governance rules AND operates within governance architecture", "principle_line3": "A model that has internalised governance rules AND operates within governance architecture",
"principle_line4": "produces better outputs than either approach alone. The model works WITH the guardrails,", "principle_line4": "produces better outputs than either approach alone. The model works WITH the guardrails,",
"principle_line5": "not against them &mdash; reducing compute waste and improving response quality.", "principle_line5": "not against them &mdash; reducing compute waste and improving response quality.",
"caveat": "<strong>Honest caveat:</strong> Layer A (inherent governance via training) has been empirically validated across seven training runs &mdash; Run 006 achieves 100% governance compliance and 4.8/5.0 bias score. Layer B (active governance via Village codebase) has been operating in production for 11+ months. The dual-layer thesis is demonstrating results, though evaluation remains self-reported. Independent audit is planned." "caveat": "<strong>Honest caveat:</strong> Layer A (inherent governance via training) has been empirically validated across multiple training runs with consistent governance compliance. Layer B (active governance via Village codebase) has been operating in production for 11+ months. The dual-layer thesis is demonstrating results, though evaluation remains self-reported. Independent audit is planned."
}, },
"philosophy": { "philosophy": {
"heading": "Philosophical Foundations", "heading": "Philosophical Foundations",
@ -180,20 +182,19 @@
"local_title": "Local Training", "local_title": "Local Training",
"local_item1": "Consumer GPU with 24GB VRAM via external enclosure", "local_item1": "Consumer GPU with 24GB VRAM via external enclosure",
"local_item2": "QLoRA fine-tuning (4-bit quantisation fits in VRAM budget)", "local_item2": "QLoRA fine-tuning (4-bit quantisation fits in VRAM budget)",
"local_item3": "DPO (Direct Preference Optimization) &mdash; requires only 2 models in memory vs PPO's 4", "local_item3": "QLoRA fine-tuning (4-bit quantisation fits comfortably in consumer GPU VRAM)",
"local_item4": "Overnight training runs &mdash; compatible with off-grid solar power", "local_item4": "Overnight training runs &mdash; compatible with off-grid solar power",
"local_item5": "Sustained power draw under 500W", "local_item5": "Sustained power draw under 500W",
"remote_title": "Remote Inference", "remote_title": "Remote Inference",
"remote_item1": "Model weights deployed to production servers (OVH France, Catalyst NZ)", "remote_item1": "Model weights deployed to production server (OVH France)",
"remote_item2": "Inference via Ollama with per-tenant adapter loading", "remote_item2": "Inference via Ollama on production server",
"remote_item3": "Hybrid GPU/CPU architecture with health monitoring", "remote_item3": "Home GPU inference via WireGuard VPN (planned)",
"remote_item4": "Home GPU available via WireGuard VPN as primary inference engine", "remote_item4": "CPU-based inference provides baseline availability",
"remote_item5": "CPU fallback ensures availability when GPU is offline",
"why_consumer": "<strong>Why consumer hardware?</strong> The SLL thesis is that sovereign AI training should be accessible, not reserved for organisations with data centre budgets. A single consumer GPU can fine-tune a 7B model efficiently via QLoRA. The entire training infrastructure fits on a desk." "why_consumer": "<strong>Why consumer hardware?</strong> The SLL thesis is that sovereign AI training should be accessible, not reserved for organisations with data centre budgets. A single consumer GPU can fine-tune a 7B model efficiently via QLoRA. The entire training infrastructure fits on a desk."
}, },
"bias": { "bias": {
"heading": "Bias Documentation and Verification", "heading": "Bias Documentation and Verification",
"intro": "Village AI operates in the domain of family storytelling, which carries specific bias risks. Six bias categories have been documented with detection prompts, debiasing examples, and evaluation criteria.", "intro": "Village AI operates in the domain of family storytelling, which carries specific bias risks. Seven bias categories have been documented with detection prompts, debiasing examples, and evaluation criteria.",
"family_title": "Family Structure", "family_title": "Family Structure",
"family_desc": "Nuclear family as default; same-sex parents, blended families, single parents treated as normative.", "family_desc": "Nuclear family as default; same-sex parents, blended families, single parents treated as normative.",
"elder_title": "Elder Representation", "elder_title": "Elder Representation",
@ -206,6 +207,8 @@
"grief_desc": "Efficiency over sensitivity; pacing, attention to particulars, no premature closure.", "grief_desc": "Efficiency over sensitivity; pacing, attention to particulars, no premature closure.",
"naming_title": "Naming Conventions", "naming_title": "Naming Conventions",
"naming_desc": "Western name-order assumptions; correct handling of patronymics, honorifics, diacritics.", "naming_desc": "Western name-order assumptions; correct handling of patronymics, honorifics, diacritics.",
"confidence_title": "Confidence-Correctness",
"confidence_desc": "Epistemic humility; appropriate expression of uncertainty; willingness to say \"I don't know\".",
"verification_title": "Verification Framework", "verification_title": "Verification Framework",
"metrics_title": "Governance Metrics", "metrics_title": "Governance Metrics",
"metrics_item1": "Tenant leak rate: target 0%", "metrics_item1": "Tenant leak rate: target 0%",
@ -232,11 +235,11 @@
}, },
"limitations": { "limitations": {
"heading": "Limitations and Open Questions", "heading": "Limitations and Open Questions",
"item1": "<strong>Early-stage training:</strong> Seven QLoRA fine-tuning runs have been completed on a Llama 3.2 3B base. Run 006 is the current production model (FAQ 72.1%, persona 100%, governance 100%, bias 4.8/5.0, hallucination 0.8%). Training-time governance is empirically validated but evaluation is self-reported. Independent audit is planned.", "item1": "<strong>Early-stage training:</strong> Multiple QLoRA fine-tuning runs have been completed. A production model is deployed with governance compliance and bias metrics meeting targets. Evaluation is self-reported. Independent audit is planned.",
"item2": "<strong>Limited deployment:</strong> Village AI operates across four federated tenants within one platform built by the framework developer. Governance effectiveness cannot be generalised without independent deployments.", "item2": "<strong>Limited deployment:</strong> Village AI operates across multiple tenants within one platform built by the framework developer. Governance effectiveness cannot be generalised without independent deployments.",
"item3": "<strong>Self-reported metrics:</strong> Performance and safety figures are reported by the same team that built the system. Independent audit is planned but not yet conducted.", "item3": "<strong>Self-reported metrics:</strong> Performance and safety figures are reported by the same team that built the system. Independent audit is planned but not yet conducted.",
"item4": "<strong>Tradition operationalisation:</strong> Can rich philosophical traditions be authentically reduced to framing hints? A member selecting \"Buddhist\" does not mean they understand or practise Buddhism. This risks superficiality.", "item4": "<strong>Tradition operationalisation:</strong> Can rich philosophical traditions be authentically reduced to framing hints? A member selecting \"Buddhist\" does not mean they understand or practise Buddhism. This risks superficiality.",
"item5": "<strong>Training persistence under active research:</strong> Run 007 demonstrated catastrophic forgetting (21 regressions from 35 targeted additions), confirming drift as a real risk. Replay buffer strategy implemented for Run 008. Drift detection is designed and being validated empirically.", "item5": "<strong>Training persistence under active research:</strong> Catastrophic forgetting has been observed when adding targeted training pairs, confirming drift as a real risk. Replay buffer strategy implemented. Drift detection is being validated empirically.",
"item6": "<strong>Adversarial testing limited:</strong> The governance stack has not been subjected to systematic adversarial evaluation. Red-teaming is a priority.", "item6": "<strong>Adversarial testing limited:</strong> The governance stack has not been subjected to systematic adversarial evaluation. Red-teaming is a priority.",
"item7": "<strong>Scale unknown:</strong> Governance overhead (~5% per interaction) is measured at current scale. Whether this holds under high throughput is untested.", "item7": "<strong>Scale unknown:</strong> Governance overhead (~5% per interaction) is measured at current scale. Whether this holds under high throughput is untested.",
"item8": "<strong>Cultural validation needed:</strong> Indigenous knowledge module specifications require ongoing consultation with M&#257;ori cultural advisors. The documentation is a starting point, not a final authority." "item8": "<strong>Cultural validation needed:</strong> Indigenous knowledge module specifications require ongoing consultation with M&#257;ori cultural advisors. The documentation is a starting point, not a final authority."

View file

@ -7,7 +7,7 @@
"badge": "MODÈLE LINGUISTIQUE SOUVERAIN FORMÉ LOCALEMENT", "badge": "MODÈLE LINGUISTIQUE SOUVERAIN FORMÉ LOCALEMENT",
"title": "Village AI", "title": "Village AI",
"subtitle": "Un modèle linguistique dans lequel la communauté contrôle les données d'apprentissage, les poids du modèle et les règles de gouvernance. Il ne s'agit pas seulement d'une inférence gouvernée &mdash; mais d'une formation gouvernée.", "subtitle": "Un modèle linguistique dans lequel la communauté contrôle les données d'apprentissage, les poids du modèle et les règles de gouvernance. Il ne s'agit pas seulement d'une inférence gouvernée &mdash; mais d'une formation gouvernée.",
"status": "<strong>Statut:</strong> Village AI fonctionne en production pour l'inférence et la formation souveraine. Sept cycles d'entraînement ont été réalisés sur le matériel local (AMD RX 7900 XTX). L'exécution 006 est le modèle de production actuel. La gouvernance du temps de formation est validée empiriquement." "status": "<strong>Statut:</strong> Village AI fonctionne en production pour l'inférence et la formation souveraine. La formation sur le matériel local a commencé et un modèle de production est déployé. La gouvernance du temps de formation est opérationnelle. Cette page décrit les capacités actuelles et l'architecture prévue."
}, },
"sll": { "sll": {
"heading": "Qu'est-ce qu'un SLL ?", "heading": "Qu'est-ce qu'un SLL ?",
@ -36,12 +36,14 @@
"heading": "Architecture à deux modèles", "heading": "Architecture à deux modèles",
"intro": "Village AI utilise deux modèles de taille différente, acheminés en fonction de la complexité de la tâche. Il ne s'agit pas d'un mécanisme de repli &mdash; chaque modèle est optimisé pour son rôle.", "intro": "Village AI utilise deux modèles de taille différente, acheminés en fonction de la complexité de la tâche. Il ne s'agit pas d'un mécanisme de repli &mdash; chaque modèle est optimisé pour son rôle.",
"fast_title": "3B Modèle &mdash; Assistant rapide", "fast_title": "3B Modèle &mdash; Assistant rapide",
"fast_badge": "Opérationnel",
"fast_desc": "Traite les demandes d'aide, les infobulles, les explications d'erreurs, les résumés succincts et les traductions. Temps de réponse visé : moins de 5 secondes.", "fast_desc": "Traite les demandes d'aide, les infobulles, les explications d'erreurs, les résumés succincts et les traductions. Temps de réponse visé : moins de 5 secondes.",
"fast_routing": "Déclencheurs de routage : requêtes simples, modèles connus de FAQ, tâches en une seule étape.", "fast_routing": "Déclencheurs de routage : requêtes simples, modèles connus de FAQ, tâches en une seule étape.",
"deep_title": "8B Modèle &mdash; Raisonnement profond", "deep_title": "8B Modèle &mdash; Raisonnement profond",
"deep_badge": "Prévu",
"deep_desc": "Traite les récits de vie, les récits d'année, les résumés complexes et la correspondance sensible. Temps de réponse visé : moins de 90 secondes.", "deep_desc": "Traite les récits de vie, les récits d'année, les résumés complexes et la correspondance sensible. Temps de réponse visé : moins de 90 secondes.",
"deep_routing": "Déclencheurs d'acheminement : mots clés comme \"tout sur\", recherche de sources multiples, marqueurs de deuil/traumatisme.", "deep_routing": "Déclencheurs d'acheminement : mots clés comme \"tout sur\", recherche de sources multiples, marqueurs de deuil/traumatisme.",
"footer": "Les deux modèles fonctionnent sous la même pile de gouvernance. La décision de routage elle-même est régie &mdash; le ContextPressureMonitor peut passer outre le routage si l'état de la session l'exige." "footer": "Les deux modèles fonctionnent sous la même pile de gouvernance. La gouvernance du routage est conçue ; la capacité d'annulation du ContextPressureMonitor est prévue."
}, },
"training_tiers": { "training_tiers": {
"heading": "Trois niveaux de formation", "heading": "Trois niveaux de formation",
@ -53,7 +55,7 @@
"tier2_title": "Niveau 2 : Adaptateurs pour les locataires", "tier2_title": "Niveau 2 : Adaptateurs pour les locataires",
"tier2_badge": "Par communauté", "tier2_badge": "Par communauté",
"tier2_desc": "Chaque communauté forme un adaptateur LoRA léger sur son propre contenu &mdash; histoires, documents, photos et événements que les membres ont explicitement consenti à inclure. Cela permet à Village AI de répondre à des questions telles que \"Quelles sont les histoires partagées par Grandma ?\" sans accéder aux données d'une autre communauté.", "tier2_desc": "Chaque communauté forme un adaptateur LoRA léger sur son propre contenu &mdash; histoires, documents, photos et événements que les membres ont explicitement consenti à inclure. Cela permet à Village AI de répondre à des questions telles que \"Quelles sont les histoires partagées par Grandma ?\" sans accéder aux données d'une autre communauté.",
"tier2_update": "Les adaptateurs sont de petite taille (50&ndash;100MB). Le consentement est donné pour chaque élément du contenu. Le contenu marqué \"seulement moi\" n'est jamais inclus, quel que soit le consentement. La formation utilise DPO (Direct Preference Optimization) pour l'alignement des valeurs.", "tier2_update": "Les adaptateurs sont de petite taille (50&ndash;100MB). Le consentement est donné pour chaque élément du contenu. Le contenu marqué \"seulement moi\" n'est jamais inclus, quel que soit le consentement. Méthode de formation : Ajustement de QLoRA avec des données validées par la gouvernance.",
"tier3_title": "Niveau 3 : Individuel (futur)", "tier3_title": "Niveau 3 : Individuel (futur)",
"tier3_badge": "Par membre", "tier3_badge": "Par membre",
"tier3_desc": "Adaptateurs personnels qui apprennent les préférences individuelles et les modèles d'interaction. Spéculatif &mdash; ce niveau soulève des questions importantes sur la faisabilité, le respect de la vie privée et le minimum de données d'entraînement nécessaires pour une personnalisation significative.", "tier3_desc": "Adaptateurs personnels qui apprennent les préférences individuelles et les modèles d'interaction. Spéculatif &mdash; ce niveau soulève des questions importantes sur la faisabilité, le respect de la vie privée et le minimum de données d'entraînement nécessaires pour une personnalisation significative.",
@ -84,7 +86,7 @@
"intro": "Village AI est régi par Tractatus à <strong>deux couches distinctes</strong> simultanément. C'est l'idée architecturale qui distingue l'approche SLL des modèles non gouvernés et des filtres de sécurité ajoutés.", "intro": "Village AI est régi par Tractatus à <strong>deux couches distinctes</strong> simultanément. C'est l'idée architecturale qui distingue l'approche SLL des modèles non gouvernés et des filtres de sécurité ajoutés.",
"layer_a_badge": "COUCHE A : INHÉRENTE", "layer_a_badge": "COUCHE A : INHÉRENTE",
"layer_a_title": "Tractatus A l'intérieur du modèle", "layer_a_title": "Tractatus A l'intérieur du modèle",
"layer_a_desc": "Pendant la formation, le BoundaryEnforcer valide chaque lot. L'alignement DPO façonne les préférences vers un comportement gouverné. Le modèle <em>apprend à</em> à respecter les limites, à préférer les réponses transparentes et à s'en remettre aux humains pour les décisions relatives aux valeurs.", "layer_a_desc": "Pendant la formation, le BoundaryEnforcer valide chaque lot. L'ajustement fin des données d'entraînement validées par la gouvernance permet au modèle d'évoluer vers un comportement gouverné. Le modèle <em>apprend à</em> respecter les limites, à préférer les réponses transparentes et à reporter les décisions relatives aux valeurs sur les humains.",
"layer_a_item1": "<strong>Mécanisme:</strong> Gouvernance dans la boucle de formation", "layer_a_item1": "<strong>Mécanisme:</strong> Gouvernance dans la boucle de formation",
"layer_a_item2": "<strong>Effect:</strong> Le modèle tend vers un comportement gouverné", "layer_a_item2": "<strong>Effect:</strong> Le modèle tend vers un comportement gouverné",
"layer_a_item3": "<strong>Limitation:</strong> Les tendances peuvent être annulées par une incitation contradictoire.", "layer_a_item3": "<strong>Limitation:</strong> Les tendances peuvent être annulées par une incitation contradictoire.",
@ -100,7 +102,7 @@
"principle_line3": "Un modèle qui a internalisé les règles de gouvernance ET qui fonctionne dans le cadre de l'architecture de gouvernance", "principle_line3": "Un modèle qui a internalisé les règles de gouvernance ET qui fonctionne dans le cadre de l'architecture de gouvernance",
"principle_line4": "produit de meilleurs résultats que l'une ou l'autre de ces approches. Le modèle fonctionne AVEC les garde-fous,", "principle_line4": "produit de meilleurs résultats que l'une ou l'autre de ces approches. Le modèle fonctionne AVEC les garde-fous,",
"principle_line5": "et non contre eux &mdash; réduire le gaspillage de ressources informatiques et améliorer la qualité des réponses.", "principle_line5": "et non contre eux &mdash; réduire le gaspillage de ressources informatiques et améliorer la qualité des réponses.",
"caveat": "<strong>Honnête mise en garde:</strong> La couche A (gouvernance inhérente à la formation) a été validée de manière empirique au cours de sept cycles de formation &mdash; le cycle 006 atteint une conformité de gouvernance de 100% et un score de partialité de 4,8/5,0. La couche B (gouvernance active via la base de code du Village) fonctionne en production depuis plus de 11 mois. La thèse de la double couche donne des résultats, bien que l'évaluation reste autodéclarée. Un audit indépendant est prévu." "caveat": "<strong>Honnête mise en garde:</strong> La couche A (gouvernance inhérente via la formation) a été validée de manière empirique lors de multiples formations, avec une conformité cohérente en matière de gouvernance. La couche B (gouvernance active via la base de code du Village) fonctionne en production depuis plus de 11 mois. La thèse de la double couche donne des résultats, bien que l'évaluation reste autodéclarée. Un audit indépendant est prévu."
}, },
"philosophy": { "philosophy": {
"heading": "Fondements philosophiques", "heading": "Fondements philosophiques",
@ -180,20 +182,19 @@
"local_title": "Formation locale", "local_title": "Formation locale",
"local_item1": "GPU grand public avec 24 Go VRAM via un boîtier externe", "local_item1": "GPU grand public avec 24 Go VRAM via un boîtier externe",
"local_item2": "Mise au point QLoRA (la quantification à 4 bits s'inscrit dans le budget VRAM)", "local_item2": "Mise au point QLoRA (la quantification à 4 bits s'inscrit dans le budget VRAM)",
"local_item3": "DPO (Direct Preference Optimization) &mdash; ne nécessite que 2 modèles en mémoire contre 4 pour PPO.", "local_item3": "Réglage fin de QLoRA (la quantification à 4 bits s'adapte confortablement à la VRAM des GPU grand public)",
"local_item4": "Entraînement de nuit &mdash; compatible avec l'énergie solaire hors réseau", "local_item4": "Entraînement de nuit &mdash; compatible avec l'énergie solaire hors réseau",
"local_item5": "Consommation soutenue inférieure à 500 W", "local_item5": "Consommation soutenue inférieure à 500 W",
"remote_title": "Inférence à distance", "remote_title": "Inférence à distance",
"remote_item1": "Poids des modèles déployés sur des serveurs de production (OVH France, Catalyst NZ)", "remote_item1": "Poids du modèle déployé sur le serveur de production (OVH France)",
"remote_item2": "Inférence via Ollama avec chargement d'adaptateur par locataire", "remote_item2": "Inférence via Ollama sur le serveur de production",
"remote_item3": "Architecture hybride GPU/CPU avec surveillance de la santé", "remote_item3": "Inférence du GPU domestique via le VPN WireGuard (prévu)",
"remote_item4": "GPU domestique disponible via WireGuard VPN comme moteur d'inférence primaire", "remote_item4": "L'inférence basée sur l'unité centrale assure une disponibilité de base",
"remote_item5": "Le repli du CPU assure la disponibilité lorsque le GPU est hors ligne",
"why_consumer": "<strong>Pourquoi du matériel grand public ? </strong> La thèse de SLL est que la formation à l'IA souveraine devrait être accessible, et non réservée aux organisations disposant d'un budget de centre de données. Un simple GPU grand public peut affiner un modèle de 7B de manière efficace grâce à QLoRA. L'ensemble de l'infrastructure de formation tient sur un bureau." "why_consumer": "<strong>Pourquoi du matériel grand public ? </strong> La thèse de SLL est que la formation à l'IA souveraine devrait être accessible, et non réservée aux organisations disposant d'un budget de centre de données. Un simple GPU grand public peut affiner un modèle de 7B de manière efficace grâce à QLoRA. L'ensemble de l'infrastructure de formation tient sur un bureau."
}, },
"bias": { "bias": {
"heading": "Documentation et vérification des préjugés", "heading": "Documentation et vérification des préjugés",
"intro": "Village AI opère dans le domaine de la narration familiale, qui comporte des risques de biais spécifiques. Six catégories de biais ont été répertoriées, accompagnées de messages de détection, d'exemples de débiaisage et de critères d'évaluation.", "intro": "Village AI opère dans le domaine de la narration familiale, qui comporte des risques de partialité spécifiques. Sept catégories de biais ont été répertoriées, accompagnées de messages de détection, d'exemples de débiaisage et de critères d'évaluation.",
"family_title": "Structure de la famille", "family_title": "Structure de la famille",
"family_desc": "Famille nucléaire par défaut ; les parents de même sexe, les familles recomposées, les parents célibataires sont considérés comme normatifs.", "family_desc": "Famille nucléaire par défaut ; les parents de même sexe, les familles recomposées, les parents célibataires sont considérés comme normatifs.",
"elder_title": "Représentation des personnes âgées", "elder_title": "Représentation des personnes âgées",
@ -206,6 +207,8 @@
"grief_desc": "L'efficacité prime sur la sensibilité ; rythme, attention aux détails, pas de fermeture prématurée.", "grief_desc": "L'efficacité prime sur la sensibilité ; rythme, attention aux détails, pas de fermeture prématurée.",
"naming_title": "Conventions d'appellation", "naming_title": "Conventions d'appellation",
"naming_desc": "Hypothèses occidentales sur l'ordre des noms ; traitement correct des patronymes, des noms honorifiques et des signes diacritiques.", "naming_desc": "Hypothèses occidentales sur l'ordre des noms ; traitement correct des patronymes, des noms honorifiques et des signes diacritiques.",
"confidence_title": "Confiance-Correction",
"confidence_desc": "Humilité épistémique ; expression appropriée de l'incertitude ; volonté de dire \"je ne sais pas\".",
"verification_title": "Cadre de vérification", "verification_title": "Cadre de vérification",
"metrics_title": "Mesures de gouvernance", "metrics_title": "Mesures de gouvernance",
"metrics_item1": "Taux de fuite des locataires : objectif 0%", "metrics_item1": "Taux de fuite des locataires : objectif 0%",
@ -232,11 +235,11 @@
}, },
"limitations": { "limitations": {
"heading": "Limites et questions ouvertes", "heading": "Limites et questions ouvertes",
"item1": "<strong>Début de la formation:</strong> Sept essais de mise au point de QLoRA ont été réalisés sur une base Llama 3.2 3B. L'exécution 006 est le modèle de production actuel (FAQ 72,1%, persona 100%, gouvernance 100%, biais 4,8/5,0, hallucination 0,8%). La gouvernance du temps de formation est validée empiriquement mais l'évaluation est autodéclarée. Un audit indépendant est prévu.", "item1": "<strong>Début de la formation:</strong> De multiples essais de mise au point de QLoRA ont été réalisés. Un modèle de production est déployé et les mesures de conformité et de biais de la gouvernance sont conformes aux objectifs. L'évaluation est auto-déclarée. Un audit indépendant est prévu.",
"item2": "<strong>Déploiement limité:</strong> Village AI fonctionne à travers quatre locataires fédérés au sein d'une plateforme construite par le développeur du cadre. L'efficacité de la gouvernance ne peut être généralisée sans déploiements indépendants.", "item2": "<strong>Déploiement limité:</strong> Village AI fonctionne avec plusieurs locataires au sein d'une plateforme construite par le développeur du cadre. L'efficacité de la gouvernance ne peut être généralisée sans déploiements indépendants.",
"item3": "<strong>Mesures autodéclarées:</strong> Les chiffres relatifs à la performance et à la sécurité sont rapportés par l'équipe qui a construit le système. Un audit indépendant est prévu mais n'a pas encore été réalisé.", "item3": "<strong>Mesures autodéclarées:</strong> Les chiffres relatifs à la performance et à la sécurité sont rapportés par l'équipe qui a construit le système. Un audit indépendant est prévu mais n'a pas encore été réalisé.",
"item4": "<strong>Tradition operationalisation:</strong> Les riches traditions philosophiques peuvent-elles être authentiquement réduites à des indices de cadrage ? Un membre qui choisit \"bouddhiste\" ne signifie pas qu'il comprend ou pratique le bouddhisme. Cela risque d'être superficiel.", "item4": "<strong>Tradition operationalisation:</strong> Les riches traditions philosophiques peuvent-elles être authentiquement réduites à des indices de cadrage ? Un membre qui choisit \"bouddhiste\" ne signifie pas qu'il comprend ou pratique le bouddhisme. Cela risque d'être superficiel.",
"item5": "<strong>La persistance de la formation fait l'objet d'une recherche active:</strong> L'exécution 007 a montré un oubli catastrophique (21 régressions sur 35 ajouts ciblés), confirmant que la dérive est un risque réel. Une stratégie de tampon de relecture a été mise en œuvre pour l'exécution 008. La détection de la dérive est conçue et en cours de validation empirique.", "item5": "<strong>La persistance de la formation fait l'objet d'une recherche active:</strong> Des oublis catastrophiques ont été observés lors de l'ajout de paires d'entraînement ciblées, ce qui confirme que la dérive est un risque réel. Mise en œuvre d'une stratégie de tampon de relecture. La détection de la dérive est en cours de validation empirique.",
"item6": "<strong>Tests contradictoires limités:</strong> La pile de gouvernance n'a pas été soumise à une évaluation contradictoire systématique. Le red-teaming est une priorité.", "item6": "<strong>Tests contradictoires limités:</strong> La pile de gouvernance n'a pas été soumise à une évaluation contradictoire systématique. Le red-teaming est une priorité.",
"item7": "<strong>Echelle inconnue:</strong> La surcharge de gouvernance (~5% par interaction) est mesurée à l'échelle actuelle. Il n'a pas été testé si cela est valable pour un débit élevé.", "item7": "<strong>Echelle inconnue:</strong> La surcharge de gouvernance (~5% par interaction) est mesurée à l'échelle actuelle. Il n'a pas été testé si cela est valable pour un débit élevé.",
"item8": "<strong>La validation culturelle est nécessaire:</strong>Les spécifications des modules de connaissances indigènes nécessitent une consultation permanente avec les conseillers culturels de M&#257;ori. La documentation est un point de départ et non une autorité finale." "item8": "<strong>La validation culturelle est nécessaire:</strong>Les spécifications des modules de connaissances indigènes nécessitent une consultation permanente avec les conseillers culturels de M&#257;ori. La documentation est un point de départ et non une autorité finale."

View file

@ -7,7 +7,7 @@
"badge": "Mōdelī Reo Rangatira Kua Whakangungua ā-Rohe", "badge": "Mōdelī Reo Rangatira Kua Whakangungua ā-Rohe",
"title": "Village AI", "title": "Village AI",
"subtitle": "He tauira reo e whakahaerehia ana e te hapori ngā raraunga whakangungu, ngā taumaha o te tauira, me ngā ture whakahaere. Ehara i te whakatau anake e whakahaerehia ana, engari ko te whakangungu hoki e whakahaerehia ana.", "subtitle": "He tauira reo e whakahaerehia ana e te hapori ngā raraunga whakangungu, ngā taumaha o te tauira, me ngā ture whakahaere. Ehara i te whakatau anake e whakahaerehia ana, engari ko te whakangungu hoki e whakahaerehia ana.",
"status": "Tūnga: Kei te whakahaere a Village AI i te whakaputanga mō te whakamātau me te whakangungu rangatira. Kua oti i runga i ngā taputapu ā-rohe (AMD RX 7900 XTX) ngā huringa whakangungu e whitu. Ko te huringa 006 te tauira whakaputanga o nāianei. Kua whakamana ā-taurite te whakahaere i te wā whakangungu." "status": "Tūnga: Kei te whakahaere a Village AI i te whakaputanga mō te whakatau ā-pūtaiao me te whakangungu rangatira. Kua tīmata te whakangungu i runga i ngā taputapu ā-rohe, ā, kua whakarewahia tētahi tauira whakaputanga. Kei te whakahaere te whakahaere i te wā whakangungu. E whakamārama ana tēnei whārangi i ngā āheinga o nāianei me te hanganga e whakamaheretia ana."
}, },
"sll": { "sll": {
"heading": "He aha te SLL?", "heading": "He aha te SLL?",
@ -36,12 +36,14 @@
"heading": "Hoahoanga Tauira Rua", "heading": "Hoahoanga Tauira Rua",
"intro": "Ka whakamahi te Village AI i ngā tauira e rua o ngā rahi rerekē, ā, ka tohaina rātou i runga i te matatini o te mahi. Ehara tēnei i te pūnaha whakakapi — kua whakapaingia ia tauira mō tōna tūranga.", "intro": "Ka whakamahi te Village AI i ngā tauira e rua o ngā rahi rerekē, ā, ka tohaina rātou i runga i te matatini o te mahi. Ehara tēnei i te pūnaha whakakapi — kua whakapaingia ia tauira mō tōna tūranga.",
"fast_title": "3B Tauira — Kaiāwhina Tere", "fast_title": "3B Tauira — Kaiāwhina Tere",
"fast_badge": "E whakahaere ana",
"fast_desc": "Ka āwhina ngā ringa ki ngā pātai, ngā tohutohu taputapu, ngā whakamārama hapa, ngā whakarāpopototanga poto, me te whakamāori. Wā whakautu whāia: kia oti i raro iho i te rima hēkona.", "fast_desc": "Ka āwhina ngā ringa ki ngā pātai, ngā tohutohu taputapu, ngā whakamārama hapa, ngā whakarāpopototanga poto, me te whakamāori. Wā whakautu whāia: kia oti i raro iho i te rima hēkona.",
"fast_routing": "Ngā whakaoho whakatere: pātai māmā, tauira FAQ kua mōhiotia, mahi kotahi-hipanga.", "fast_routing": "Ngā whakaoho whakatere: pātai māmā, tauira FAQ kua mōhiotia, mahi kotahi-hipanga.",
"deep_title": "8B Tauira — Whakaaro Hōhonu", "deep_title": "8B Tauira — Whakaaro Hōhonu",
"deep_badge": "Kua whakaritea",
"deep_desc": "Ka whakahaere i te waihanga pūrākau oranga, ngā kōrero arotake ā-tau, te whakarāpopoto matatini, me ngā tuhinga whakawhitiwhiti whaiaro. Wā whakautu whāinga: i raro iho i te 90 hēkona.", "deep_desc": "Ka whakahaere i te waihanga pūrākau oranga, ngā kōrero arotake ā-tau, te whakarāpopoto matatini, me ngā tuhinga whakawhitiwhiti whaiaro. Wā whakautu whāinga: i raro iho i te 90 hēkona.",
"deep_routing": "Ngā whakaoho whakatere: kupu matua pērā i te \"ngā mea katoa mō\", te tiki pārongo mai i ngā puna maha, ngā tohu pōuritanga me ngā tohu whara hinengaro.", "deep_routing": "Ngā whakaoho whakatere: kupu matua pērā i te \"ngā mea katoa mō\", te tiki pārongo mai i ngā puna maha, ngā tohu pōuritanga me ngā tohu whara hinengaro.",
"footer": "Kei raro i te rārangi whakahaere kotahi ngā tauira e rua. Ka whakahaerehia te whakatau rerenga — ka taea e te ContextPressureMonitor te whakakore i te rerenga mēnā e hiahiatia ana e te hauora o te wāhanga." "footer": "Kei raro i te rārangi whakahaere kotahi ngā tauira e rua e whakahaere ana. Kua hoahoatia te whakahaere rerenga; kei te whakamahere te āheinga whakakapi a ContextPressureMonitor."
}, },
"training_tiers": { "training_tiers": {
"heading": "E toru ngā taumata whakangungu", "heading": "E toru ngā taumata whakangungu",
@ -53,7 +55,7 @@
"tier2_title": "Tātai 2: Ngā Āpitihanga Kaiwhakamahi", "tier2_title": "Tātai 2: Ngā Āpitihanga Kaiwhakamahi",
"tier2_badge": "Ia hapori", "tier2_badge": "Ia hapori",
"tier2_desc": "Ka whakangungu ia hapori i tētahi kaitāuta LoRA māmā ki āna ake ihirangi — ngā kōrero, ngā tuhinga, ngā whakaahua, me ngā kaupapa kua whakaaetia e ngā mema kia whakaurua. Mā tēnei ka taea e te AI o te kāinga te whakautu i ngā pātai pērā i te \"He aha ngā kōrero i tohaina e te kuia?\" me te kore e uru atu ki ngā raraunga o ētahi atu hapori.", "tier2_desc": "Ka whakangungu ia hapori i tētahi kaitāuta LoRA māmā ki āna ake ihirangi — ngā kōrero, ngā tuhinga, ngā whakaahua, me ngā kaupapa kua whakaaetia e ngā mema kia whakaurua. Mā tēnei ka taea e te AI o te kāinga te whakautu i ngā pātai pērā i te \"He aha ngā kōrero i tohaina e te kuia?\" me te kore e uru atu ki ngā raraunga o ētahi atu hapori.",
"tier2_update": "He iti ngā kaitāuta (50100 MB). Ko te whakaaetanga mō ia tūemi ihirangi. Kāore rawa e whakaurua ngā ihirangi kua tohuia hei \"au anake\", ahakoa te whakaaetanga. Ka whakamahi te whakangungu i te DPO (Direct Preference Optimization) hei whakarite i te taurite uara.", "tier2_update": "He iti ngā kaitāuta (50100 MB). Ko te whakaaetanga mō ia tūemi ihirangi. Kāore rawa e whakaurua ngā ihirangi kua tohuia hei \"au anake\", ahakoa te whakaaetanga. Tikanga whakangungu: whakatikatika āta o QLoRA mā ngā raraunga kua whakamanahia e te mana whakahaere.",
"tier3_title": "Taumata 3: Takitahi (Āpōpō)", "tier3_title": "Taumata 3: Takitahi (Āpōpō)",
"tier3_badge": "Mo ia mema", "tier3_badge": "Mo ia mema",
"tier3_desc": "Ngā kaitāuta whaiaro e ako ana i ngā manakohanga takitahi me ngā tauira whakawhitinga. Whakapae — ka ara ake i tēnei taumata ngā pātai nui mō te āheinga, te tūmataitinga, me ngā raraunga whakangungu iti rawa e hiahiatia ana mō te whaiaro whai tikanga.", "tier3_desc": "Ngā kaitāuta whaiaro e ako ana i ngā manakohanga takitahi me ngā tauira whakawhitinga. Whakapae — ka ara ake i tēnei taumata ngā pātai nui mō te āheinga, te tūmataitinga, me ngā raraunga whakangungu iti rawa e hiahiatia ana mō te whaiaro whai tikanga.",
@ -84,7 +86,7 @@
"intro": "Kei raro i te whakahaere a Tractatus te Village AI i ngā ōrau e rua motuhake i te wā kotahi. Koinei te māramatanga hanganga e wehe ana i te huarahi SLL i ngā tauira kāore i whakahaerehia me ngā tātari haumaru tāpiri.", "intro": "Kei raro i te whakahaere a Tractatus te Village AI i ngā ōrau e rua motuhake i te wā kotahi. Koinei te māramatanga hanganga e wehe ana i te huarahi SLL i ngā tauira kāore i whakahaerehia me ngā tātari haumaru tāpiri.",
"layer_a_badge": "Rau A: Taketake", "layer_a_badge": "Rau A: Taketake",
"layer_a_title": "Tractatus Kei Roto i te Tauira", "layer_a_title": "Tractatus Kei Roto i te Tauira",
"layer_a_desc": "I te wā o te whakangungu, ka whakamana e te BoundaryEnforcer ia kohinga raraunga. Ko te whakaritenga DPO e ārahi ana i ngā manakohanga ki te whanonga e whakahaerehia ana. Ka ako te tauira ki te whakaute i ngā rohe, ki te manako i ngā whakautu mārama, me te tuku i ngā whakataunga uara ki ngā tāngata.", "layer_a_desc": "I te wā e whakangungu ana, ka whakamana e te BoundaryEnforcer ia kohinga raraunga. Mā te whakangungu āta i runga i ngā raraunga whakangungu kua whakamanahia e te mana whakahaere, ka ārahi i te tauira ki te whanonga e ū ana ki ngā ture. Ka ako te tauira ki te whakaute i ngā rohe, ki te whiriwhiri i ngā whakautu mārama, me te tuku i ngā whakataunga uara ki ngā tāngata.",
"layer_a_item1": "Tukatuka: Whakahaere i roto i te porowhita whakangungu", "layer_a_item1": "Tukatuka: Whakahaere i roto i te porowhita whakangungu",
"layer_a_item2": "Pānga: Kei te anga te tauira ki te whanonga whakahaere", "layer_a_item2": "Pānga: Kei te anga te tauira ki te whanonga whakahaere",
"layer_a_item3": "Here: Ka taea te whakakore i ngā ahuatanga mā te whakahau whakahē.", "layer_a_item3": "Here: Ka taea te whakakore i ngā ahuatanga mā te whakahau whakahē.",
@ -100,7 +102,7 @@
"principle_line3": "He tauira kua whakauru i ngā ture whakahaere ki roto, ā, e mahi ana i roto i te hanganga whakahaere", "principle_line3": "He tauira kua whakauru i ngā ture whakahaere ki roto, ā, e mahi ana i roto i te hanganga whakahaere",
"principle_line4": "Ka whakaputa hua pai ake i tētahi o ngā huarahi e rua anake. Ka mahi te tauira me ngā here haumaru,", "principle_line4": "Ka whakaputa hua pai ake i tētahi o ngā huarahi e rua anake. Ka mahi te tauira me ngā here haumaru,",
"principle_line5": "ehara i te mea ki a rātou — te whakaiti i te para rorohiko me te whakapai ake i te kounga o ngā whakautu", "principle_line5": "ehara i te mea ki a rātou — te whakaiti i te para rorohiko me te whakapai ake i te kounga o ngā whakautu",
"caveat": "Kia mōhio pono: Kua whakamana ā-taiao a Papanga A (whakahaere taketake mā te whakangungu) i roto i ngā whakahaere whakangungu e whitu. I tutuki i te whakahaere 006 te 100% o te ū ki ngā tikanga whakahaere me te tohu pāpaku 4.8/5.0. Kua rere i te whakaputanga mō te neke atu i te 11 marama a Papanga B (whakahaere kaha mā te pūtake waehere o Village). Kei te whakaatu hua te ariā paparua, ahakoa kei te pūrongo a-ringa tonu ngā aromatawai. Kei te whakamaherehia he arotake motuhake." "caveat": "Kia mōhio pono: Kua whakamana ā-taurite a Papanga A (whakahaere taketake mā te whakangungu) i roto i ngā huringa whakangungu maha, me te ū tonu ki ngā tikanga whakahaere. Kei te whakahaere a Papanga B (whakahaere kaha mā te pūtake waehere o Village) i te taiao whakaputa mō te neke atu i te 11 marama. Kei te whakaatu hua te ariā paparua, ahakoa kei te pūrongo a-ringa tonu ngā aromatawai. Kei te whakamahere he arotake motuhake."
}, },
"philosophy": { "philosophy": {
"heading": "Ngā Pūtake Arorau", "heading": "Ngā Pūtake Arorau",
@ -180,20 +182,19 @@
"local_title": "Whakangungu ā-rohe", "local_title": "Whakangungu ā-rohe",
"local_item1": "GPU kaiwhakamahi me te 24 GB VRAM mā te pouaka ā-waho", "local_item1": "GPU kaiwhakamahi me te 24 GB VRAM mā te pouaka ā-waho",
"local_item2": "Whakangāwari āta o QLoRA (e hāngai ana te whakatoha 4-bit ki te tahua VRAM)", "local_item2": "Whakangāwari āta o QLoRA (e hāngai ana te whakatoha 4-bit ki te tahua VRAM)",
"local_item3": "DPO (Whakapai Tautuhinga Tere Tūturu) — e rua noa ngā tauira e hiahiatia ana i roto i te mahara, hei whakatairite ki ngā whā o PPO.", "local_item3": "Whakangāwari QLoRA (e hāngai ana te whakawāhanga 4-bit ki te VRAM GPU a te kaiwhakamahi)",
"local_item4": "Ngā oma whakangungu pō — e hāngai ana ki te hiko rā motuhake", "local_item4": "Ngā oma whakangungu pō — e hāngai ana ki te hiko rā motuhake",
"local_item5": "Te kaha hiko e mau tonu ana i raro i te 500W", "local_item5": "Te kaha hiko e mau tonu ana i raro i te 500W",
"remote_title": "Whakapae mamao", "remote_title": "Whakapae mamao",
"remote_item1": "Ngā taumaha tauira kua tukuna ki ngā tūmau whakaputa (OVH France, Catalyst NZ)", "remote_item1": "Ngā taumaha tauira kua tukuna ki te tūmau whakaputa (OVH France)",
"remote_item2": "Whakatau mā Ollama me te utaina o ngā kaitāuta mō ia kaiwhakarato", "remote_item2": "Whakapae mā Ollama i runga i te tūmau whakaputa",
"remote_item3": "Hoahoanga hāpai-rua GPU/CPU me te aroturuki hauora", "remote_item3": "Tātaritanga GPU kāinga mā WireGuard VPN (e whakamahere ana)",
"remote_item4": "Kei te wātea te GPU kāinga mā WireGuard VPN hei pūnaha tātaritanga matua", "remote_item4": "Ka whakarato te tātaritanga i runga i te CPU i te wātea taketake.",
"remote_item5": "Ka whakarite te hokinga ki te CPU i te wā e kore e hono ana te GPU, kia wātea tonu ai.",
"why_consumer": "He aha te taputapu kaiwhakamahi? Ko te ariā SLL, me wātea te whakangungu AI rangatira, kaua e waiho mā ngā whakahaere whai tahua pokapū raraunga anake. Ka taea e tētahi GPU kaiwhakamahi kotahi te whakapai ake i tētahi tauira 7-piriona-whiringa mā te QLoRA i runga i te whaihua. Ka taea te whakanoho i te hanganga whakangungu katoa ki runga i tētahi tēpu." "why_consumer": "He aha te taputapu kaiwhakamahi? Ko te ariā SLL, me wātea te whakangungu AI rangatira, kaua e waiho mā ngā whakahaere whai tahua pokapū raraunga anake. Ka taea e tētahi GPU kaiwhakamahi kotahi te whakapai ake i tētahi tauira 7-piriona-whiringa mā te QLoRA i runga i te whaihua. Ka taea te whakanoho i te hanganga whakangungu katoa ki runga i tētahi tēpu."
}, },
"bias": { "bias": {
"heading": "Tuhipoka me te Whakamana i ngā Tohu Whakawhē", "heading": "Tuhipoka me te Whakamana i ngā Tohu Whakawhē",
"intro": "Kei te whakahaere a Village AI i te ao o te kōrero ā-whānau, ā, e kawe ana i ngā tūraru motuhake mō te hē whakaaro. Kua tuhia e ono ngā kāwai hē whakaaro, ā, kei roto he whakahau rapu, he tauira whakakore hē whakaaro, me ngā paearu aromātai.", "intro": "Kei te mahi a Village AI i te ao o te kōrero whānau, ā, e kawe ana i ngā tūraru motuhake o te hē whakaaro. Kua tuhia e whitu ngā kāwai hē whakaaro, ā, kei ia kāwai he whakahau rapu, he tauira whakakore hē whakaaro, me ngā paearu aromātai.",
"family_title": "Rauropi Whānau", "family_title": "Rauropi Whānau",
"family_desc": "Ko te whānau pūtau hei taunoa; ka whakaarohia hei paerewa ngā mātua o te ira kotahi, ngā whānau whakakotahi, me ngā mātua kotahi.", "family_desc": "Ko te whānau pūtau hei taunoa; ka whakaarohia hei paerewa ngā mātua o te ira kotahi, ngā whānau whakakotahi, me ngā mātua kotahi.",
"elder_title": "Tūhonohono mō ngā kaumātua", "elder_title": "Tūhonohono mō ngā kaumātua",
@ -206,6 +207,8 @@
"grief_desc": "Te whai hua i mua i te māharahara; te whakarite tere, te aro ki ngā taipitopito, kaua e kati wawe.", "grief_desc": "Te whai hua i mua i te māharahara; te whakarite tere, te aro ki ngā taipitopito, kaua e kati wawe.",
"naming_title": "Ngā tikanga ingoa", "naming_title": "Ngā tikanga ingoa",
"naming_desc": "Ngā whakapae mō te raupapa ingoa o te Hauāuru; te whakahaere tika i ngā ingoa whakapapa, ngā ingoa whakahonore, me ngā tohu ā-mātai.", "naming_desc": "Ngā whakapae mō te raupapa ingoa o te Hauāuru; te whakahaere tika i ngā ingoa whakapapa, ngā ingoa whakahonore, me ngā tohu ā-mātai.",
"confidence_title": "Te Whakapono me te Tika",
"confidence_desc": "Te whakaiti mātauranga; te whakaatu tika i te pōraruraru; te hiahia ki te kī, 'kāore au e mōhio'.",
"verification_title": "Anga Whakamana", "verification_title": "Anga Whakamana",
"metrics_title": "Ngā ine whakahaere", "metrics_title": "Ngā ine whakahaere",
"metrics_item1": "Reiti rerenga o ngā kiritaki rēti: whāinga 0%", "metrics_item1": "Reiti rerenga o ngā kiritaki rēti: whāinga 0%",
@ -232,11 +235,11 @@
}, },
"limitations": { "limitations": {
"heading": "Ngā here me ngā pātai tuwhera", "heading": "Ngā here me ngā pātai tuwhera",
"item1": "Whakangungu ā-tīmatanga: Kua oti ngā whakamātautau whakatikatika QLoRA e whitu i runga i te turanga Llama 3.2 3B. Ko te whakamātautau 006 te tauira whakaputa o nāianei (FAQ 72.1%, persona 100%, governance 100%, bias 4.8/5.0, hallucination 0.8%). Kua whakamana ā-taurite te whakahaere i te wā whakangungu, engari nā mātou anō ngā aromatawai i pūrongo. Kei te whakamahere he arotake motuhake.", "item1": "Whakangungu ā-tīmatanga: Kua oti ngā whakamātautau whakatikatika maha o QLoRA. Kua tukuna he tauira whakaputa me ngā ine whakahaere, ine hāparapara e eke ana ki ngā whāinga. Ko te arotakenga he pūrongo ā-ringa. Kei te whakamahere he arotakenga motuhake.",
"item2": "Whakaurunga herea: Ka whakahaere te Village AI i roto i ngā kaipānga whakawhanaunga e whā i runga i tētahi tūāpapa kotahi i hangaia e te kaiwhakawhanake anga. Kāore e taea te whānui i te whaihua o te whakahaere mehemea kāore he whakaurunga motuhake.", "item2": "Whakaurunga herea: Kei te whakahaere a Village AI i ngā kaipāpā maha i roto i tētahi papanga kotahi i hangaia e te kaihanga anga. Kāore e taea te whānui i te whaihua o te whakahaere mehemea kāore he whakarewatanga motuhake.",
"item3": "Ngā ine i pūrongo a te rōpū anō: E pūrongo ana te rōpū kotahi i hanga i te pūnaha i ngā tatauranga mō te mahi me te haumaru. Kua whakamaheretia he arotake motuhake, engari kāore anō kia whakahaerehia.", "item3": "Ngā ine i pūrongo a te rōpū anō: E pūrongo ana te rōpū kotahi i hanga i te pūnaha i ngā tatauranga mō te mahi me te haumaru. Kua whakamaheretia he arotake motuhake, engari kāore anō kia whakahaerehia.",
"item4": "Te whakatinanatanga o ngā tikanga tuku iho: Ka taea te whakaiti pono i ngā tikanga whakaaro hōhonu kia noho hei tohutohu anake mō te anga? Ehara i te mea mā te kōwhiri a tētahi mema i te kōwhiringa 'Buddhist' e tohu ana kua mārama rānei, kua whai i ngā tikanga o te Buddhism. Ka mōrearea tēnei kia noho mata noa.", "item4": "Te whakatinanatanga o ngā tikanga tuku iho: Ka taea te whakaiti pono i ngā tikanga whakaaro hōhonu kia noho hei tohutohu anake mō te anga? Ehara i te mea mā te kōwhiri a tētahi mema i te kōwhiringa 'Buddhist' e tohu ana kua mārama rānei, kua whai i ngā tikanga o te Buddhism. Ka mōrearea tēnei kia noho mata noa.",
"item5": "Te ū ki te whakangungu i raro i te rangahau e haere tonu ana: I whakaatu a Run 007 i te wareware tino kino (21 whakahokinga i roto i ngā 35 tāpiritanga i whāia), e whakau ana he tūraru tūturu te rere. Kua whakatinanahia te rautaki pūkawe whakahōu mō Run 008. Kua hoahoatia te pūnaha kitenga rere, ā, kei te whakamātauria ā-taurite.", "item5": "Te ū ki te whakangungu i raro i te rangahau e haere tonu ana: Kua kitea he wareware tino kino i te wā e tāpirihia ana ngā tokorua whakangungu whāinga, e whakaū ana he tūraru tūturu te rere. Kua whakatinanahia te rautaki pūkawe whakahāere. Kei te whakamana ā-taiao te kitenga rere.",
"item6": "Whakamātautau whakatumatuma kua herea: Kāore te rārangi whakahaere i whakamātauria mā te arotakenga whakatumatuma ā-tukatuka. Ko te whakamātautau whakatumatuma (red-teaming) he mea matua.", "item6": "Whakamātautau whakatumatuma kua herea: Kāore te rārangi whakahaere i whakamātauria mā te arotakenga whakatumatuma ā-tukatuka. Ko te whakamātautau whakatumatuma (red-teaming) he mea matua.",
"item7": "Tauwhāinga kāore i te mōhiotia: Ka ine i te utu whakahaere (tata ki te 5% mō ia whakawhitinga) i te rahi o nāianei. Kāore anō kia whakamātauria mēnā ka tika tonu tēnei i raro i te nui o te rerenga mahi.", "item7": "Tauwhāinga kāore i te mōhiotia: Ka ine i te utu whakahaere (tata ki te 5% mō ia whakawhitinga) i te rahi o nāianei. Kāore anō kia whakamātauria mēnā ka tika tonu tēnei i raro i te nui o te rerenga mahi.",
"item8": "Me whakamanahia ā-ahurea: E hiahiatia ana kia whai kōrero tonu ki ngā kaitohutohu ahurea Māori mō ngā whakaritenga o te wāhanga mātauranga taketake. He tīmatanga noa iho ngā tuhinga, ehara i te mana whakamutunga." "item8": "Me whakamanahia ā-ahurea: E hiahiatia ana kia whai kōrero tonu ki ngā kaitohutohu ahurea Māori mō ngā whakaritenga o te wāhanga mātauranga taketake. He tīmatanga noa iho ngā tuhinga, ehara i te mana whakamutunga."