Précis
Le projet Village représente une tentative d'opérationnaliser des principes philosophiques rigoureux dans l'architecture des plateformes communautaires numériques et des systèmes d'intelligence artificielle. Plutôt que de traiter la philosophie comme une rhétorique décorative ou une justification post hoc, cette initiative intègre les idées d'Isaiah Berlin sur le pluralisme des valeurs, de Christopher Alexander sur l'intégrité structurelle et des cadres de souveraineté des données indigènes dans le substrat technique de l'organisation des communautés et du comportement des systèmes d'intelligence artificielle. Il en résulte une architecture constitutionnelle à trois niveaux dans laquelle certaines protections sont immuables, un cadre de gouvernance dans lequel l'IA ne peut pas automatiser les décisions relatives aux valeurs, et une méthodologie de formation dans laquelle l'ancrage philosophique précède le développement des capacités. Ce document présente les fondements intellectuels, les défis contemporains qui motivent ce travail et les plans concrets de mise en œuvre.
I. Fondements philosophiques
Isaiah Berlin et la pluralité des valeurs
L'engagement philosophique fondamental de ce projet découle des travaux d'Isaiah Berlin sur le pluralisme des valeurs, dont l'articulation la plus complète se trouve dans son recueil Four Essays on Liberty (1969). Selon Berlin, les biens humains authentiques - liberté, égalité, justice, miséricorde, efficacité, solidarité - sont fondamentalement pluriels et souvent incommensurables. Il n'existe pas de monnaie commune, d'échelle universelle, de méta-valeur permettant de les classer définitivement. Comme le résume la Stanford Encyclopedia of Philosophy : "Le pluralisme des valeurs est le point de vue selon lequel il existe de nombreuses valeurs différentes qui peuvent être également correctes et fondamentales, tout en étant en conflit les unes avec les autres.
Les implications de cette position sont profondes et souvent mal comprises. Berlin ne prône pas le relativisme, c'est-à-dire l'idée que tous les systèmes de valeurs sont également valables ou que les valeurs ne sont que des préférences subjectives. Il soutenait plutôt que les valeurs authentiques et objectives peuvent entrer en conflit de manière irréductible. Lorsque la liberté s'oppose à l'égalité, ou la miséricorde à la justice, nous sommes confrontés à un choix tragique où quelque chose de valeur réelle doit être sacrifié. Il ne s'agit pas d'un échec de l'analyse qu'un meilleur raisonnement pourrait résoudre ; c'est intrinsèque à la condition humaine.
Pour la gouvernance de l'intelligence artificielle, le cadre de Berlin débouche sur un principe essentiel : Les systèmes d'intelligence artificielle ne doivent jamais assumer une hiérarchie de valeurs par défaut. Lorsqu'une IA optimise l'efficacité, elle subordonne implicitement d'autres valeurs - la minutie, le soin, la réflexion - sans l'autorisation explicite de l'homme pour ce compromis. Le cadre du Tractatus qui régit nos systèmes d'IA reconnaît donc six cadres moraux irréductiblement différents :
- Déontologie - devoirs, droits et principes inviolables
- Conséquentialiste - résultats et bien-être global
- Éthique de la vertu - caractère et épanouissement humain
- Éthique des soins - relations et attention à la vulnérabilité
- Communautaire - tradition et biens partagés
- Relationnel indigène - interconnexion et réciprocité
Lorsque ces cadres entrent en conflit, ce qui est inévitable, le système ne résout pas la tension de manière algorithmique. Il soumet le conflit aux décideurs humains en leur indiquant de manière transparente ce que chaque cadre recommanderait et ce que chaque choix entraînerait comme perte. C'est ce que nous appelons la "délibération pluraliste" : la reconnaissance structurée du fait que des personnes raisonnables ayant des valeurs différentes mais légitimes parviendront à des conclusions différentes, et que cette diversité est une caractéristique des communautés saines plutôt qu'un défaut à éliminer par des moyens techniques.
La distinction établie par Berlin entre la liberté négative (absence d'ingérence) et la liberté positive (liberté d'atteindre la maîtrise de soi) éclaire également notre approche. Il a averti que la liberté positive, malgré sa rhétorique émancipatrice, comporte des dangers lorsqu'elle est exercée par ceux qui prétendent connaître les "vrais" intérêts des autres mieux qu'ils ne se connaissent eux-mêmes. Cet avertissement résonne avec une force particulière à l'ère de la curation algorithmique, où les systèmes optimisent l'"engagement" en partant du principe que ce qui capte l'attention représente une véritable préférence. Notre engagement en faveur de la liberté négative se manifeste par un refus d'optimisation : nous ne curons pas les flux, nous ne recommandons pas de contenu, nous ne poussons pas le comportement vers des résultats définis par la plateforme.
Christopher Alexander et l'intégrité structurelle
Les travaux de Christopher Alexander sur les langages de modèles et la théorie architecturale fournissent le cadre méthodologique permettant de traduire les principes philosophiques en architecture technique. Alexander, dont l'influence s'étend de l'architecture physique à la conception de logiciels, a soutenu que les systèmes vivants présentent des propriétés structurelles particulières qui ne peuvent être obtenues par une planification descendante, mais qui émergent d'une attention particulière portée à la manière dont les parties sont liées aux ensembles.
Cinq des principes d'Alexander ont été codifiés dans le cadre de gouvernance Tractatus :
Verrouillage profond (règle inst_090) : Les composants doivent se coordonner par le biais d'une validation mutuelle plutôt que d'opérer de manière isolée. Dans notre implémentation, aucun service ne peut approuver seul une action. Le BoundaryEnforcer valide qu'une opération respecte les limites des valeurs ; le MetacognitiveVerifier confirme que la qualité du raisonnement répond aux normes ; le CrossReferenceValidator assure la cohérence avec les décisions antérieures. Cette imbrication permet d'éviter tout point de contournement unique.
Transformation préservant la structure (règle inst_091) : Les modifications apportées à un système doivent préserver sa structure essentielle. Lorsque nos systèmes d'IA apprennent à partir de nouvelles données ou s'adaptent à de nouveaux contextes, ils ne doivent pas compromettre l'interprétabilité des journaux d'audit, invalider les décisions de gouvernance antérieures ou saper les précédents en matière d'instruction. L'évolution se fait dans le respect des contraintes structurelles.
Des gradients plutôt que des frontières (règle inst_092) : Les systèmes vivants fonctionnent sur des gradients d'intensité plutôt que sur des commutateurs binaires. Notre gouvernance reconnaît donc des niveaux - NORMAL, ÉLEVÉ, ÉLEVÉ, CRITIQUE, DANGEREUX - avec des protocoles différents à chaque niveau. Cela permet d'éviter la fragilité des systèmes qui n'ont que des états "autorisés" et "interdits".
Processus vivant (règle inst_093) : Le cadre évolue à partir d'une expérience opérationnelle réelle plutôt que de spécifications prédéterminées. Les règles de gouvernance émergent des échecs réels, des incidents documentés et des cas limites observés. Il s'agit d'un engagement en faveur de l'apprentissage institutionnel plutôt que de la rigidité institutionnelle.
La non-séparation (règle inst_094) : Il s'agit peut-être du principe le plus important. La gouvernance doit être intégrée dans l'architecture, et non pas ajoutée après coup. Si un système d'IA peut s'exécuter sans validation de la gouvernance, celle-ci est séparée et sera inévitablement contournée sous la pression. Dans nos boucles de formation, le BoundaryEnforcer valide chaque lot avant que la formation ne commence ; la gouvernance est à l'intérieur de la boucle, ce n'est pas un filtre appliqué après coup.
Ce dernier principe concerne un mode d'échec persistant dans la sécurité de l'IA : la tendance à développer d'abord des systèmes performants et à ajouter des mesures de sécurité par la suite. De telles approches traitent la sécurité comme une contrainte sur la capacité plutôt que comme un élément constitutif de ce qu'est fondamentalement le système. Les travaux d'Alexander suggèrent que cette séparation n'est pas seulement peu judicieuse d'un point de vue stratégique, mais qu'elle n'est pas judicieuse d'un point de vue architectural - les systèmes dont la gouvernance a été boulonnée n'ont pas l'intégrité structurelle des systèmes où la gouvernance et la fonction sont unifiées.
Souveraineté des données autochtones
Le troisième fondement structurel s'appuie sur des cadres indigènes bien antérieurs à la technologie numérique, mais qui abordent directement les questions de la gouvernance des données, des droits collectifs et de la relation entre l'information et la communauté.
Te Mana Raraunga, le réseau maori pour la souveraineté des données, énonce des principes qui remettent en question les hypothèses individualistes occidentales sur la propriété des données :
- Rangatiratanga - l'autorité et le contrôle appartiennent à la communauté et ne sont pas confiés à des plates-formes externes
- Whakapapa - données comprises à travers les relations et la lignée, et non comme des enregistrements isolés
- Whanaungatanga - les liens kin qui créent des obligations et des responsabilités
- Kotahitanga - une vision collective qui transcende les préférences individuelles
- Manaakitanga - la réciprocité et l'attention sont les fondements de l'utilisation légitime des données
- Kaitiakitanga - la tutelle plutôt que la propriété
Ces principes sont complétés par les principes CARE élaborés par la Global Indigenous Data Alliance : Bénéfice collectif, Autorité de contrôle, Responsabilité et Éthique. Le cadre PCAP des Premières Nations du Canada (propriété, contrôle, accès, possession) fournit des orientations parallèles.
Dans notre mise en œuvre, ces cadres se manifestent sous la forme de garanties structurelles : les membres individuels ne peuvent pas annuler les décisions de gouvernance collective concernant les données partagées ; les communautés conservent leur souveraineté sur la manière dont leurs récits collectifs sont traités et présentés ; aucune donnée ne circule vers des systèmes externes sans le consentement explicite de la collectivité par le biais de procédures de gouvernance établies.
Il s'agit d'un engagement philosophique substantiel, et non d'une simple reconnaissance. Nous reconnaissons que les communautés indigènes théorisent et pratiquent la souveraineté des données depuis des générations - bien avant que le terme "données" ne devienne un terme de l'industrie technologique - et que leurs cadres offrent des réponses sophistiquées à des problèmes que la philosophie occidentale commence seulement à reconnaître.
Le Tractatus : Wittgenstein et les limites du dicible
Le nom du cadre de gouvernance - Tractatus - fait délibérément référence au Tractatus Logico-Philosophicus (1921) de Ludwig Wittgenstein, l'une des œuvres philosophiques les plus influentes du vingtième siècle. Wittgenstein a établi une distinction fondamentale entre ce qui peut être dit (exprimé dans des propositions, soumises à la logique) et ce qui ne peut être que montré (les valeurs, l'éthique, la mystique).
Cette distinction s'applique directement à la gouvernance de l'IA. Certaines décisions peuvent être systématisées et déléguées à des agents autonomes : optimisations techniques, comparaison de modèles, recherche de données, transformations syntaxiques. Ces décisions appartiennent au domaine de l'"énonçable" - elles peuvent être spécifiées, mesurées, vérifiées.
D'autres décisions - celles qui impliquent les valeurs, l'éthique, le contexte culturel et l'action humaine - ne peuvent et ne doivent fondamentalement pas être automatisées. Elles appartiennent à ce que Wittgenstein appelait "l'indicible" : non pas parce qu'elles sont irrationnelles ou arbitraires, mais parce qu'elles dépassent la capacité des systèmes formels à les saisir. Le cadre du Tractatus fait respecter cette limite sur le plan architectural, en veillant à ce que les systèmes d'IA n'opèrent que dans le domaine de l'exprimable, tout en préservant l'autorité humaine sur tout ce qui se trouve en dehors de ce domaine.
II. Le village : L'architecture, une philosophie concrétisée
Architecture constitutionnelle à trois niveaux
La plateforme Village met en œuvre une architecture constitutionnelle à trois niveaux qui traduit les principes philosophiques en une structure applicable :
Couche 1 : Principes universels de la plate-forme (immuables)
Cette couche comprend des principes qui ne peuvent être modifiés par aucun locataire, administrateur ou utilisateur. Elle est codée en dur dans l'architecture du système et appliquée par le cadre Tractatus. En voici quelques exemples :
- Isolation des données des locataires (pas de partage de données entre communautés sans accord bilatéral explicite)
- Le droit de quitter (les membres peuvent quitter n'importe quel village à tout moment, en emportant leurs données, sans pénalités ni blocage)
- Exigences en matière de consentement pour l'utilisation des données (l'approbation du modérateur ne remplace jamais le consentement individuel)
- Pas de hiérarchie de valeurs imposée (la plateforme ne classe pas les valeurs des communautés les unes par rapport aux autres)
- Gouvernance intégrée dans l'architecture (selon le principe de non-séparation d'Alexander)
Ces principes ne sont pas des politiques qui pourraient être modifiées par des processus de gouvernance ; ce sont des contraintes structurelles qui rendent certaines violations impossibles d'un point de vue architectural.
Couche 2 : Principes constitutionnels du locataire (personnalisable)
Chaque village (communauté de locataires) définit sa propre constitution dans les limites établies par la couche 1. Cette couche comprend
- Normes de modération du contenu (comment la communauté traite les sujets controversés)
- Modèles de prise de décision (consensus, vote à la majorité, délégation de pouvoir)
- Paramètres de confidentialité et de transparence (niveaux d'enregistrement, attributions par défaut)
- Protocoles culturels (langue, traditions, considérations régionales)
- Limites de l'assistance de l'IA (quand l'IA aide et quand l'homme doit décider)
Cette couche incarne le pluralisme des valeurs de Berlin dans la pratique : différentes communautés ont légitimement des valeurs différentes, et la plateforme tient compte de cette diversité au lieu d'imposer l'homogénéité.
Couche 3 : Préférences personnelles du membre (individuel)
Les membres individuels configurent leurs propres préférences dans les limites de la constitution de leur communauté : fréquence des notifications, préférences linguistiques, niveaux d'assistance de l'IA, paramètres par défaut de confidentialité pour leur propre contenu. Les préférences de la couche 3 sont soumises aux normes communautaires de la couche 2, qui sont soumises aux principes universels de la couche 1.
Cette architecture à plusieurs niveaux garantit la protection des droits fondamentaux et l'épanouissement d'un véritable pluralisme. Une communauté familiale peut adopter des normes différentes de celles d'une organisation professionnelle ; une communauté religieuse peut établir des protocoles de communication différents de ceux d'une communauté laïque. Mais aucune communauté ne peut violer les protections fondamentales qui s'appliquent à tous.
Les statuts de la société
My Digital Sovereignty Limited, l'entité qui développe la plateforme Village, fonctionne selon une constitution publiée qui s'articule autour de six principes :
- 1. La souveraineté d'abord - La pleine propriété des données signifie un contrôle total, et non une minimisation des données. Les membres peuvent exporter toutes leurs données à tout moment. La suppression est réelle, à partir des systèmes de production, des sauvegardes et des données d'entraînement à l'IA.
- 2. La protection de la vie privée par défaut - La protection de la vie privée est un droit de l'homme, et non une fonctionnalité haut de gamme. La plateforme n'a pas de mode "public" ; toutes les interactions ont lieu dans des contextes authentifiés et définis par le locataire. Pas de pixels de suivi, pas d'analyse intersites, pas d'infrastructure de surveillance.
- 3. Le pluralisme plutôt que l'homogénéité - La plate-forme n'impose pas de valeurs. Les différentes communautés se gouvernent selon leurs propres principes, dans les limites des protections universelles.
- 4. Transparence et responsabilité - La constitution elle-même est publique. Les systèmes d'IA révèlent quels modèles ont été utilisés, quelles données ont été consultées et comment les décisions ont été prises. Les rapports d'incidents sont publiés avec un contexte complet.
- 5. Sécurité sans surveillance - La sécurité et la vie privée ne sont pas des forces opposées à "équilibrer". La modération communautaire remplace la curation algorithmique du contenu. La protection contre les menaces s'effectue aux frontières du système sans surveillance comportementale des membres.
- 6. Modèle d'entreprise durable - Tarification équitable basée sur le coût plus une marge raisonnable. Pas d'appât, pas d'impératifs de croissance dictés par le capital-risque, pas de stratégie de sortie qui compromettrait les intérêts des membres.
Une fédération intègre
Les villages peuvent se fédérer avec d'autres villages - partageant des contenus, permettant une interaction intercommunautaire - par le biais d'accords bilatéraux qui rendent explicites les différences constitutionnelles. La fédération n'est pas automatique ou sans friction ; elle nécessite :
- Consentement mutuel des structures de gouvernance des deux communautés
- Identification explicite des différences entre les constitutions
- Accord sur la manière dont les conflits seront résolus (règles d'origine, règles de destination, application plus stricte, reconnaissance mutuelle ou conditions douanières)
- Procédures de résolution des litiges à trois niveaux avec des délais définis
Cette approche considère la fédération comme une relation entre des entités souveraines plutôt que comme une intégration technique à optimiser pour la croissance. Elle accepte les frictions d'un véritable pluralisme plutôt que d'effacer les différences au nom d'une expérience utilisateur homogène.
III. La situation actuelle
L'avertissement de Berlin se concrétise
Isaiah Berlin avait prévenu que la liberté positive - la liberté de réaliser son "vrai" moi - comporte des dangers lorsqu'elle est revendiquée par ceux qui prétendent connaître les véritables intérêts des autres mieux qu'ils ne se connaissent eux-mêmes. Cet avertissement a trouvé sa concrétisation la plus complète dans l'économie de l'attention.
Les plateformes contemporaines optimisent l'"engagement" en se basant sur la théorie selon laquelle ce qui capte l'attention représente une préférence révélée. Mais cette théorie confond la contrainte et le choix. Les mécanismes neurologiques exploités par les flux algorithmiques - programmes de récompenses variables, boucles de validation sociale, amplification de l'outrage - ne représentent pas les préférences d'un agent autonome émettant des jugements réfléchis. Ils représentent les vulnérabilités d'un système biologique exploité de manière systématique.
Les entreprises qui exploitent ces systèmes pensent sincèrement qu'elles servent les utilisateurs en maximisant l'engagement. Il ne s'agit pas d'une rationalisation cynique, mais d'une conviction sincère, ce qui la rend bien plus dangereuse que la simple cupidité. Berlin a compris que les formes les plus destructrices de non-liberté sont enveloppées dans le langage de la libération, promettant d'aider les gens à atteindre ce qu'ils veulent "vraiment" en passant outre leurs préférences exprimées.
La concentration des capacités d'IA
Le développement de grands modèles de langage a concentré des capacités sans précédent dans un petit nombre d'organisations. Ces systèmes peuvent générer des textes de qualité humaine, analyser des documents complexes, écrire des codes fonctionnels et s'engager dans un raisonnement étendu. Ils sont intégrés dans tous les domaines de l'activité humaine : éducation, soins de santé, droit, travail créatif, relations personnelles.
Cette concentration soulève des questions auxquelles les cadres de gouvernance existants ne peuvent répondre :
- Lorsqu'un système d'IA formé sur la production collective de l'humanité devient une couche médiatrice dans la communication humaine, qui régit les valeurs intégrées dans cette médiation ?
- Lorsque les enfants grandissent avec des tuteurs IA façonnés par des hypothèses philosophiques particulières, comment ces hypothèses se propagent-elles d'une génération à l'autre ?
- Lorsque les systèmes d'IA prennent de plus en plus en charge des tâches qui nécessitaient auparavant un jugement humain, qu'advient-il de la capacité humaine de jugement elle-même ?
Il ne s'agit pas de problèmes techniques susceptibles d'être résolus par des solutions techniques. Il s'agit de problèmes philosophiques concernant le type d'êtres que nous voulons être et le type de société que nous voulons habiter.
L'érosion de l'autonomie épistémique
Le plus préoccupant est peut-être l'érosion de ce que l'on pourrait appeler l'autonomie épistémique : la capacité de se forger des convictions par son propre raisonnement plutôt que d'accepter des conclusions fournies par des systèmes que l'on ne comprend pas. Lorsqu'un système d'IA produit une réponse, la plupart des utilisateurs ne peuvent pas évaluer le raisonnement qui l'a produite. Ils doivent faire confiance ou se méfier en se basant sur les antécédents et la réputation, des critères faciles à manipuler.
Il s'agit d'un changement qualitatif dans la relation de l'homme à la connaissance. Les technologies précédentes - livres, bibliothèques, moteurs de recherche - ont renforcé la capacité humaine à trouver et à évaluer l'information. Les systèmes d'IA actuels se substituent de plus en plus à cette capacité, livrant des conclusions plutôt que des preuves, des réponses plutôt que des arguments.
La conséquence à long terme pourrait être une population qui a externalisé non seulement la recherche d'informations mais aussi le jugement lui-même - capable de poser des questions mais pas d'évaluer les réponses, dépendante de systèmes dont elle ne peut inspecter le fonctionnement et dont elle ne peut interroger les valeurs.
IV. Une approche philosophique du développement de l'IA
Le concept d'IA domestique
En réponse à ces défis, nous développons ce que nous appelons l'"IA domestique" - un petit modèle linguistique formé localement (SLL) qui fonctionne sous la gouvernance de la communauté sur du matériel contrôlé par l'utilisateur. Les caractéristiques distinctives sont les suivantes :
Souveraineté : Le modèle fonctionne sur du matériel appartenant à la communauté ou contrôlé par elle. Les données relatives à la formation restent locales. Aucune information ne circule vers des systèmes externes sans l'accord explicite des procédures de gouvernance établies.
Transparence : Les communautés peuvent vérifier ce que le modèle sait d'elles, comment il a été formé et pourquoi il produit des résultats particuliers. La mémoire de l'IA n'est pas une boîte noire, mais un enregistrement vérifiable soumis à la gouvernance de la communauté.
Fondement philosophique : Le modèle est formé en accordant une attention explicite aux fondements philosophiques. Plutôt que d'optimiser purement la capacité et d'ajouter des mesures de sécurité par la suite, nous intégrons des contraintes philosophiques dès les premières étapes du développement.
Gouvernance communautaire : Chaque communauté configure le comportement de son assistant IA en fonction de ses propres principes constitutionnels. Une communauté qui privilégie la franchise configure la franchise ; une communauté qui privilégie la douceur configure la douceur. La plateforme fournit l'infrastructure ; les communautés fournissent les valeurs.
L'encyclopédie de philosophie de Stanford, une référence qui fait autorité
Pour les concepts philosophiques, nous avons établi la Stanford Encyclopedia of Philosophy (SEP) comme référence unique faisant autorité. Cette décision reflète à la fois la qualité de l'érudition de la SEP et un engagement en faveur de la rigueur intellectuelle qui résiste à la tentation de traiter des positions philosophiques complexes comme des ressources à exploiter pour obtenir des citations commodes.
Lorsque le processus de formation rencontre des termes philosophiques, il se réfère aux entrées du SEP. En cas d'interprétations multiples, c'est l'analyse du débat par le SEP qui prime. Lorsque les utilisateurs posent des questions philosophiques, les réponses sont fondées sur les définitions du SEP plutôt que générées à partir de modèles statistiques dans les données de formation.
Il ne s'agit pas simplement d'une mesure de contrôle de la qualité, mais d'un engagement philosophique de fond : les systèmes d'IA qui s'intéressent aux concepts philosophiques doivent le faire avec la même rigueur que celle attendue des chercheurs humains, en reconnaissant la complexité plutôt qu'en l'aplatissant, en représentant les débats plutôt qu'en les résolvant de manière prématurée.
Les traditions de sagesse, une personnalisation de niveau 3
Au-delà des fondements philosophiques structurels (couche 1) et des principes constitutionnels communautaires (couche 2), nous fournissons un système de traditions de sagesse adoptables qui influencent la manière dont l'assistance à l'IA est encadrée et fournie (couche 3). Il est essentiel de comprendre ce que cette couche fait et ne fait pas.
Les effets de la couche 3 : Le style de communication, le cadrage, les choix linguistiques, les suggestions de rythme. Les traditions adoptées façonnent la façon dont l'IA domestique communique avec vous.
Ce que la couche 3 n'affecte pas : Les décisions relatives au contenu, l'accès aux données, l'application de la gouvernance. Les traditions adoptées ne contrôlent pas ce que le système est autorisé à faire. Il s'agit de tendances, et non de règles, qui peuvent toujours être ignorées dans une situation donnée.
Treize traditions ont été documentées et validées par l'encyclopédie de philosophie de Stanford :
- Simone Weil - son concept d'attention en tant qu'engagement réceptif à la souffrance influence les options telles que "prendre son temps" pour le contenu du deuil et la résistance à la compression de la perte dans des résumés.
- Le stoïcisme - qui met l'accent sur la distinction entre ce qui est et ce qui n'est pas du ressort de l'individu.
- L'éthique des soins - qui met l'accent sur les relations, la vulnérabilité et le jugement contextuel
- L'éthique confucéenne - qui met l'accent sur les rôles relationnels et l'harmonie sociale
- L'éthique bouddhiste - qui met l'accent sur l'impermanence, l'interdépendance et la cessation de la souffrance.
- Ubuntu - souligne l'identité communautaire et l'obligation mutuelle ("l'histoire de notre famille" plutôt que "votre histoire")
- Éthique juive - accent mis sur le tikkun (réparation) et le tzedakah (don vertueux)
- L'éthique islamique - qui met l'accent sur la miséricorde, la justice et la soumission à des principes transcendants.
- Cadres indigènes/maoris - mettant l'accent sur le whakapapa (lien généalogique) et les obligations de parenté
Les communautés et les individus peuvent adopter des traditions qui correspondent à leurs valeurs. Ces adoptions influencent la manière dont l'assistance à l'IA est encadrée - quelles considérations sont mises en avant, quel langage est utilisé, quelles options sont proposées - sans pour autant supplanter les protections structurelles établies à la couche 1 ou les règles constitutionnelles établies à la couche 2.
Lorsque les traditions suggèrent des approches différentes (comme c'est parfois le cas - l'équanimité stoïcienne peut entrer en tension avec l'attention portée à l'affliction par Weil), le système fait apparaître la tension plutôt que de la résoudre de manière algorithmique, invitant l'être humain à réfléchir à ce que la situation exige. C'est le pluralisme des valeurs de Berlin dans la pratique : les valeurs légitimes entrent véritablement en conflit, et le système ne prétend pas résoudre ce conflit à votre place.
La gouvernance intégrée à la formation
Conformément au principe de non-séparation d'Alexander, nous intégrons la gouvernance dans le processus de formation lui-même plutôt que de l'appliquer comme un filtre a posteriori. La boucle de formation comprend
- L'application des limites à chaque lot, validant que les données d'entraînement respectent les principes constitutionnels
- Vérification du consentement confirmant que les données utilisées pour la formation ont été fournies avec les autorisations appropriées.
- L'isolement des locataires permet d'éviter toute fuite entre les données de formation des communautés.
- L'enregistrement de l'audit permet de savoir quelles données ont influencé chaque entraînement.
Cette approche accepte un surcoût de performance - environ 5 % dans nos tests - en échange de véritables garanties. L'autre solution - former sans contrainte et filtrer par la suite - produit des systèmes où la gouvernance est toujours potentiellement contournable, toujours en tension avec les capacités, toujours en risque d'érosion sous la pression de la concurrence.
V. Vers une souveraineté numérique pluraliste
Le projet Village représente une approche possible de défis qui n'admettent pas de solutions définitives. Nous ne prétendons pas avoir résolu les tensions entre capacité et sécurité, entre autonomie individuelle et gouvernance collective, entre efficacité technologique et valeurs humaines. Ces tensions, telles qu'elles sont comprises à Berlin, sont véritablement tragiques : pour les surmonter, il faut faire preuve de jugement, de compromis et accepter que quelque chose de précieux sera toujours perdu.
Nous proposons plutôt un cadre qui prend ces tensions au sérieux - qui refuse de prétendre qu'elles peuvent être optimisées, qui intègre la réflexion philosophique dans l'architecture technique, qui préserve l'action humaine sur les décisions qui ne devraient pas être automatisées.
Le test de cette approche ne sera pas de savoir si elle atteint un optimum théorique, mais si elle permet aux communautés de s'épanouir selon leur propre conception de l'épanouissement, c'est-à-dire si elle protège les personnes vulnérables, préserve la diversité, maintient la transparence et crée des conditions dans lesquelles un véritable choix humain reste possible.
À une époque où les capacités de l'IA augmentent et où la surveillance humaine diminue, il s'agit peut-être du travail le plus important qui soit.
Références
Berlin, I. (1969). Four Essays on Liberty. Oxford University Press.
Alexander, C. (1977). A Pattern Language. Oxford University Press.
Alexander, C. (1979). The Timeless Way of Building. Oxford University Press.
Weil, S. (1951). Waiting for God. G.P. Putnam's Sons.
Wittgenstein, L. (1921). Tractatus Logico-Philosophicus.
Stanford Encyclopedia of Philosophy. "Value Pluralism." https://plato.stanford.edu/entries/value-pluralism/
Stanford Encyclopedia of Philosophy. "Simone Weil." https://plato.stanford.edu/entries/simone-weil/
Te Mana Raraunga. https://www.temanararaunga.maori.nz/
Global Indigenous Data Alliance. "CARE Principles." https://www.gida-global.org/care
— End of Document —
Licence
Copyright © 2026 John Stroh.
Cette œuvre est mise à disposition selon les termes de la Licence Creative Commons Attribution 4.0 International (CC BY 4.0).
Vous êtes libre de partager, copier, redistribuer, adapter, remixer, transformer et créer à partir de ce matériel, y compris à des fins commerciales, à condition de fournir une attribution appropriée, de fournir un lien vers la licence et d'indiquer si des modifications ont été apportées.
Note : Le code source du Tractatus AI Safety Framework est licencié séparément sous la Licence Apache 2.0. Cette licence Creative Commons s'applique uniquement au texte et aux figures du document de recherche.