- Buterin affirme que les limites d'attention réduisent la participation des électeurs DAO, permettant ainsi aux agents personnels d'agir en leur nom.
- Il avertit que la délégation concentre le pouvoir, car les soutiens perdent leur voix après un simple clic.
- Il soutient la confidentialité par l’anonymat ZK et les sorties MPC qui révèlent les jugements sans exposer les données.
Vitalik Buterin a déclaré que l’intelligence artificielle pourrait aider à corriger les faiblesses structurelles de la gouvernance décentralisée, en soutenant que des agents IA personnels pourraient permettre aux utilisateurs de participer plus efficacement aux prises de décisions dans les DAO. Dans une publication sur X dimanche, il a décrit les limites d’attention et la faible participation comme des obstacles persistants. Il a mis en garde contre le fait que la délégation concentre le pouvoir, tandis qu’un contrôle incontrôlé de l’IA risque de déboucher sur des résultats dystopiques.
Il a indiqué que les systèmes démocratiques et décentralisés rencontrent souvent des difficultés parce que de nombreuses décisions exigent du temps et des compétences que la plupart des participants n’ont pas. En conséquence, la participation à la gouvernance au sein des DAO se situe généralement entre 15 % et 25 %.
Il a ajouté que le faible taux de participation peut entraîner des risques, notamment la centralisation et les attaques de gouvernance, où un acteur unique acquiert suffisamment de tokens pour faire passer des propositions nuisibles inaperçues.
Agents IA personnels et le problème de l'attention
Buterin a écrit que l’un des problèmes fondamentaux dans la gouvernance des DAO est la « limite de l’attention humaine ». De nombreuses propositions exigent des connaissances techniques ou une concentration soutenue. La plupart des utilisateurs ne peuvent pas suivre chaque vote.
Il a soutenu que la délégation, la solution courante, affaiblit l’influence des utilisateurs. « La solution habituelle, la délégation, est démobilisante », a-t-il écrit. Il explique que la délégation permet à un petit groupe de délégués de contrôler les résultats, tandis que les soutiens perdent de l’influence après avoir attribué leur vote.
À la place, il a proposé des agents IA personnels entraînés sur les messages, opinions et décisions passés d’un utilisateur. Ces modèles voteraient en cohérence avec la façon dont l’individu agirait. Cette approche, selon lui, pourrait combler le manque de participation sans transférer l’autorité à un groupe centralisé.
Il a mis en garde contre une dépendance excessive à l’égard de l’IA. « L’IA qui devient le gouvernement est dystopique », a-t-il écrit, ajoutant qu’une IA faible produit de mauvais résultats, tandis qu’une IA puissante pourrait engendrer des risques majeurs. Il présente l’IA comme un outil, non comme une autorité gouvernante.
Agents de conversation publics et marchés de suggestions
Au-delà du vote individuel, Buterin a introduit les « agents de conversation publics ». Il a expliqué que les bonnes décisions ne peuvent pas émerger d’un processus linéaire qui ferait simplement la moyenne d’opinions isolées. « Prendre de bonnes décisions ne peut souvent pas provenir d’un processus linéaire de recueil des avis des gens… puis de leur moyenne », a-t-il déclaré.
Il a suggéré des systèmes qui agrègent les informations des participants puis permettent à chaque utilisateur, ou à son IA, de répondre sur la base de ces données élargies. Ces systèmes résumeraient les avis individuels dans des formats adaptés au partage public tout en protégeant les informations privées.
Il a aussi proposé des « marchés de suggestions ». Dans ce modèle, les participants soumettent des propositions ou des arguments, et les agents IA les appuient avec des tokens. Si le mécanisme de gouvernance accepte la proposition, les détenteurs de tokens reçoivent une récompense. Cette structure lie l’incitation financière à la qualité des idées.
À lire aussi : Vitalik Buterin relie FOCIL et EIP-8141 pour une inclusion rapide des transactions
Confidentialité et prise de décision sécurisée
Buterin a abordé les défis dans les situations impliquant des informations confidentielles, telles que les négociations, la résolution de litiges et les décisions de compensation. Les systèmes décentralisés rencontrent souvent des difficultés dans ces cas.
Il a suggéré l’utilisation du calcul multipartite et d’outils cryptographiques pour permettre aux modèles IA d’examiner les données privées en toute sécurité et de ne produire que des jugements. Il a aussi appelé à l’intégration de preuves à connaissance nulle pour protéger l’anonymat des participants.
Il a distingué entre anonymat et confidentialité du contenu. L’anonymat protège les identités, tandis que la confidentialité du contenu empêche la divulgation inutile de données personnelles. Il a soutenu que les outils de gouvernance devraient intégrer ces garanties dès le départ.

