Vitalik Buterin di Ethereum propone "steward" AI per reinventare la governance delle DAO
Cosa sapere:
- Buterin ha proposto di implementare modelli di intelligenza artificiale individuali addestrati sui valori degli utenti per automatizzare il voto su migliaia di decisioni delle DAO, affrontando la bassa partecipazione e la delega del voto ai grandi detentori di token.
- Il sistema utilizzerebbe zero-knowledge proofs e ambienti sicuri (MPC/TEE) per proteggere l'identità dei votanti e i dati sensibili, prevenendo coercizione e corruzione.
- I mercati predittivi incentiverebbero proposte di qualità e filtrerebbero lo spam, mentre gli agenti AI segnalerebbero solo le questioni critiche per la revisione umana, automatizzando la partecipazione alla governance ordinaria.
Il cofondatore di Ethereum Vitalik Buterin ha proposto una revisione tecnica delle organizzazioni autonome decentralizzate (DAO), invitando all’uso di agenti di intelligenza artificiale personali per esprimere voti in modo privato per conto degli utenti e aiutare a scalare la governance digitale.
Il piano, pubblicato sulla piattaforma social X un mese dopo che Buterin ha criticato le DAO per la bassa partecipazione e la centralizzazione del potere, mira a spostare gli utenti dalla delega dei voti ai grandi detentori di token.
Invece, gli individui dovrebbero implementare il proprio modello AI, addestrato sui loro messaggi precedenti e sui valori dichiarati, per votare sulle migliaia di decisioni che le DAO devono affrontare.
“Ci sono molte migliaia di decisioni da prendere, che riguardano molti ambiti di competenza, e la maggior parte delle persone non ha il tempo o le capacità per essere esperta nemmeno in uno di essi, figuriamoci in tutti.” ha scritto Buterin. “Quindi cosa possiamo fare? Usiamo LLM personali per risolvere il problema dell’attenzione.”
La prima questione è la privacy dei contenuti, assicurando che i dati sensibili rimangano confidenziali. Gli agenti AI opererebbero in ambienti sicuri come multi-party computation (MPC) o trusted execution environments (TEE), permettendo loro di elaborare dati privati senza rivelarli sulla blockchain pubblica.
La seconda è l’anonimato del partecipante. Buterin propone l’uso delle zero-knowledge proofs (ZKP), uno strumento crittografico che consente agli utenti di dimostrare la propria idoneità al voto senza rivelare l’indirizzo del wallet o il loro voto.
Questo protegge contro coercizione, corruzione e “whale watching”, dove i piccoli votanti imitano le decisioni dei grandi detentori di token.
Questi steward AI automatizzerebbero la partecipazione ordinaria alla governance e segnalerebbero solo le questioni chiave per la revisione umana.
Per filtrare proposte di bassa qualità o spam, un problema crescente poiché l’AI generativa inonda i forum aperti, Buterin suggerisce di lanciare mercati predittivi. In questi, gli agenti potrebbero scommettere sulla probabilità che le proposte vengano accettate.
Le scommesse vincenti riceverebbero premi, incentivando contributi di valore e penalizzando il rumore.
Buterin ha inoltre richiesto strumenti che preservino la privacy come multi-party computation e trusted execution environments, permettendo agli agenti AI di valutare dati sensibili, come candidature lavorative o controversie legali, senza esporli su una blockchain pubblica.
Esclusione di responsabilità: il contenuto di questo articolo riflette esclusivamente l’opinione dell’autore e non rappresenta in alcun modo la piattaforma. Questo articolo non deve essere utilizzato come riferimento per prendere decisioni di investimento.
Ti potrebbe interessare anche
Cosa rivelano l'uscita dell'insider e le recenti operazioni su UnitedHealth sulla reale salute dell'azienda
Cari appassionati di azioni AI, segnata la data: 15 marzo

Salto del 20% di Circle: movimenti nei prezzi del petrolio, rendimenti obbligazionari e guadagni di riserva
