- Buterinは、注意力の制限がDAO投票者の声を弱めるため、個人エージェントが彼らの代理として行動できると述べた。
- 彼は、委任が権力を集中させ、支持者がワンクリックで発言権を失うことを警告した。
- 彼は、ZK匿名性とデータではなく判断のみを公開するMPC出力によるプライバシーを支持している。
Vitalik Buterinは、人工知能が分散型ガバナンスの構造的な弱点を解消するのに役立つ可能性があると述べ、個人AIエージェントがユーザーのDAO意思決定参加をより効果的にするかもしれないと主張した。日曜日のXでの投稿で、彼は注意力の限界と低い参加率が持続的な障害であると述べた。彼は、委任が権力を集中させ、制御されないAI支配がディストピア的な結果をもたらすリスクを警告した。
彼は、民主的で分散型のシステムは、多くの決定に時間と専門知識が必要で、ほとんどの参加者がそれを持たないため、しばしば機能しにくいと述べた。その結果、DAOsのガバナンス参加率は通常15%から25%の範囲になるという。
彼はまた、低い投票率が中央集権化やガバナンス攻撃などのリスクを生み出す可能性があり、単一のアクターが十分なトークンを取得して有害な提案を気付かれずに可決することができると付け加えた。
パーソナルAIエージェントと注意力の問題
Buterinは、DAOガバナンスにおける根本的な問題のひとつは「人間の注意力の限界」であると記した。多くの提案は技術的知識や継続的な集中力を要求するが、ほとんどのユーザーはすべての投票を追跡できない。
彼は、よくある解決策である委任がユーザーの影響力を弱めると主張した。「一般的な解決策である委任は、ユーザーの力を奪うものだ」と彼は書いた。委任により、少数の代表者が結果をコントロールし、支持者は投票権を委任した後に影響力を失うと述べた。
代わりに、彼はユーザーの過去のメッセージや意見、決定に基づいて訓練された個人AIエージェントを提案した。これらのモデルは、個人が行動するであろう方法に沿って投票する。このアプローチは、権限を中央グループに移すことなく参加のギャップを埋める可能性があると彼は述べた。
彼はAIへの過度な依存に警鐘を鳴らした。「AIが政府になるのはディストピアだ」と彼は書き、弱いAIは悪い結果をもたらし、強力なAIはより大きなリスクを生む可能性があると付け加えた。AIは統治権力ではなくツールであると彼は位置付けた。
パブリック会話エージェントと提案市場
個人投票を超えて、Buterinは「パブリック会話エージェント」を紹介した。彼は、良い意思決定は孤立した意見を平均化する線形プロセスから生まれないと記した。「良い意思決定はしばしば、人々の見解を…取り、それを平均化する線形プロセスから生まれない」と彼は述べた。
彼は、参加者の情報を集約し、その幅広いインプットに基づいて各ユーザーまたはそのAIが応答できるシステムを提案した。これらのシステムは、個人の見解をプライバシーを守りつつ公的に共有できる形式に要約する。
また彼は「提案市場」も提案した。このモデルでは、参加者が提案や主張を提出し、AIエージェントがトークンでそれを支持する。ガバナンス機構がそのインプットを受け入れた場合、トークン保有者は報酬を得る。この仕組みにより、アイデアの質と金銭的インセンティブが結び付けられる。
関連記事: Vitalik Buterin、FOCILとEIP-8141を迅速なTxインクルージョンのために連携
プライバシーと安全な意思決定
Buterinは、交渉、紛争解決、報酬決定など機密情報を含む場面での課題に言及した。分散型システムはこのようなケースでしばしば苦戦する。
彼は、マルチパーティ計算や暗号技術を使用し、AIモデルがプライベートデータを安全に審査し、判断のみを出力できるようにすることを提案した。また、参加者の匿名性を守るためにゼロ知識証明を求めた。
彼は匿名性と内容のプライバシーを区別した。匿名性は身元を守り、内容のプライバシーは個人データの不要な開示を防ぐ。ガバナンスツールはこれらの保護策を最初から統合すべきだと主張した。

