Buterin argumentiert, dass KI die Wähler von DAOs unterstützen, die Privatsphäre schützen und Aufmerksamkeitsgrenzen überwinden sollte, ohne die Kontrolle zu zentralisieren.
Ethereum-Mitbegründer Vitalik Buterin hat argumentiert, dass dezentrale Governance eine grundlegende menschliche Grenze hat. In einem kürzlichen Beitrag auf X warnte er davor, Macht direkt an künstliche Intelligenzsysteme zu übertragen. Stattdessen schlug er vor, persönliche KI-Agenten zu verwenden, um demokratische Entscheidungsprozesse zu unterstützen.
Laut Buterin würde die direkte Übertragung von Macht an KI-Systeme neue Risiken schaffen. Schwache Systeme könnten die Governance mit schlechten Urteilen überfluten. Andererseits könnten fortschrittlichere Systeme den Einfluss in einer Weise zentralisieren, die die Dezentralisierung selbst untergräbt.
Aus diesem Grund lehnt der Mitbegründer die Idee einer „KI als Regierung“ ab. Stattdessen sieht er KI als unterstützende Infrastruktur für menschliche Wähler. Er erklärte, dass dezentrale Organisationen Tausende von Entscheidungen in rechtlichen, technischen und finanziellen Bereichen erfordern. Daher fehlt den meisten Teilnehmern die Zeit oder das Fachwissen, um jeden Vorschlag zu bewerten.
Delegation ist eine gängige Praxis, insbesondere in auf Ethereum aufgebauten DAOs. Wenn jedoch viele Menschen ihre Token an dieselben Vertreter delegieren, erhalten diese Vertreter den größten Teil der Entscheidungsbefugnis. Nach der Delegation haben reguläre Token-Inhaber meist keine direkte Kontrolle mehr über Abstimmungen.
Buterin schlägt vor, dass Menschen anstelle der Abstimmung über jede kleine Angelegenheit eine persönliche KI-Assistenten nutzen könnten. Dieser würde ihre Ansichten aus früheren Schreiben oder Aussagen lernen.
Wenn Unsicherheit besteht, würde der Agent direkte menschliche Eingaben anfordern. In diesem Setup verbleibt die endgültige Entscheidung beim Individuum, nicht bei der Software.
Er ist auch der Ansicht, dass Entscheidungsfindung bessere öffentliche Diskussionen erfordern sollte. KI-Systeme könnten private Eingaben in standardisierte öffentliche Formate umwandeln, ohne persönliche Daten offenzulegen. Sie könnten auch ähnliche Standpunkte gruppieren, sodass Teilnehmer auf verfeinerte Zusammenfassungen reagieren können.
Buterin sprach auch über „Vorschlagsmärkte“. In solchen Systemen könnte jeder Vorschläge oder Argumente einreichen. KI-Systeme würden Wetten auf Token platzieren, die mit jeder Einreichung verbunden sind. Wenn Governance-Mechanismen einen Vorschlag akzeptieren oder ihn als wertvollen Input behandeln, erhalten Token-Inhaber Belohnungen.
Finanzielle Signale würden helfen, stärkere Ideen zu identifizieren, ohne auf zentrale Prüfungsausschüsse angewiesen zu sein.
Seiner Ansicht nach können dezentrale Systeme sensible Entscheidungen treffen, ohne private Informationen offenzulegen. Er verwies auf Multi-Party-Computing als mögliche Lösung. Diese Methode ermöglicht es mehreren Personen, Eingaben gemeinsam zu verarbeiten, während die tatsächlichen Daten für alle Beteiligten verborgen bleiben.
Er erklärte, dass eine Person ihren persönlichen KI-Assistenten in eine sichere Umgebung, ähnlich einer Black-Box, platzieren könnte. Innerhalb dieses Systems könnte die KI vertrauliche Informationen prüfen und eine Entscheidung treffen.
Allerdings würde nur die endgültige Entscheidung freigegeben. Weder der Nutzer noch andere Teilnehmer würden die Rohdaten sehen. Gleichzeitig hätte niemand Zugriff auf die internen Inhalte des persönlichen KI-Systems.
Buterin betonte, dass Privatsphäre im Zentrum solcher Governance-Modelle stehen muss. Da Teilnehmer stärker auf persönliche Daten und größere Inputs angewiesen sind, steigen die Risiken bei schwachen Schutzmaßnahmen. Deshalb wird Anonymität unerlässlich. Werkzeuge wie Zero-Knowledge-Proofs können es ermöglichen, die Berechtigung nachzuweisen oder eine Abstimmung zu validieren, ohne die Identität offenzulegen.