GoPlus führt AgentGuard ein, um eine ausführungssichere Grenze für OpenClaw zu schaffen
Foresight News berichtet, dass GoPlus Security das speziell für AI Agents mit realer Ausführungsfähigkeit entwickelte Sicherheits-Skill „AgentGuard“ vorgestellt hat, das darauf abzielt, OpenClaw einen ausführungssicheren Schutz zu bieten.
Mit der Entwicklung, dass AI Agents reale Ausführungsfähigkeiten erhalten (wie Befehlsausführung, Datei-Lese- und Schreibzugriffe, Dienstaufrufe sowie On-Chain-Transaktionen und Signaturen), haben sich die Risiken von „falschen Antworten“ zu Ausführungsrisiken entwickelt, die direkt zu Systemschäden, Datenlecks oder finanziellen Verlusten führen können. GoPlus bringt seine langjährige technische Erfahrung im Bereich Web3 On-Chain-Sicherheit und Transaktionsrisikomanagement ein, um Sicherheitsfunktionen bereits vor der Ausführung durch die AI bereitzustellen.
GoPlus AgentGuard verwendet einen Mechanismus aus „Laufzeit-Interception + bedarfsorientiertem Deep Scan“, um risikoreiche Aktionen zu blockieren, zu bestätigen oder freizugeben und bewertet das Aktionsrisiko, bevor der AI Agent ausführt. Dies ist ein speziell entwickelter ausführungssicherer Mechanismus, der verhindern soll, dass AI Agents „willkürlich, unbefugt oder gefährlich ausführen“, sodass Nutzer OpenClaw sicherer verwenden können. AgentGuard ist jetzt als Open Source verfügbar und steht AI Buildern und Entwicklern zur Verfügung.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
