DeFi optimiert für Gas, nicht für Märkte
DeFis gasoptimiertes Design versagt bei Volatilität. Warum fixe Liquidationslogik scheitert — und was João García 2026 ändern will.

Das Wichtigste in Kürze
- DeFi's Kernarchitektur wurde um Gas-Fee-Beschränkungen herum entwickelt, nicht um finanzielle Widerstandsfähigkeit — und dieser Kompromiss lässt sich immer schwerer ignorieren
- Während MakerDAOs Black Thursday im März 2020 wurden Vaults praktisch zu Null-Geboten liquidiert, als die Auktionsmechanismen unter Netzwerküberlastung zusammenbrachen
- Der Curve Finance Exploit 2023 zeigte, wie LP-Token, die als statische Sicherheiten behandelt werden, systemische Risiken über vernetzte Kreditprotokolle hinweg ausstrahlen können
- João García, DevReal-Leiter bei Cartesi, argumentiert, dass ohne leistungsfähigere On-Chain-Berechnung komplexe Risikomodelle off-chain abwandern — was DeFi weniger transparent macht, nicht mehr
DeFi's Gas-Optimierungsproblem ist kein Bug, an dessen Behebung gearbeitet wird — es ist eine grundlegende Designentscheidung, die zunehmend wie eine strukturelle Schwachstelle aussieht. Die Systeme, die dezentrales Lending, Trading und Derivate antreiben, wurden gebaut, um Rechenkosten zu minimieren, nicht um einen Volatilitätsschock zu überstehen. Und jedes Mal, wenn die Märkte unruhig werden, zeigt sich dieser Kompromiss genau dort, wo man ihn am wenigsten gebrauchen kann: in Liquidationsmechanismen, die sich nicht anpassen können, Sicherheitenschwellen, die zu langsam reagieren, und Risikomodellen, die off-chain leben, wo niemand sie prüfen kann.
Warum DeFi das Finanzsystem mit einer Hand auf dem Rücken neu aufbaute
Das Versprechen lautete stets, dass DeFi der Wall Street durch Transparenz, Zugänglichkeit und Selbstverwahrung den Rang ablaufen würde. Was in keiner Broschüre stand: Diese Systeme wurden auch unter gravierenden Rechenbeschränkungen gebaut, die Entwickler zwangen, Finanzlogik auf das absolute Minimum herunterzubrechen. Auf Ethereum und ähnlichen Chains existiert native Gleitkomma-Arithmetik nicht, iterative Simulationen verbrauchen rasch Gas, und die Neuberechnung von Cross-Asset-Exposure in Echtzeit ist praktisch unbezahlbar.
Also konvergierte DeFi zu statischen Quoten, festen Liquidationskurven und durch Governance gesteuerten Parameteranpassungen — nicht weil jemand die Zahlen durchgerechnet und befunden hätte, das sei optimal, sondern weil ausgefeiltere Modelle schlicht zu teuer in der Ausführung waren. Diese Vereinfachung funktionierte gut in ruhigen Märkten. In turbulenten Zeiten neigt sie dazu, auseinanderzufallen.
João García, DevReal-Leiter bei Cartesi, bringt es auf den Punkt: Was wie eine Designpräferenz aussieht, ist oft ein Zugeständnis an die Ausführungsgrenzen. Die Architektur funktioniert unter stabilen Bedingungen angemessen, aber Volatilität hat die Eigenschaft, ihre Grenzen auszutesten — und DeFi's Grenzen sind starrer, als den meisten Nutzern bewusst ist.
Drei Momente, in denen die Architektur unter Druck zerbrach
Die Beweislage ist nicht theoretisch. MakerDAOs Black Thursday im März 2020 ist die klarste Fallstudie: Vaults wurden praktisch zu Null-Geboten liquidiert, als die Auktionsmechanik unter einbrechenden ETH-Preisen und Netzwerküberlastung versagte. Die Liquidationsmaschine konnte sich nicht anpassen, weil sie dafür nicht gebaut war. Starre Formeln trafen auf eine dynamische Krise, und das Ergebnis war verheerend.
Aave und Compound erlebten bei späteren Abschwüngen ähnliche Dynamiken — Massenliquidierungen, ausgelöst durch starre Sicherheitenquoten statt durch eine portfolioweite Risiko-Neuberechnung. Wenn der Schwellenwert statisch ist, löst eine blitzartige Bewegung zum Schwellenwert die gleiche Reaktion aus, egal ob die Volatilität bei 15% oder 80% liegt. Das ist kein Risikomodell. Das ist ein Stolperdraht.
Dann kam der Curve Finance Exploit 2023. Nachdem die Smart-Contract-Schwachstelle Liquidität aus Curves Pools abgezogen hatte, strahlte der Schaden nach außen — insbesondere in Kreditprotokolle, die Curve-LP-Token behandelt hatten, als wären sie stabile Sicherheiten mit festem Wert. Das waren sie nicht. Die Ansteckung war kein Extremereignis mit minimaler Wahrscheinlichkeit. Sie war das vorhersehbare Ergebnis eines Systems, das Risiko statisch modelliert in einem Markt, der sich dynamisch bewegt.
In jedem dieser Fälle, so García, war die Dezentralisierung selbst nicht der Bruchpunkt. Der Bruchpunkt war starre Finanzlogik innerhalb einer Ausführungsschicht, die Risiken nicht neu berechnen konnte, während sich die Bedingungen verschlechterten.
Wenn Risiko nicht transparent on-chain modelliert und neu berechnet werden kann, wandert es off-chain ab — in Dashboards, Analyseteams, diskretionäre Parameteranpassungen und Notfall-Governance-Koordination.
Lebt DeFi's Risikomodell wirklich On-Chain?
Hier kommt die unbequeme Wahrheit: Bei vielen Protokollen lautet die Antwort zunehmend nein. Die Settlement-Schicht ist on-chain. Die adaptive Intelligenz, die das System in Stressphasen stabil hält — dieser Teil wandert off-chain ab, in Analyse-Dashboards, Parameter-Komitees und Notfall-Governance-Calls. Während Volatilitätsspitzen sind Protokolle auf schnelle menschliche Koordination angewiesen, um Parameter anzupassen, bevor das System zusammenbricht.
Orakel und große Token-Inhaber erhalten überproportionalen Einfluss auf die Ergebnisse, gerade weil sich das Protokoll nicht selbst anpassen kann. Die Blockchain bleibt das unveränderliche Hauptbuch. Die eigentliche Entscheidungsfindung unter Druck findet anderswo statt — und dieses Anderswo ist weit weniger überprüfbar als ein Smart Contract.
Genau diese Lücke adressiert García. Traditionelle Märkte haben sich in die entgegengesetzte Richtung entwickelt: Banken und Clearinghäuser führen kontinuierlich Tausende von Stressszenarien durch, mit Margin-Anforderungen, die dynamisch auf wechselnde Volatilitätsregime und Korrelationsstrukturen reagieren. Das erfordert erhebliche Recheninfrastruktur — genau das, wofür öffentliche Blockchains nicht konzipiert wurden. Die Frage ist, ob diese Designannahme noch haltbar ist, wenn DeFi in Instrumente skaliert, die wirklich komplex und tief miteinander verflochten sind.
Was sich ändern muss — und was wirklich auf dem Spiel steht
Garcías Argument lautet nicht, dass DeFi zentralisierter werden muss. Es lautet, dass Rechenleistung als erstklassiges Grundelement behandelt werden muss. Wenn verifizierbare Ausführungsumgebungen allgemeine Berechnungen approximieren können, erweitert sich der finanzielle Gestaltungsspielraum erheblich: native Gleitkomma-Unterstützung, iterative Algorithmen, Zugang zu etablierten numerischen Bibliotheken. Das würde es einem Kreditprotokoll ermöglichen, szenariobasierte Stresstests durchzuführen, anstatt sich auf eine feste Liquidationsquote zu verlassen.
Margin-Anforderungen könnten auf beobachtete Volatilität reagieren, anstatt auf Governance-Entscheidungen zu warten. Kreditsysteme könnten multivariate Risikobewertungen transparent neu berechnen — und binäre Heuristiken durch etwas ersetzen, das näher daran ist, wie Risiko tatsächlich funktioniert. Es geht nicht um Komplexität als Selbstzweck. Es geht darum, die Finanzintelligenz innerhalb des Protokolls zu halten, wo Nutzer sie prüfen können, anstatt sie in operationale Schichten auszulagern, die sie nicht einsehen können.
Die Weggabelung sieht so aus: Der eine Pfad bewahrt gas-optimierten Minimalismus auf der Basisschicht, während zunehmend ausgefeilte Risikomodelle off-chain abwandern. Saubere Smart Contracts, undurchsichtige Abläufe. Der andere Pfad akzeptiert leistungsfähigere Ausführungsumgebungen im Austausch gegen Systeme, die sich transparent on-chain anpassen, neu berechnen und stresstesten können. Keiner der beiden ist kostenlos — aber nur einer davon ist ehrlich darüber, wo die Komplexität tatsächlich liegt.
DeFi projiziert derzeit Einfachheit in seinem Code. In der Praxis verlässt es sich auf Ermessensspielraum. Diese Kluft wird sich weiten, wenn die Hebelwirkung steigt und Instrumente stärker miteinander verflochten werden. Märkte werden nicht langsamer, um den Beschränkungen virtueller Maschinen entgegenzukommen — und irgendwann hört das Ignorieren dieser Tatsache auf, eine technische Fußnote zu sein, und wird zum systemischen Risiko.
Häufig gestellte Fragen
Was ist DeFi's Gas-Optimierungsproblem?
DeFi-Protokolle wurden gebaut, um On-Chain-Rechenkosten (Gas Fees) zu minimieren, was Entwickler zwang, vereinfachte Finanzmodelle zu verwenden — statische Sicherheitenquoten, feste Liquidationskurven — anstelle dynamischer Risikosysteme. Das funktioniert in ruhigen Märkten, bricht aber unter Volatilität zusammen, weil sich die Logik nicht in Echtzeit anpassen kann.
Was geschah während MakerDAOs Black Thursday 2020?
Im März 2020 wurden MakerDAO-Vaults praktisch zu Null-Geboten liquidiert. Als die ETH-Preise einbrachen und die Ethereum-Netzwerküberlastung zunahm, fanden die starren Auktionsmechanismen des Protokolls keine Ausgleichspreise mehr. Das Ergebnis waren massenhafte unterbesicherte Liquidierungen — eine direkte Folge starrer On-Chain-Logik, die auf eine dynamische Krise traf.
Wie erzeugte der Curve Finance Exploit 2023 systemisches Risiko?
Eine Smart-Contract-Schwachstelle entzog den Liquiditätspools von Curve Kapital, doch der größere Schaden entstand bei Kreditprotokollen, die Curve-LP-Token zu statischen Bewertungen als Sicherheiten akzeptiert hatten. Als die Pool-Werte einbrachen, sahen sich diese Protokolle mit kaskadierenden Verlusten konfrontiert — ein Beispiel dafür, wie statische Sicherheitenmodelle bei der Bewertung dynamischer Risiken versagen.
Was schlägt Cartesi zur Lösung von DeFi's Rechenbeschränkungen vor?
Cartesis Position, formuliert von DevReal-Leiter João García, ist, dass DeFi verifizierbare Ausführungsumgebungen benötigt, die allgemeine Berechnungen unterstützen — einschließlich nativer Gleitkomma-Arithmetik, iterativer Algorithmen und numerischer Bibliotheken — damit komplexe Risikomodelle transparent on-chain laufen können, anstatt in undurchsichtige Off-Chain-Prozesse ausgelagert zu werden.
