Skip to Content

de | en

Blockchain 3.0 – Die Zukunft der DLT?

“Ich bin der Meinung, dass Bitcoin die erste verschlüsselte Währung ist, die das Potential hat, die Welt zu verändern.”
Peter Thiel

Gemeinhin gilt die Bitcoin-Blockchain als Ursprungsblockchain, ist sie doch die erste Implementierung einer neuen Technologie, die heute auch als Distributed-Ledger-Technologie oder kurz DLT beschrieben wird. Auf die Geburtsstunde der Bitcoin-Blockchain 1.0 folgte mit der programmierbaren Ethereum-Variante die Blockchain 2.0 und bald darauf die dritte Generation, die Blockchain 3.0, in der Gestalt von IOTA, Nano oder Hashgraph.

Diese Unterteilung in die einzelnen Entwicklungsstufen stellt natürlich eine Vereinfachung dar. Sie ist so vereinfachend, dass sie in der dritten Blockchain-Generation schon gar nicht mehr zutrifft. Denn bei dieser handelt es sich überhaupt nicht mehr um eine eigentliche Blockchain. Vielmehr heißt hier das Stichwort: DAG oder „Directed Acyclical Graph“. Die auf dieser Technologie basierenden Projekte wie IOTA, Nano oder Byteball werden auch als Post-Blockchain-Konzepte bezeichnet.

Doch warum soll die Blockchain, welche gemeinhin als neue General-Purpose-Technologie mit unheimlichen Potenzial gefeiert wird, durch eine neue «Blockchain-Variante» ersetzt werden, die überhaupt keine echte ist?

Der wunde Punkt der Blockchain

In der Theorie hat die Blockchain-Technologie der ersten und zweiten Generation die Welt schon längst umgekrempelt. So scheint es kaum einen Bereich zu geben, der durch die Blockchain nicht grundlegende Veränderungen erfahren wird. In der Praxis allerdings sieht die Sache bislang etwas anders aus. Blockchains wie jene von Bitcoin, Ethereum oder Monero unterliegen einer bislang noch nicht überwundenen Einschränkung: Bis heute haben sie noch keine substantiellen Skalierungserfolge vorzuweisen. Gemeint ist, dass all diese Blockchain-Protokolle hinsichtlich Transaktionsdurchsatz und -geschwindigkeit beschränkt sind. Während die sogenannten Legacy-Systeme wie PayPal etwa 200 Transaktionen pro Sekunde (tps) und Visa sogar 56’000 tps verarbeiten können, schafft Ethereum derzeit allerhöchstens 20 tps, Bitcoin lediglich 7 Transaktionen pro Sekunde. Zurzeit ist es Bitcoin und Co. nicht möglich, auch nur annähernd an die Transaktionskapazität der derzeit dominanten Transaktionssysteme heranzukommen.[1]

Warum aber existiert diese technische Einschränkung überhaupt? Die Antwort ist einfach: Die Blockchain-Protokolle sind nicht etwa deshalb so langsam, weil diese grundsätzlich nicht skalierbar wären und keinen hohen Transaktionsdurchsatz ermöglichen könnten. Die Beschränkung ist vielmehr das Ergebnis der «bewussten» Entscheidung, ein non-zentrales Blockchain-Netzwerk zu priorisieren[2]. So besteht eines der Kernelemente öffentlicher Blockchains wie Bitcoin, Ethereum oder Monero darin, jedermann die Möglichkeit zu geben, einen netzwerktragenden Knoten (node) betreiben zu können. Ein jeder dieser Knoten verarbeitet jede einzelne Transaktion, zeichnet die gesamte Transaktionshistorie der Blockchain auf und verfügt über diese. So sorgt jeder Knoten dafür, dass das gesamte Blockchain-Netzwerk synchron gehalten wird. Somit ist klar: Die jeweilige Public-Blockchain ist nur so stark wie ihr schwächstes Glied. Die Skalierbarkeit und damit Transaktionsdurchsatz und –geschwindigkeit hängen von der Kapazität des leistungsschwächsten Knoten ab. Natürlich könnten solche Knoten ausrangiert werden. Dadurch nähme jedoch die so entscheidende Eigenschaft der «Censorship-Resistance» Schaden, da gewisse Knoten bewusst ausgeschlossen würden[3]. Es ist also letztlich dieses Trilemma zwischen Dezentralisierung, Sicherheit und Skalierbarkeit, dass die gegenwärtig bekannten Blockchains davon abhält, die Transaktionsgeschwindigkeit und den –durchsatz von herkömmlichen Systemen wie Visa oder PayPal zu erreichen.

Die Blockchain-Lösung, die keine Blockchain ist

Die Forschungs- und Weiterentwicklungsarbeiten in der Bitcoin- und Ethereum-Community stehen natürlich nicht still. In den jeweiligen Systemen wird eifrig an Skalierungslösungen gearbeitet. Auf Seiten von Bitcoin sind das Lightning-Network[4] und RootStock[5]  zwei der bekanntesten Ansätze. Bei Ethereum stehen Lösungen wie Sharding[6], Plasma[7] oder Caspar[8]90 ganz oben auf der Liste. Versuche wie das Lightning-Network oder Sharding deuten an, dass die Antwort auf die Skalierungsfrage darin bestehen wird, dass nicht alle Teilnehmer – oder Netzwerkknoten – zu jeder Zeit über alle Informationen Bescheid wissen müssen, um das Netzwerk synchron zu halten.

Der Name rührt daher, dass das Konzept eines DAG nach einem «horizontalen» Schema funktioniert, während eine Blockchain auf einer «vertikalen» Architektur aufbaut. Bei der Blockchain erstellen die Miners einen neuen Block. Dieser wird der Blockchain hinzugefügt und die Miner machen sich wieder an die Erschaffung des nächsten Blocks. Das „horizontale“ Verfahren der DAGs ermöglicht hingegen die Verknüpfung von Transaktionen mit Transaktionen. Auf diese Weise muss weder die Bestätigung des nächsten Blocks abgewartet werden, noch müssen alle Netzwerkteilnehmer diese Aktualisierung quittieren. Da das DAG-Konzept weder über Blöcke noch über Miner verfügt, gibt es keine Kette und damit auch keine „Block-Chain“ mehr. Die Struktur eines DAG ähnelt viel eher einem „wirren“ Netz zahlreicher Transaktionen. Es wird deshalb auch häufig von einem Tangle (Gewirr) gesprochen – ein Begriff, der vor allem im Zusammenhang mit dem IOTA-Projekt immer wieder auftaucht. Im Kern hat der Tangle jedoch die gleichen Eigenschaften wie eine Blockchain. Dem Prinzip nach handelt es sich immer noch um eine verteilte Datenbank, die auf einem Peer-to-Peer-Netzwerk basiert. Auch der Tangle ist somit ein Validierungsmechanismus zur dezentralen Konsensfindung.

Wie funktioniert der Tangle?

Der Tangle entsteht durch die Verknüpfung der einzelnen Transaktionen im Netzwerk. Die Verknüpfung ihrerseits ist eine Folge davon, dass jede ausstehende neue Transaktion eine bzw. zwei weitere Transaktionen bestätigen muss, bevor die noch ausstehende Transaktion selber verarbeitet und bestätigt werden kann. Im Gegensatz zur Blockchain von Bitcoin oder Ethereum sind es nicht nur die Miner, welche für die Bestätigung von Transaktionen zuständig sind. Im Falle des Tangle obliegt diese Aufgabe, neue Transaktionen zu verarbeiten und zu genehmigen, der Gesamtheit aller aktiven Tangle- respektive Netzwerk-Teilnehmer. So werden nicht nur dem Tangle neu hinzugefügte Transaktionen direkt bestätigt, sondern es findet eine indirekte Bestätigung der gesamten bisherigen Transaktionshistorie statt. Eine direkte Gebühr für das Verarbeiten der eigenen Transaktionen bezahlt der „Transaktions-Emittent“ nicht –indirekt bezahlt er aber durch die Bestätigung anderer Transaktionen.

Um die Bestätigung zu erlangen, haben diese „Tips“ ihrerseits andere Transaktionen zu bestätigen. Ein Algorithmus mit dem Namen „Markov Chain Monte Carlo“93 sorgt dafür, dass Netzwerkteilnehmer nicht bloß ihre eigenen Transaktionen bestätigen.

Der Grund, weshalb Transaktionen bestätigt werden müssen, leuchtet ein: Es gilt, das Problem des „Double-Spending“ zu verhindern. Wie bei einer Blockchain muss auch beim Tangle sichergestellt sein, dass Werteinheiten – im Falle von IOTA der IOTA-Token – innerhalb des Netzwerkes nicht doppelt ausgegeben werden können. Zum Beispiel: Schickt Alice zehn IOTA-Token an Bob, überprüft Charlie den IOTA-Token-Bestand von Alice vor dieser Transaktion. Besitzt Alice nur fünf IOTA-Token, würde ihr Bestand mit der Transaktion ins Minus geraten. Charlie wird diese Transaktion nicht bestätigen wollen, da er ein Interesse hat, seine eigene Transaktion bestätigt zu bekommen und dies nur geschehen wird, wenn er selbst keine ungültigen Transaktionen für gültig erklärt.[9]

Wie es der Name schon sagt, gleicht der Tangle letztlich einem Wirrwarr von Transaktionen. Damit sich in diesem „wirren“ Knäuel an Transaktionen nicht zwei separate Verzweigungen bilden, in denen Alice die gleichen IOTA-Token jeweils zweimal ausgegeben hat, verfügt der Tangle über ein Konzept namens „Confirmation Confidence“[10]. Dabei handelt es sich um das Maß an Vertrauen und Akzeptanz, das dieser Transaktion durch den Rest des Tangle gewissermaßen zuteilwird. Jede Transaktion verfügt somit über einen gewissen Prozentsatz, der von der Anzahl sie akzeptierender Tips (unbestätigte Transaktionen) abhängt. Auf diese Weise soll sichergestellt werden, dass sich bloß eine Verzweigung durchsetzt und zwar jene mit der größeren „Confirmation Confidence“.

Es ist dieses Konzept, das eine bessere Skalierung der DAG-Projekte ermöglichen soll. Was bei einer Blockchain für einen Transaktionsstau sorgt und das Netzwerk langsamer werden lässt, soll einen Tangle sicherer und schneller machen: Je mehr Teilnehmer im Netzwerk und je mehr Transaktionen verarbeitet werden, desto besser soll die Verarbeitung ausstehender Transaktionen theoretisch sein. Die größten Tangle-Projekte, IOTA und Nano, geben an, derzeit rund 1.000 bzw. 7.000 tps verarbeiten zu können.[11]

IOTA – Das Rückgrat für das „Internet of Things“?

Hervorgegangen ist das IOTA-Projekt aus einem Hardware-Startup, das an einem neuen trinären Mikroprozessor namens „Jinn[12]“ arbeitet. Diese Hardware-Komponente soll es in Zukunft möglich machen, dass jedes Fahrzeug, jede Mikrowelle und jeder Kühlschrank ohne als gewöhnlicher Computer zu funktionieren, über das IOTA-Netzwerk kommunizieren kann.[13] Seit Anbeginn der Entwicklung steht das IOTA-Projekt also ganz im Zeichen des „Internets der Dinge“ (IoT) und sieht sich aufgrund seiner inhärenten Skalierbarkeit als prädestinierte Lösung für das offensichtliche Problem der effizienten Transaktionsabwicklung in einer zukünftigen Maschinenökonomie.

Dass sich unsere Welt in diese Richtung entwickeln wird, scheint durch Experten heute kaum mehr infrage gestellt zu werden.[14] Schätzungen gehen davon aus, dass es im Jahr 2025 weltweit über 100 Milliarden miteinander verbundene Geräte und Maschinen geben soll, die alle über ein Dutzend oder mehr Sensoren verfügen werden. Doch schon heute produziert unser Smartphone Unmengen an Daten. Man stelle sich vor, welche riesigen Datenmengen erst einmal anfallen werden, wenn unser Auto zum Smartcar, unser Haus zum Smarthome und gar unsere Stadt zur Smartcity würde. In unserer Zeit, wo Daten das digitale Öl und somit eine neue Kostbarkeit darstellen, werden die durch das Datengeschäft anfallenden Erträge enorm sein. Natürlich sollen diese Werte nicht einfach durch große Tech-Unternehmen abgeschöpft werden. Als universelles, Geräte- und Maschinen-agnostisches Protokoll, soll IOTA deshalb zu diesem Zweck als öffentliches, dezentralisiertes und sich selbstregulierendes „Machine-to-Machine-Netzwerk“ fungieren, über welches die jeweiligen Maschinen ohne Mittelsmann selbständig kommunizieren und somit Werte transferieren können.

Ein futuristisches, aber häufig genanntes Veranschaulichungsbeispiel ist das eines Smartcars. Dieses intelligente Fahrzeug soll dereinst über eine Identität sowie ein „E-Wallet“, eine elektronische Geldbörse verfügen. Aufgrund dieser Ausstattung soll das Smartcar für verschiedenste Güter und Dienstleistungen wie Treibstoff (künftig wohl Strom und kein Benzin), Versicherung, Autowäsche oder Maut selber bezahlen können. Sogar die Bezahlung eines Parkscheines soll möglich sein, zumal das IOTA-Netzwerk keine eigentlichen Transaktionsgebühren kennt und es so für „Mikropayments“, also ganz kleine Zahlungen, wie geschaffen zu sein scheint.

Das Fahrzeug der Zukunft soll daher nicht nur selbstfahrend sein und für beanspruchten Dienstleistungen eigenständig bezahlen, es soll auch eigene Dienstleistungen anbieten können. Das Konzept von „Mobility as a Service! würde in einer solchen durch das IOTA-Netzwerk angetriebene Maschinenökonomie an Attraktivität gewinnen. Wann immer einer der noch existierenden Fahrzeugbesitzer sein Auto gerade nicht benötigt, soll dieses selbständig seine Fahrdienste anbieten können. Der Kunde seinerseits bezahlt für die Fahrt mit seinem E-Wallet. Auf diese Weise generiert das Auto dem Besitzer eine Art passives Einkommen, anstatt dass es nur unnütz auf einem Parkplatz herumsteht. Als autonomer Wirtschaftsakteuer scheinen die Möglichkeiten für ein solches Fahrzeug der Zukunft grenzenlos zu sein. Letztlich profitieren wir Menschen, da sich unsere Zeit so optimieren lässt. So könnte ein Fahrgast, wenn er es sehr eilig hat, das Fahrzeug auch damit beauftragen, andere Autos, die es weniger eilig haben, um Vortritt zu bitten. Selbstverständlich für ein Entgelt, das direkt via IOTA-Token über das IOTA-Netzwerk an das andere Fahrzeug bezahlt werden würde.[15]

Das IOTA-Netzwerk soll letztlich zum Zahlungs- und Abgleichungsrückgrat und somit zum Datenmarktplatz für alle Maschinen und Geräte dieser neuen Welt werden. Während wir heute bereits dabei sind, über die Digitalisierung von Dingen und deren Ausstattung mit Sensoren das „Internet der Dinge“ zu erschaffen, soll IOTA das Potenzial haben, noch einen Schritt weiter zu gehen: Eine Ökonomie der Dinge, in welcher Daten und Werte miteinander verschmelzen und IoT-Geräte in der Lage sind, ihre digitalen Assets in der neuen Maschinenökonomie autonom über Marktplätze miteinander zu teilen. 

In Bezug auf IOTA ist zudem beeindruckend: Das Projekt hat es geschafft, eine Stiftung in Deutschland zu gründen. Das ist insofern beeindruckend, als dass Deutschland in Sachen Stiftungsgründung als eines der schwierigsten Länder angesehen wird. Darüber hinaus schaffen es die Verantwortlichen der IOTA-Stiftung immer wieder, interessante Persönlichkeiten über ihre Stiftung an Bord zu holen. So gehört beispielsweise der „Chief Digital Officer“ Johann Jungwirth von VW dem Stiftungsrat an. Und auch Robert Bosch Ventures ist Teil des beratenden Gremiums und hat bereits wesentlich in IOTA investiert.[16]

Mitte April wurde in den Niederlanden die erste Ladestation für Elektro-Fahrzeuge der Welt auf den Markt gebracht, an der das Laden und Bezahlen mit IOTA durchgeführt werden kann. Das Ladegerät wurde von ElaadNL installiert, einem Forschungsinstitut für Innovation.[17] Für das IOTA-Team ist das ein erster Schritt in die angestrebte Zukunft.

Seit Kurzem hat das IOTA Team das lang erwartete Geheimnis um das sogenannte „Project Q“ gelüftet, das offiziell „Qubic“ heißt. Mit Qubic wird das IOTA-Protokoll nicht nur Smart Contracts[18] und Oracles[19] unterstützen, sondern auch eine Form des dezentralen Rechnens mittels unterschiedlicher Geräte. Der IOTA-Tangle wird somit programmierbar. Gleichzeitig sollen die gebührenfreien Mikrotransaktionen dafür sorgen, dass externe und verteilte Computerleistung für den IOTA-Tangle verwendet werden können. Mittels Qubic soll weltweit verfügbare, ungenutzte Rechenleistung für den IOTA Tangle nutzbar gemacht werden, um die Leistung des IOTA-Netzwerkes noch zu verstärken. Für die Gründer von IOTA ist das Projekt Qubic eine der entscheidendsten Meilensteine von IOTA.[20]

Hashgraph – die neuste Sensation unter den DLTs

Neben dem Tangle sorgt auch der Begriff „Hashgraph“ für Furore. Dabei handelt es sich um eine neu entwickelte Technologie, die ebenfalls in die Kategorie der Distributed-Ledger-Technologie (DLT) fällt. Die Idee für den Hashgraph wurde Mitte 2016 von Leemon Baird entwickelt und war ursprünglich für den privaten Unternehmensbereich gedacht. Das geistige Eigentum an Hashgraph wird von dem durch Baird gegründeten Unternehmen Swirlds gehalten.[21]Swirlds vertreibt ein Softwareentwicklungsprogramm, das es jedem erlaubt, mit der „Hashgraph Consensus Library“ zu experimentieren. Mit CULedger, einem Konsortium von 6000 Genossenschaftsbanken in Nordamerika, haben sie bereits einen potenten Kunden gefunden, der ihre private Hashgraph-Software anwendet und diese sogar anderen Alternativen wie Hyperledger vorgezogen hat.[22]

Aufgrund dieses Erfolgs im Unternehmensbereich hat Swirlds nun die „Hedera Hashgraph Platform“ ins Leben gerufen, die als eigenständige Einheit die patentierte Hashgraph-Technologie von Swirlds für den Aufbau eines öffentlichen Hashgraph-Netzwerkes vorantreiben soll.[23] Während der Quellcode des Hedera Hashgraph zwar öffentlich einsehbar ist und ein jeder als Netzwerkknoten (Node) Teil des Hedera-Hashgraph-Ökosystems werden kann, wird das Projekt dennoch ein Governance-Model haben, das sich an jenes von Visa anlehnt. Das heißt: Es wird 39 Organisationen geben, die eine Art Führungsrat bilden werden. Die exakten Bedingungen werden derzeit finalisiert, worauf die 39 Mitglieder bekannt gegeben werden.[24] Aufgrund dieser Struktur mit einem Leitungsorgan sind Forks, also Abspaltungen des Quellcodes zwecks Gründung eines Alternativprojektes, nicht möglich.

Wie funktioniert der Hashgraph?

Wie beim Tangle basiert auch das Hashgraph-Konzept nicht mehr länger auf Blöcken, die zu einer Kette chronologisch zusammengefügt werden. Beim Hashgraph gibt es stattdessen sogenannte „Events“, die miteinander verbunden, bzw. „verhashed“ sind – daher der Name „Hashgraph“. Folgende Informationen sind in diesen „Events“ enthalten: ein Zeitstempel (Timestamp), zwei unterschiedliche Eltern-Hashes (parent hashes) sowie eine oder mehrere Transaktionen.

Während bei einer Blockchain jeweils der gewinnende Node (Netzwerk-Teilnehmer) die Möglichkeit erhält, den neuen Block mit Transaktionen an die bestehende Kette anzufügen, informieren sich beim Hashgraph alle Knoten innerhalb des gesamten Netzwerkes gegenseitig über den neusten Stand und „tauschen“ ihre Information so miteinander aus. Ähnlich wie beim Tangle entsteht so ein Verbindungsdiagramm von „Events“ bzw. Transaktionen, die nach dem chronologischen Zeitablauf geordnet sind. Diese Transaktionshistorie erlaubt einen Konsens über die Reihenfolge der einzelnen Transaktionen.

Wie bei der Blockchain oder dem Tangle werden die notwendigen Informationen innerhalb des Netzwerkes auch beim Hashgraph-Konzept über das sogenannte Gossip-Protokoll, ein Kommunikationsprotokoll, weitergeleitet. Um Informationen innerhalb eines Netzwerkes zu verbreiten, gilt das Gossip-Protokoll zwischen unterschiedlichen Computern als das schnellste und effizienteste Verfahren. Jeder Computer (Netzwerkknoten) gibt die erhaltene Information an einen zufällig gewählten Computer weiter. Auf diese Weise kommt es zu einer exponentiellen Verbreitung der Information. 

Jedoch genügt die alleinige Verbreitung der Information innerhalb des Gesamtnetzwerkes nicht, um einen allgemeinen Konsens über die geteilte Information zu erhalten. Hierfür muss jeder Netzwerkteilnehmer die genaue Transaktionshistorie und somit die exakte Reihenfolge der einzelnen Transaktionen kennen, die über die bereits genannten Zeitstempel sichergestellt ist. Deshalb verwendet der Hashgraph-Konsens-Algorithmus den Ansatz des „Gossip about Gossip“. Jeder Computer innerhalb des Netzwerkes teilt sein ganzes Wissen darüber, welcher Netzwerkkonten was, zu wem und wann gesprochen hat. Oder etwas technischer ausgedrückt: Jeder Computer teilt sein ganzes Wissen über den Hashgraph, womit die exakte Reihenfolge aller im Netzwerk jemals stattgefunden Transaktionen gemeint ist. Indem jeder Netzwerkteilnehmer stets über den aktuellen Hashgraph verfügt, weiß jeder Computer über die gesamte Transaktionshistorie Bescheid. Alle Teilnehmer wissen also, dass jeder andere Teilnehmer innerhalb des Netzwerkes die gesamte relevante Information zu Transaktionen und deren Reihenfolge besitzt. Dieser Umstand ermöglicht sogenanntes „Virtual Voting“. Da sämtliche Knoten des Netzwerks eine Kopie der Transaktionshistorie sowie Informationen darüber haben, wer die Informationen zu welchem Zeitpunkt erhalten hat, kann jeder Teilnehmer berechnen, wie sich jeder andere Netzwerkteilnehmer verhalten wird. Jeder Knoten kennt also die Entscheidung des anderen, ohne dass jemals effektiv eine Entscheidung, sprich ein „Vote“, getroffen wurde. Auf der Grundlage dieses „Voting without Voting“ ergibt sich somit ein Konsens unter den Netzwerkteilnehmern, obschon diese kein ressourcenintensives Abstimmungsverfahren untereinander durchführen müssen. 

Interessanterweise sind die für Hashgraph verwendeten Voting-Algorithmen bereits über 35 Jahre alt und finden hier in leicht abgeänderter Form ihre Anwendung. Diese sind deshalb so nützlich, weil sie ein mathematisch bewiesenes Sicherheitslevel vorzuweisen haben, das in der Computertechnologie bislang nicht zu überbieten ist. Die Experten hinter Hashgraph behaupten daher unter Bezugnahme auf mathematische Beweise, dass Hashgraph als einzige DLT-Technologie A-BFT (Asynchronous Byzantine Fault Tolerance) sei. Das bedeutet, dass solange weniger als 1/3 der Netzwerkteilnehmer mutwillige Betrugsabsichten hat, kann immer ein Konsens unter den Computern über den Zustand des Netzwerkes und der Transaktionshistorie gefunden werden.

Die Zukunftsvision für Hashgraph

Als DLT-Technologie soll auch der Hashgraph die Struktur und Organisation des heutigen Internets radikal verändern. Es wird heute immer offensichtlicher, dass das Internet in seiner derzeitigen Form gravierende Mängel hat, die zum Teil auf Geburtsfehler zurückzuführen sind. So machen heute große zentralisierte Servereinheiten die Eckpfeiler unseres globalen Internets aus. Aufgrund dieser neuralgischen Angriffspunkte gehören Dinge wie Hacks, Spam-, BotNet- oder DDoS-Attacken zum Online-Alltag. Immer wieder wird uns diese Tatsache in der Realität vor Augen geführt. 

Neben unzulänglicher Sicherheit krankt das Internet aber auch an Isolation. Darunter ist zu verstehen, dass das Internet in seiner Ganzheit aus massenhaft isoliert arbeitende Systemen, die nicht standardmäßig miteinander verbunden sind, besteht, was eine reibungslose Kommunikation zwischen diesen abgetrennten Systemen daher mühsam und aufwendig macht. Obschon das Internet an der Oberfläche als einwandfrei vernetztes Netzwerk erscheint, besteht es in Tat und Wahrheit noch immer aus unzähligen getrennten Welten, deren Überbrückung sehr ressourcenintensiv ist.

Für diesen Geburtsfehler sieht sich Hashgraph als potenzielle Lösung. Mit Hashgraph soll ein „Internet of Shared Worlds“ geschaffen werden, das zahlreiche, heute bestehende Sicherheitsrisiken und –lücken minimiert und gleichzeitig die Isolation eliminiert. Zudem soll dieses „Internet der Zukunft“ es jeder Person ermöglichen, ihre eigene Welt, ihre eigene Gemeinschaft zu schaffen. Mittels des Hashgraph-Protokolls, das im Gegensatz zu herkömmlichen Blockchain-Protokollen eine Skalierung bereits über das Basis-Protokoll erlaubt, soll auch das Modell der Internet-Datenspeicherung fundamental geändert werden. Laut Experten soll die Datenspeicherung besser innerhalb und über Netzwerke verteilt werden. Für die Bereitstellung ihrer Datenspeicherungskapazität würden entsprechende Netzwerkteilnehmer auf der Stelle mittels Mikrozahlungen (Mikropayments) entlohnt werden. Die Finanzierung großer zentralistischer Servereinheiten für die Datenspeicherung würde nicht mehr länger notwendig sein, so Hashgraph-Befürworter. Das Herzstück dieses neuen Internets wären DLT-Technologien wie der Hashgraph, die auf eine transparente Weise alle wichtigen Informationen über die jeweilige Gemeinschaft festhalten. Würden die Anwendungen des Internets auf der Hashgraph-Technologie basieren, könnten sich die Teilnehmer sicher sein, dass die durch das Protokoll definierten Regeln auf eine faire Art und Weise für alle durchgesetzt werden, da diese durch Kryptografie und Mathematik gesichert und erzwungen werden. So können die einzelnen Gemeinschaften über die DLT-Technologien reibungslos miteinander kommunizieren und zu einem Konsens finden, weshalb dieses zukünftige Internet eines der „geteilten Welten“ wäre.

Die Kenner von Hashgraph beharren außerdem auf einem weiteren wichtigen Punkt. Die Hashgraph-Technologie könne das Internet auch schneller machen. Ein „Leadership-based“ Internet wie heute, das auf zentralen Servern aufbaut, die sämtlichen Datenverkehr durch das Gesamtsystem routen müssen, erscheint uns heutzutage zwar schnell. Würde das Internet jedoch auf einer DLT-Technologie wie den Hashgraph bauen, wäre eine noch höhere Geschwindigkeit möglich. So hat Swirlds mit seinem privaten Hashgraph-Netzwerk in Testversuchen eine höhere Transaktionsgeschwindigkeit hinbekommen, als das Visa-Netzwerk zurzeit vorweisen kann. Auch hierin sehen die Visionäre von Hashgraph einen weiteren Grund, weshalb ihr Protokoll das bestehende Internet möglicherweise verbessern kann.

Tangle & Hashgraph – Können sie halten, was sie versprechen?

Wie zu Beginn dieses Kapitels beschrieben, werden innovative Herangehensweisen wie der Tangle oder Hashgraph als nächste Generation in der noch jungen Geschichte der DLT-Technologie angesehen. Das neue Feld der DLT-Technologie ist bereits eine Innovation an und für sich, die es vor zehn Jahren noch nicht gab. Der gegenseitige Wettbewerb innerhalb dieses neuen Bereiches heizt dessen Innovationsfähigkeit noch zusätzlich an. Die Geschwindigkeit, mit welcher die Innovation voranschreitet, ist verblüffend. Allerdings geht das gegenseitige Rivalisieren zwischen den Projekten nicht selten in regelrechte Animosität über. Die Debatten verkommen zu kindischen Schlammschlachten, welche die Krypto-, Blockchain- und DLT-Welt insgesamt wenig weiterbringen. Für einen unbeteiligten Dritten ist es schwierig, bei all den billigen, emotional aufgeladenen und vielfach personenbezogenen Anschuldigungen und Kritikpunkten den Überblick zu behalten und zu einer sachlichen Einschätzung der Materie zu gelangen. 

An dieser Stelle soll deshalb einer jener Haupteinwände kurz beschrieben werden, der durchaus berechtigt zu sein scheint. Im Falle eines DAG (tangle und hashgraph) existiert kein globaler Netzwerkzustand, da ein DAG über keine Blöcke verfügt und gewissermaßen auf dem Prinzip des regionalen Konsenses beruht. Das heißt, die Netzwerkteilnehmer speichern nicht mehr alle Vorgänge ab, sondern nur noch „lokale“ Daten ihrer „Nachbarn“ und vertrauen dabei darauf, dass „andere Regionen“ dies ebenfalls sorgfältig machen. Hier stellt sich letztlich die Frage, ob dieses Konzept der Regionalität tatsächlich Double-Spend-Attacken verhindern kann. Fairerweise muss dazu gesagt sein, dass sich die gleiche Frage auch bei jenen Skalierungsversuchen von Ethereum stellt, die sich den Sharding-Ansatz zunutze machen wollen. 

Ebenfalls im Raum steht die Befürchtung, wonach der Tangle sowie der Hashgraph aufgrund ihrer Skalierbarkeit eine riesige Datengröße annehmen werden und dies zu einer Zentralisierung bei jenen Netzwerkteilnehmern führen wird, welche das Netzwerk am Laufen halten. IOTA als auch Hedera Hashgraph haben hierfür Koordinatoren bzw. eine Führungsriege vorgesehen, die regelmäßige Verkürzungen des Tangle respektive Hashgraph vornehmen könnten. Dies würde natürlich bedeuten, dass die Netzwerke so potenziell wieder über gewisse neurale zentralisierte Angriffspunkte verfügen. Die Verantwortlichen beider Projekte argumentieren zwar, dass die Koordinatoren beim Tangle sowie der Führungsrat beim Hashgraph bloß eine stützende Funktion innehaben. Ab einer gewissen Größe und Relevanz der beiden Projekte würde es diese „Stützräder“ nicht mehr benötigen, worauf die IOTA-Koordinatoren sowie der Hashgraph-Führungsrat an Einfluss verlieren würden. Zudem ist es bis zu diesem Zeitpunkt gut möglich, dass die Problematik zu großer Datenmengen ebenfalls gelöst ist. Bis dahin muss aber noch einiges passieren und die Projekte müssen die versprochene Skalierung erst einmal erreichen. Obschon der Tangle und auch der Hashgraph in der Theorie vielversprechend erscheinen, haben sie den endgültigen Beweis in der Praxis erst noch zu liefern.

[1] Vgl. “Why blockchains don’t scale,” Piers Ridyard, Radix, Februar 8, 2018. (Opened: 24.04.2018)

[2] Here the term non-centricity is deliberately used. The frequently mentioned concept of de-centrality implies that there is a central entity, albeit a weak one. However, this does not apply to Bitcoin and some other blockchain projects, which is why "non-central" seems to be better suited.

[3] Vgl. “Hate Bitcoin? This Mai Change Your Mind,” Peter Shin, Medium, März 10, 2018.

[4] Vgl.Crypto Research Report II

[5]  Vgl. RSK.

[6] Vgl. “How to Scale Ethereum: Sharding Explained,” Raul Jordan, Medium, Januar 20, 2018.

[7] Vgl.“Ethereum Plasma Explained,” Lukas Schor of Argon Group, Medium, Mai 28, 2018.

[8] Vgl.“What is Ethereum Casper Protocol?,” Blockgeeks, Dezember, 2018.

[9] Vgl.“The Tangle: an Illustrated Introduction,”Alon Gal, IOTA Blog, Januar 31, 2018.

[10] Vgl.“The Tangle: an Illustrated Introduction,”Alon Gal, IOTA Blog, Januar 31, 2018.

[11] Vgl.“What it means to have 7,000tps!,” Reddit, Januar, 2018.

[12] Vgl.”Jinn,” CoinMarketCap, 2018.

[13] Vgl.“IOTA: The hardware part,” Chris Mueller, Medium, Januar 6, 2018.

[14] Watch “Jeremy Rifkin on the Fall of Capitalism and the Internet of Things,” Big Think, April 22, 2018.

[15] Watch “IOTA – 100 Billion Reasons Why,” The bIOTAsphere, April 11, 2018.

[16] Vgl.“Blockchains vs DAG: Behind the Battle for the Backbone of the Internet of Things And the Future of Cryptocurrency – A History,” Wasim Of Nazareth, Medium, Februar 16, 2018.

[17] Vgl.“World’s first IOTA Smart Charging Station,” Harm van den Brink, ITA Blog, April 19, 2018.

[18] Vgl.“Smart Contracts: The Blockchain Technology That Will Replace Lawyers,” Blockgeeks, 2016.

[19]  Vgl.“Types of oracles,” BlockchainHub, 2018.

[20] Vgl.“IOTA and Qubic – The Start of New Era (And The Fulfillment Of A Long Time Dream),” IOTA News, Juni 42018.

[21] Vgl.Swirlds’ website for more information.

[22] Vgl.“Swirlds and CULedger Collaborate to Deliver High Performance, Secure, Distributed Applications to Credt Unions,” Swirlds, Oktober 27, 2017.

[23] Vgl.“The Future Of Distributed Ledger Technology: Hashgraph Launches Hedera Platform,” Jorn van Zwanenburg, Invest in Blockchain, März 26, 2018.

[24] Vgl.“The Next-Generation Internet: Mance Harmon and Hedera Hashgraph,” Bitsonline, Mai 3, 2018.

Written by

Demelza Hays has been conducting research in the field of crypto-related assets since 2013. In addition to teaching a course on cryptocurrency at the University of Liechtenstein, Ms. Hays regularly presents and writes on the topic of cryptocurrencies. Her work has been published in several distinguished print and online magazines including Forbes, Der Standard, and the Frankfurter Allgemeine Zeitung.

Premium-Partner des Crypto Research Report: