agrégation-règlement-exécution

Avancé5/13/2024, 7:37:01 AM
Certaines couches d'application ont commencé à posséder l'infrastructure sous-jacente, en partie parce que si elles ne contrôlent pas la pile inférieure, en ne conservant que la couche d'application supérieure, cela pourrait entraîner des problèmes d'incitation et des coûts élevés pour l'adoption par les utilisateurs. D'autre part, alors que la concurrence et les avancées technologiques continuent de faire baisser les coûts de l'infrastructure, les dépenses associées à l'intégration d'applications/chaînes d'applications avec des composants modulaires sont devenues beaucoup plus abordables. Les innovations dans la couche d'exécution, la couche de règlement et la couche d'agrégation conduisent à une plus grande efficacité, une intégration plus facile, une plus grande interopérabilité et des coûts plus bas, offrant finalement de meilleures applications aux utilisateurs et une expérience de développement améliorée pour les développeurs.

Quand il s'agit à la fois d'attention et d'innovation, tous les composants de la pile modulaire ne sont pas créés de manière égale. Alors qu'il y a historiquement eu de nombreux projets innovants au niveau de la disponibilité des données (DA) et des couches de séquençage, les couches d'exécution et de règlement ont été relativement plus négligées en tant que partie de la pile modulaire jusqu'à plus récemment.

L'espace de séquenceur partagé n'a pas seulement de nombreux projets qui se disputent la part de marché — Expresso, Astria, Rayon, Rome, et Madarapour n'en citer que quelques-uns — mais inclut également des fournisseurs RaaS comme CalderaetConduitqui développent des séquenceurs partagés pour les rollups qui se construisent dessus. Ces fournisseurs RaaS sont en mesure d'offrir un partage des frais plus favorable avec leurs rollups, car leur modèle économique sous-jacent ne dépend pas uniquement des revenus de séquençage. Tous ces produits coexistent aux côtés des nombreux rollups qui choisissent simplement d'exécuter leur propre séquenceur et de se décentraliser avec le temps afin de capturer les frais qu'il génère.

Le marché du séquençage est unique par rapport à l'espace DA, qui fonctionne essentiellement comme une oligopole composée de Celestia, Disponible, et EigenDACela rend le marché difficile pour les nouveaux entrants plus petits au-delà des trois principaux pour perturber avec succès l'espace. Les projets utilisent soit le choix "incumbent" - Ethereum - soit optent pour l'une des couches DA établies en fonction du type de pile technologique et d'alignement recherchés. Bien que l'utilisation d'une couche DA permette d'économiser considérablement les coûts, externaliser la partie séquenceur n'est pas un choix aussi évident (du point de vue des frais, pas de la sécurité) - principalement en raison du coût d'opportunité lié à l'abandon des frais générés. Beaucoup soutiennent également que la DA deviendra une commodité, mais nous avons vu dans la crypto que des douves de liquidité super solides associées à une technologie sous-jacente unique (difficile à reproduire) rendent beaucoup plus difficile la marchandisation d'une couche dans la pile. Quels que soient ces débats et dynamiques, de nombreux produits DA et séquenceurs sont en production (en bref, avec une partie de la pile modulaire).@maven11research/commoditise-your-complements">"il y a plusieurs concurrents pour chaque service unique."

Les couches d'exécution et de règlement (et par extension d'agrégation) - qui, selon moi, ont été relativement peu explorées - commencent à être itérées de nouvelles manières qui s'harmonisent bien avec le reste de la pile modulaire.

Récapitulatif sur la relation entre l'exécution et le règlement

La couche d'exécution et de règlement sont étroitement intégrées, où la couche de règlement peut servir de lieu où les résultats finaux de l'exécution de l'état sont définis. La couche de règlement peut également ajouter des fonctionnalités améliorées aux résultats de la couche d'exécution, rendant la couche d'exécution plus robuste et sécurisée. En pratique, cela peut signifier de nombreuses capacités différentes — par exemple, la couche de règlement peut agir comme un environnement pour que la couche d'exécution résolve les litiges de fraude, vérifie les preuves et fasse le lien entre d'autres couches d'exécution.

Il convient également de mentionner que certaines équipes permettent nativement le développement d'environnements d'exécution opinionés directement au sein de leur propre protocole — un exemple en est Repyh Labs, qui construit un L1 appelé Delta. C'est par nature la conception opposée de la pile modulaire, mais offre toujours une flexibilité au sein d'un environnement unifié et présente des avantages de compatibilité technique puisque les équipes n'ont pas à passer du temps à intégrer manuellement chaque partie de la pile modulaire. Les inconvénients, bien sûr, sont d'être isolé d'un point de vue de la liquidité, de ne pas pouvoir choisir les couches modulaires qui correspondent le mieux à votre conception et d'être trop cher.

D'autres équipes choisissent de construire des L1 extrêmement spécifiques à une fonctionnalité ou application principale. Un exemple est Hyperliquide, qui a construit un L1 spécialement conçu pour leur application native phare, une plateforme de trading perpétuel. Bien que leurs utilisateurs doivent passer par Arbitrum, leur architecture de base ne dépend pas du tout du Cosmos SDK ou d'autres frameworks, donc elle peut être personnalisé de manière itérative et hyperoptimiséepour leur cas principal d'utilisation.

Progrès de la couche d'exécution

Le prédécesseur de ce (dernier cycle, et encore quelque peu présent) étaient des alt-L1 généralistes où fondamentalement, la seule fonctionnalité qui surpassait Ethereum était le débit plus élevé. Cela signifiait que historiquement, les projets devaient fondamentalement choisir de construire leur propre alt L1 à partir de zéro s'ils voulaient des améliorations de performances substantielles — principalement parce que la technologie n'était pas encore là sur Eth lui-même. Et historiquement, cela signifiait simplement intégrer nativement des mécanismes d'efficacité directement dans le protocole généraliste. Ce cycle, ces améliorations de performances sont obtenues grâce à une conception modulaire et sont principalement sur la plate-forme de contrat intelligent la plus dominante qui soit (Ethereum) — de cette manière, les projets existants et nouveaux peuvent tirer parti de la nouvelle infrastructure de couche d'exécution tout en ne sacrifiant pas la liquidité, la sécurité et les douves communautaires d'Ethereum.

En ce moment, nous constatons également une plus grande combinaison et association de différentes machines virtuelles (environnements d'exécution) dans le cadre d'un réseau partagé, ce qui permet une plus grande flexibilité pour les développeurs ainsi qu'une meilleure personnalisation au niveau de l'exécution.Couche N, par exemple, permet aux développeurs d’exécuter des nœuds de cumul généralisés (par exemple, SolanaVM, MoveVM, etc. en tant qu’environnements d’exécution) et des nœuds de cumul spécifiques à l’application (par exemple, perps dex, orderbook dex) sur leur machine d’état partagée. Ils s’efforcent également de permettre une composabilité complète et une liquidité partagée entre ces différentes architectures de machines virtuelles, un problème d’ingénierie onchain historiquement difficile à résoudre à grande échelle. Chaque application de la couche N peut se transmettre des messages de manière asynchrone sans délai du côté du consensus, ce qui a généralement été le problème de « surcharge de communication » de la cryptographie. Chaque xVM peut également utiliser une architecture de base de données différente, qu’il s’agisse de RocksDB, LevelDB, ou une base de données (a)synchrone personnalisée créée à partir de zéro. La partie d'interopérabilité fonctionne via un « système de snapshot » (un algorithme similaire à la Algorithme de Chandy-Lamport) où les chaînes peuvent passer de manière asynchrone à un nouveau bloc sans que le système ait besoin de se mettre en pause. Du côté de la sécurité, des preuves de fraude peuvent être soumises dans le cas où une transition d'état était incorrecte. Avec cette conception, leur objectif est de minimiser le temps d'exécution tout en maximisant le débit global du réseau.


Couche N

Conformément à ces avancées en matière de personnalisation, Mouvement Labsexploite le langage Move — initialement conçu par Facebook et utilisé dans des réseaux comme Aptos et Sui — pour leur VM / exécution. Move présente des avantages structurels par rapport à d'autres cadres, principalement en termes de sécurité et de flexibilité / expressivité des développeurs, historiquement deux des principaux problèmes lors de la construction onchain en utilisant ce qui existe aujourd'hui. Importante, les développeurs peuvent aussi juste écrire Solidity et déployer sur Movement — pour rendre cela possible, Movement a créé un runtime EVM entièrement compatible avec le bytecode qui fonctionne également avec la pile Move. Leur rollup,M2, exploite la parallélisation BlockSTM qui permet un débit beaucoup plus élevé tout en étant capable d'accéder au fossé de liquidité d'Ethereum (historiquement, BlockSTM a été utilisé uniquement dans des alt L1s comme Aptos, qui manquent évidemment de compatibilité avec l'EVM).

MegaETHcontribue également à faire avancer les choses dans le domaine de la couche d'exécution, notamment via leur moteur de parallélisation et leur base de données en mémoire où le séquenceur peut stocker l'état entier en mémoire. Du côté architectural, ils exploitent:

  • La compilation de code natif permet à la L2 d'être beaucoup plus performante (si le contrat est plus intensif en calcul, les programmes peuvent être considérablement accélérés, s'il n'est pas très intensif en calcul, il y a tout de même un gain de vitesse d'environ 2x+).
  • Production de blocs relativement centralisée, mais validation et vérification de blocs décentralisées.
  • Synchronisation d'état efficace, où les nœuds complets n'ont pas besoin de réexécuter les transactions mais doivent être conscients du delta d'état afin de pouvoir l'appliquer à leur base de données locale.
  • Structure de mise à jour de l'arbre de Merkle (où la mise à jour de l'arbre est normalement intensive en stockage), où leur approche est une nouvelle structure de données trie qui est efficace en mémoire et sur disque. Le calcul en mémoire leur permet de comprimer l'état de la chaîne à l'intérieur de la mémoire, de sorte que lorsque les transactions sont exécutées, elles n'ont pas besoin d'accéder au disque, seulement à la mémoire.

Un autre design qui a été exploré et itéré récemment dans le cadre de la pile modulaire est l'agrégation de preuves - définie comme un prouveur qui crée une seule preuve succincte de plusieurs preuves succinctes. Tout d'abord, examinons les couches d'agrégation dans leur ensemble et leurs tendances historiques et actuelles dans la cryptographie.

Attribution de valeur aux couches d'agrégation

Historiquement, sur les marchés non-crypto, les agrégateurs ont acquis une part de marché plus faible que les plateformes ou les marketplaces :


CJ Gustafson

Bien que je ne sois pas sûr que cela soit valable pour la crypto dans tous les cas, c'est certainement vrai des échanges décentralisés, des passerelles et des protocoles de prêt.

Par exemple, la capitalisation boursière combinée de 1inch et 0x (deux agrégateurs dex de base) est d'environ 1 milliard de dollars - une petite fraction des environ 7,6 milliards de dollars d'Uniswap. Cela vaut également pour les ponts : les agrégateurs de ponts comme Li.Fi et Socket/Bungee ont apparemment moins de part de marché par rapport aux plates-formes comme Across. Alors que Socket prend en charge15 ponts différents, ils ont en fait un volume de pontage total similaire à Across (Socket —$2.2bb, Across — $1.7bb) et Across ne représente qu'une petite fraction du volume récemment sur Socket/Bungee.

Dans l'espace des prêts, Yearn Financea été le premier de son genre en tant que protocole agrégateur de rendement de prêt décentralisé - sa capitalisation boursière est actuellement ~250 millions de dollars. À titre de comparaison, des produits de plate-forme comme Aave (~$1.4bb) et composé (~560 millions de dollars) ont commandé une valorisation plus élevée et une plus grande pertinence au fil du temps.

Les marchés Tradfi fonctionnent de manière similaire. Par exemple, ICE(Intercontinental Exchange) US etCME Groupont chacun une capitalisation boursière d'environ 75 milliards de dollars, tandis que les "agrégateurs" comme Charles Schwab et Robinhood ont respectivement des capitalisations boursières d'environ 132 milliards de dollars et 15 milliards de dollars. Au sein de Schwab, qui routes via ICE et CMEparmi de nombreux autres lieux, le volume proportionnel qui transite par eux n'est pas proportionnel à cette part de leur capitalisation boursière. Robinhood a environ119 contrats d'options de 119mm par mois, tandis que les ICE sont autour ~35mmLes contrats à terme et les contrats d'options ne sont même pas une partie centrale du modèle économique de Robinhood. Malgré cela, ICE est valorisé environ 5 fois plus que Robinhood sur les marchés publics. Ainsi, Schwab et Robinhood, qui agissent en tant qu'interfaces d'agrégation au niveau de l'application pour acheminer le flux de commandes des clients à travers divers lieux, n'obtiennent pas des valorisations aussi élevées qu'ICE et CME malgré leurs volumes respectifs.

Nous, en tant que consommateurs, accordons simplement moins de valeur aux agrégateurs.

Cela peut ne pas fonctionner dans les crypto-monnaies si des couches d'agrégation sont intégrées dans un produit/plateforme/chaîne. Si les agrégateurs sont étroitement intégrés directement dans la chaîne, évidemment, c'est une architecture différente et j'ai hâte de voir comment cela va se dérouler. Un exemple est AggLayer de Polygon, où les développeurs peuvent facilement connecter leur L1 et L2 dans un réseau qui agrège des preuves et permet une couche de liquidité unifiée à travers les chaînes qui utilisent le CDK.


AggLayer (en anglais seulement)

Ce modèle fonctionne de manière similaire à Couche d'interopérabilité Nexus d'Avail, qui comprend un mécanisme d'agrégation de preuves et de vente aux enchères de séquenceurs, rendant leur produit DA beaucoup plus robuste. Comme l'AggLayer de Polygon, chaque chaîne ou rollup qui s'intègre à Avail devient interopérable au sein de l'écosystème existant d'Avail. De plus, Avail regroupe des données de transaction ordonnées à partir de diverses plateformes blockchain et rollups, notamment Ethereum, tous les rollups Ethereum, les chaînes Cosmos, les rollups Avail, les rollups Celestia, et différentes constructions hybrides telles que Validiums, Optimiums et les parachains Polkadot, entre autres. Les développeurs de n'importe quel écosystème peuvent alors construire sans permission sur la couche DA d'Avail tout en utilisant Avail Nexus, qui peut être utilisé pour l'agrégation de preuves et la messagerie inter-écosystème.


Disponible Nexus

Nebra se concentre spécifiquement sur l’agrégation et le règlement des preuves, où elles peuvent s’agréger sur différents systèmes de preuve - par exemple, agréger les preuves du système XYZ et les preuves du système ABC de manière à ce que vous ayez agg_xyzabc (par opposition à l’agrégation au sein des systèmes de preuve de manière à ce que vous ayez agg_xyz et agg_abc). Cette architecture utilise UniPlonK, qui standardise le travail des vérificateurs pour les familles de circuits, rendant la vérification des preuves sur différents circuits PlonK beaucoup plus efficace et réalisable. À sa base, il utilise les preuves à divulgation nulle elles-mêmes (SNARKs récursifs) pour mettre à l'échelle la pièce de vérification, qui est généralement le goulot d'étranglement de ces systèmes. Pour les clients, le règlement de la « dernière ligne » est rendu beaucoup plus facile parce que Nebra gère toute l'agrégation par lots et le règlement, où les équipes n'ont qu'à changer un appel de contrat API.

Astriatravaille sur des conceptions intéressantes autour de la façon dont leur séquenceur partagé peut fonctionner avec l'agrégation de preuves également. Ils laissent le côté exécution aux rollups eux-mêmes qui exécutent un logiciel de couche d'exécution sur un espace de noms donné d'un séquenceur partagé — essentiellement juste l'API d'exécution qui est un moyen pour le rollup d'accepter les données de la couche de séquençage. Ils peuvent également ajouter facilement un support pour les preuves de validité ici pour garantir qu'un bloc n'a pas violé les règles de la machine d'état EVM.


Josh Bowen

Ici, un produit comme Astria sert de flux #1 → #2 (transactions non ordonnées → bloc ordonné), et la couche d'exécution / le nœud de rollup est #2 → #3, tandis qu'un protocole comme Nebra sert de dernier kilomètre #3 → #4 (bloc exécuté → preuve succincte). Nebra (ou Couche alignée) pourrait également être une cinquième étape théorique où les preuves sont agrégées puis vérifiées par la suite. Sovereign Labs travaille également sur un concept similaire à la dernière étape, où l'agrégation de preuves basée sur le pontage est au cœur de leur architecture.


Laboratoires Souverains

Dans l'ensemble, certaines couches d'application sont commençant à posséder l'infrastructure en dessous, en partie parce que @maven11research/commoditise-your-complements">restant simplement une application de haut niveau peut poser des problèmes d'incitation et des coûts élevés d'adoption par les utilisateurs s'ils ne contrôlent pas la pile en dessous. En revanche, alors que les coûts d'infrastructure sont continuellement réduits par la concurrence et les avancées technologiques, les dépenses pour les applications/chaînes d'approvisionnement@maven11research/commoditise-your-complements">intégrer avec des composants modulaires devient beaucoup plus réalisable. Je crois que cette dynamique est beaucoup plus puissante, du moins pour le moment.

Avec toutes ces innovations - couche d'exécution, couche de règlement, agrégation - plus d'efficacité, des intégrations plus faciles, une plus grande interopérabilité et des coûts plus faibles sont rendus beaucoup plus possibles. Vraiment, tout cela conduit à de meilleures applications pour les utilisateurs et une meilleure expérience de développement pour les constructeurs. Il s'agit d'une combinaison gagnante qui conduit à plus d'innovation - et une plus grande vitesse d'innovation - à grande échelle, et j'ai hâte de voir ce qui se déroule.

Avertissement:

  1. Cet article est repris de [Gatebridgeharris]. Tous les droits d'auteur appartiennent à l'auteur original [BRIDGET HARRIS]. If there are objections to this reprint, please contact the Portail Apprendreéquipe et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.

agrégation-règlement-exécution

Avancé5/13/2024, 7:37:01 AM
Certaines couches d'application ont commencé à posséder l'infrastructure sous-jacente, en partie parce que si elles ne contrôlent pas la pile inférieure, en ne conservant que la couche d'application supérieure, cela pourrait entraîner des problèmes d'incitation et des coûts élevés pour l'adoption par les utilisateurs. D'autre part, alors que la concurrence et les avancées technologiques continuent de faire baisser les coûts de l'infrastructure, les dépenses associées à l'intégration d'applications/chaînes d'applications avec des composants modulaires sont devenues beaucoup plus abordables. Les innovations dans la couche d'exécution, la couche de règlement et la couche d'agrégation conduisent à une plus grande efficacité, une intégration plus facile, une plus grande interopérabilité et des coûts plus bas, offrant finalement de meilleures applications aux utilisateurs et une expérience de développement améliorée pour les développeurs.

Quand il s'agit à la fois d'attention et d'innovation, tous les composants de la pile modulaire ne sont pas créés de manière égale. Alors qu'il y a historiquement eu de nombreux projets innovants au niveau de la disponibilité des données (DA) et des couches de séquençage, les couches d'exécution et de règlement ont été relativement plus négligées en tant que partie de la pile modulaire jusqu'à plus récemment.

L'espace de séquenceur partagé n'a pas seulement de nombreux projets qui se disputent la part de marché — Expresso, Astria, Rayon, Rome, et Madarapour n'en citer que quelques-uns — mais inclut également des fournisseurs RaaS comme CalderaetConduitqui développent des séquenceurs partagés pour les rollups qui se construisent dessus. Ces fournisseurs RaaS sont en mesure d'offrir un partage des frais plus favorable avec leurs rollups, car leur modèle économique sous-jacent ne dépend pas uniquement des revenus de séquençage. Tous ces produits coexistent aux côtés des nombreux rollups qui choisissent simplement d'exécuter leur propre séquenceur et de se décentraliser avec le temps afin de capturer les frais qu'il génère.

Le marché du séquençage est unique par rapport à l'espace DA, qui fonctionne essentiellement comme une oligopole composée de Celestia, Disponible, et EigenDACela rend le marché difficile pour les nouveaux entrants plus petits au-delà des trois principaux pour perturber avec succès l'espace. Les projets utilisent soit le choix "incumbent" - Ethereum - soit optent pour l'une des couches DA établies en fonction du type de pile technologique et d'alignement recherchés. Bien que l'utilisation d'une couche DA permette d'économiser considérablement les coûts, externaliser la partie séquenceur n'est pas un choix aussi évident (du point de vue des frais, pas de la sécurité) - principalement en raison du coût d'opportunité lié à l'abandon des frais générés. Beaucoup soutiennent également que la DA deviendra une commodité, mais nous avons vu dans la crypto que des douves de liquidité super solides associées à une technologie sous-jacente unique (difficile à reproduire) rendent beaucoup plus difficile la marchandisation d'une couche dans la pile. Quels que soient ces débats et dynamiques, de nombreux produits DA et séquenceurs sont en production (en bref, avec une partie de la pile modulaire).@maven11research/commoditise-your-complements">"il y a plusieurs concurrents pour chaque service unique."

Les couches d'exécution et de règlement (et par extension d'agrégation) - qui, selon moi, ont été relativement peu explorées - commencent à être itérées de nouvelles manières qui s'harmonisent bien avec le reste de la pile modulaire.

Récapitulatif sur la relation entre l'exécution et le règlement

La couche d'exécution et de règlement sont étroitement intégrées, où la couche de règlement peut servir de lieu où les résultats finaux de l'exécution de l'état sont définis. La couche de règlement peut également ajouter des fonctionnalités améliorées aux résultats de la couche d'exécution, rendant la couche d'exécution plus robuste et sécurisée. En pratique, cela peut signifier de nombreuses capacités différentes — par exemple, la couche de règlement peut agir comme un environnement pour que la couche d'exécution résolve les litiges de fraude, vérifie les preuves et fasse le lien entre d'autres couches d'exécution.

Il convient également de mentionner que certaines équipes permettent nativement le développement d'environnements d'exécution opinionés directement au sein de leur propre protocole — un exemple en est Repyh Labs, qui construit un L1 appelé Delta. C'est par nature la conception opposée de la pile modulaire, mais offre toujours une flexibilité au sein d'un environnement unifié et présente des avantages de compatibilité technique puisque les équipes n'ont pas à passer du temps à intégrer manuellement chaque partie de la pile modulaire. Les inconvénients, bien sûr, sont d'être isolé d'un point de vue de la liquidité, de ne pas pouvoir choisir les couches modulaires qui correspondent le mieux à votre conception et d'être trop cher.

D'autres équipes choisissent de construire des L1 extrêmement spécifiques à une fonctionnalité ou application principale. Un exemple est Hyperliquide, qui a construit un L1 spécialement conçu pour leur application native phare, une plateforme de trading perpétuel. Bien que leurs utilisateurs doivent passer par Arbitrum, leur architecture de base ne dépend pas du tout du Cosmos SDK ou d'autres frameworks, donc elle peut être personnalisé de manière itérative et hyperoptimiséepour leur cas principal d'utilisation.

Progrès de la couche d'exécution

Le prédécesseur de ce (dernier cycle, et encore quelque peu présent) étaient des alt-L1 généralistes où fondamentalement, la seule fonctionnalité qui surpassait Ethereum était le débit plus élevé. Cela signifiait que historiquement, les projets devaient fondamentalement choisir de construire leur propre alt L1 à partir de zéro s'ils voulaient des améliorations de performances substantielles — principalement parce que la technologie n'était pas encore là sur Eth lui-même. Et historiquement, cela signifiait simplement intégrer nativement des mécanismes d'efficacité directement dans le protocole généraliste. Ce cycle, ces améliorations de performances sont obtenues grâce à une conception modulaire et sont principalement sur la plate-forme de contrat intelligent la plus dominante qui soit (Ethereum) — de cette manière, les projets existants et nouveaux peuvent tirer parti de la nouvelle infrastructure de couche d'exécution tout en ne sacrifiant pas la liquidité, la sécurité et les douves communautaires d'Ethereum.

En ce moment, nous constatons également une plus grande combinaison et association de différentes machines virtuelles (environnements d'exécution) dans le cadre d'un réseau partagé, ce qui permet une plus grande flexibilité pour les développeurs ainsi qu'une meilleure personnalisation au niveau de l'exécution.Couche N, par exemple, permet aux développeurs d’exécuter des nœuds de cumul généralisés (par exemple, SolanaVM, MoveVM, etc. en tant qu’environnements d’exécution) et des nœuds de cumul spécifiques à l’application (par exemple, perps dex, orderbook dex) sur leur machine d’état partagée. Ils s’efforcent également de permettre une composabilité complète et une liquidité partagée entre ces différentes architectures de machines virtuelles, un problème d’ingénierie onchain historiquement difficile à résoudre à grande échelle. Chaque application de la couche N peut se transmettre des messages de manière asynchrone sans délai du côté du consensus, ce qui a généralement été le problème de « surcharge de communication » de la cryptographie. Chaque xVM peut également utiliser une architecture de base de données différente, qu’il s’agisse de RocksDB, LevelDB, ou une base de données (a)synchrone personnalisée créée à partir de zéro. La partie d'interopérabilité fonctionne via un « système de snapshot » (un algorithme similaire à la Algorithme de Chandy-Lamport) où les chaînes peuvent passer de manière asynchrone à un nouveau bloc sans que le système ait besoin de se mettre en pause. Du côté de la sécurité, des preuves de fraude peuvent être soumises dans le cas où une transition d'état était incorrecte. Avec cette conception, leur objectif est de minimiser le temps d'exécution tout en maximisant le débit global du réseau.


Couche N

Conformément à ces avancées en matière de personnalisation, Mouvement Labsexploite le langage Move — initialement conçu par Facebook et utilisé dans des réseaux comme Aptos et Sui — pour leur VM / exécution. Move présente des avantages structurels par rapport à d'autres cadres, principalement en termes de sécurité et de flexibilité / expressivité des développeurs, historiquement deux des principaux problèmes lors de la construction onchain en utilisant ce qui existe aujourd'hui. Importante, les développeurs peuvent aussi juste écrire Solidity et déployer sur Movement — pour rendre cela possible, Movement a créé un runtime EVM entièrement compatible avec le bytecode qui fonctionne également avec la pile Move. Leur rollup,M2, exploite la parallélisation BlockSTM qui permet un débit beaucoup plus élevé tout en étant capable d'accéder au fossé de liquidité d'Ethereum (historiquement, BlockSTM a été utilisé uniquement dans des alt L1s comme Aptos, qui manquent évidemment de compatibilité avec l'EVM).

MegaETHcontribue également à faire avancer les choses dans le domaine de la couche d'exécution, notamment via leur moteur de parallélisation et leur base de données en mémoire où le séquenceur peut stocker l'état entier en mémoire. Du côté architectural, ils exploitent:

  • La compilation de code natif permet à la L2 d'être beaucoup plus performante (si le contrat est plus intensif en calcul, les programmes peuvent être considérablement accélérés, s'il n'est pas très intensif en calcul, il y a tout de même un gain de vitesse d'environ 2x+).
  • Production de blocs relativement centralisée, mais validation et vérification de blocs décentralisées.
  • Synchronisation d'état efficace, où les nœuds complets n'ont pas besoin de réexécuter les transactions mais doivent être conscients du delta d'état afin de pouvoir l'appliquer à leur base de données locale.
  • Structure de mise à jour de l'arbre de Merkle (où la mise à jour de l'arbre est normalement intensive en stockage), où leur approche est une nouvelle structure de données trie qui est efficace en mémoire et sur disque. Le calcul en mémoire leur permet de comprimer l'état de la chaîne à l'intérieur de la mémoire, de sorte que lorsque les transactions sont exécutées, elles n'ont pas besoin d'accéder au disque, seulement à la mémoire.

Un autre design qui a été exploré et itéré récemment dans le cadre de la pile modulaire est l'agrégation de preuves - définie comme un prouveur qui crée une seule preuve succincte de plusieurs preuves succinctes. Tout d'abord, examinons les couches d'agrégation dans leur ensemble et leurs tendances historiques et actuelles dans la cryptographie.

Attribution de valeur aux couches d'agrégation

Historiquement, sur les marchés non-crypto, les agrégateurs ont acquis une part de marché plus faible que les plateformes ou les marketplaces :


CJ Gustafson

Bien que je ne sois pas sûr que cela soit valable pour la crypto dans tous les cas, c'est certainement vrai des échanges décentralisés, des passerelles et des protocoles de prêt.

Par exemple, la capitalisation boursière combinée de 1inch et 0x (deux agrégateurs dex de base) est d'environ 1 milliard de dollars - une petite fraction des environ 7,6 milliards de dollars d'Uniswap. Cela vaut également pour les ponts : les agrégateurs de ponts comme Li.Fi et Socket/Bungee ont apparemment moins de part de marché par rapport aux plates-formes comme Across. Alors que Socket prend en charge15 ponts différents, ils ont en fait un volume de pontage total similaire à Across (Socket —$2.2bb, Across — $1.7bb) et Across ne représente qu'une petite fraction du volume récemment sur Socket/Bungee.

Dans l'espace des prêts, Yearn Financea été le premier de son genre en tant que protocole agrégateur de rendement de prêt décentralisé - sa capitalisation boursière est actuellement ~250 millions de dollars. À titre de comparaison, des produits de plate-forme comme Aave (~$1.4bb) et composé (~560 millions de dollars) ont commandé une valorisation plus élevée et une plus grande pertinence au fil du temps.

Les marchés Tradfi fonctionnent de manière similaire. Par exemple, ICE(Intercontinental Exchange) US etCME Groupont chacun une capitalisation boursière d'environ 75 milliards de dollars, tandis que les "agrégateurs" comme Charles Schwab et Robinhood ont respectivement des capitalisations boursières d'environ 132 milliards de dollars et 15 milliards de dollars. Au sein de Schwab, qui routes via ICE et CMEparmi de nombreux autres lieux, le volume proportionnel qui transite par eux n'est pas proportionnel à cette part de leur capitalisation boursière. Robinhood a environ119 contrats d'options de 119mm par mois, tandis que les ICE sont autour ~35mmLes contrats à terme et les contrats d'options ne sont même pas une partie centrale du modèle économique de Robinhood. Malgré cela, ICE est valorisé environ 5 fois plus que Robinhood sur les marchés publics. Ainsi, Schwab et Robinhood, qui agissent en tant qu'interfaces d'agrégation au niveau de l'application pour acheminer le flux de commandes des clients à travers divers lieux, n'obtiennent pas des valorisations aussi élevées qu'ICE et CME malgré leurs volumes respectifs.

Nous, en tant que consommateurs, accordons simplement moins de valeur aux agrégateurs.

Cela peut ne pas fonctionner dans les crypto-monnaies si des couches d'agrégation sont intégrées dans un produit/plateforme/chaîne. Si les agrégateurs sont étroitement intégrés directement dans la chaîne, évidemment, c'est une architecture différente et j'ai hâte de voir comment cela va se dérouler. Un exemple est AggLayer de Polygon, où les développeurs peuvent facilement connecter leur L1 et L2 dans un réseau qui agrège des preuves et permet une couche de liquidité unifiée à travers les chaînes qui utilisent le CDK.


AggLayer (en anglais seulement)

Ce modèle fonctionne de manière similaire à Couche d'interopérabilité Nexus d'Avail, qui comprend un mécanisme d'agrégation de preuves et de vente aux enchères de séquenceurs, rendant leur produit DA beaucoup plus robuste. Comme l'AggLayer de Polygon, chaque chaîne ou rollup qui s'intègre à Avail devient interopérable au sein de l'écosystème existant d'Avail. De plus, Avail regroupe des données de transaction ordonnées à partir de diverses plateformes blockchain et rollups, notamment Ethereum, tous les rollups Ethereum, les chaînes Cosmos, les rollups Avail, les rollups Celestia, et différentes constructions hybrides telles que Validiums, Optimiums et les parachains Polkadot, entre autres. Les développeurs de n'importe quel écosystème peuvent alors construire sans permission sur la couche DA d'Avail tout en utilisant Avail Nexus, qui peut être utilisé pour l'agrégation de preuves et la messagerie inter-écosystème.


Disponible Nexus

Nebra se concentre spécifiquement sur l’agrégation et le règlement des preuves, où elles peuvent s’agréger sur différents systèmes de preuve - par exemple, agréger les preuves du système XYZ et les preuves du système ABC de manière à ce que vous ayez agg_xyzabc (par opposition à l’agrégation au sein des systèmes de preuve de manière à ce que vous ayez agg_xyz et agg_abc). Cette architecture utilise UniPlonK, qui standardise le travail des vérificateurs pour les familles de circuits, rendant la vérification des preuves sur différents circuits PlonK beaucoup plus efficace et réalisable. À sa base, il utilise les preuves à divulgation nulle elles-mêmes (SNARKs récursifs) pour mettre à l'échelle la pièce de vérification, qui est généralement le goulot d'étranglement de ces systèmes. Pour les clients, le règlement de la « dernière ligne » est rendu beaucoup plus facile parce que Nebra gère toute l'agrégation par lots et le règlement, où les équipes n'ont qu'à changer un appel de contrat API.

Astriatravaille sur des conceptions intéressantes autour de la façon dont leur séquenceur partagé peut fonctionner avec l'agrégation de preuves également. Ils laissent le côté exécution aux rollups eux-mêmes qui exécutent un logiciel de couche d'exécution sur un espace de noms donné d'un séquenceur partagé — essentiellement juste l'API d'exécution qui est un moyen pour le rollup d'accepter les données de la couche de séquençage. Ils peuvent également ajouter facilement un support pour les preuves de validité ici pour garantir qu'un bloc n'a pas violé les règles de la machine d'état EVM.


Josh Bowen

Ici, un produit comme Astria sert de flux #1 → #2 (transactions non ordonnées → bloc ordonné), et la couche d'exécution / le nœud de rollup est #2 → #3, tandis qu'un protocole comme Nebra sert de dernier kilomètre #3 → #4 (bloc exécuté → preuve succincte). Nebra (ou Couche alignée) pourrait également être une cinquième étape théorique où les preuves sont agrégées puis vérifiées par la suite. Sovereign Labs travaille également sur un concept similaire à la dernière étape, où l'agrégation de preuves basée sur le pontage est au cœur de leur architecture.


Laboratoires Souverains

Dans l'ensemble, certaines couches d'application sont commençant à posséder l'infrastructure en dessous, en partie parce que @maven11research/commoditise-your-complements">restant simplement une application de haut niveau peut poser des problèmes d'incitation et des coûts élevés d'adoption par les utilisateurs s'ils ne contrôlent pas la pile en dessous. En revanche, alors que les coûts d'infrastructure sont continuellement réduits par la concurrence et les avancées technologiques, les dépenses pour les applications/chaînes d'approvisionnement@maven11research/commoditise-your-complements">intégrer avec des composants modulaires devient beaucoup plus réalisable. Je crois que cette dynamique est beaucoup plus puissante, du moins pour le moment.

Avec toutes ces innovations - couche d'exécution, couche de règlement, agrégation - plus d'efficacité, des intégrations plus faciles, une plus grande interopérabilité et des coûts plus faibles sont rendus beaucoup plus possibles. Vraiment, tout cela conduit à de meilleures applications pour les utilisateurs et une meilleure expérience de développement pour les constructeurs. Il s'agit d'une combinaison gagnante qui conduit à plus d'innovation - et une plus grande vitesse d'innovation - à grande échelle, et j'ai hâte de voir ce qui se déroule.

Avertissement:

  1. Cet article est repris de [Gatebridgeharris]. Tous les droits d'auteur appartiennent à l'auteur original [BRIDGET HARRIS]. If there are objections to this reprint, please contact the Portail Apprendreéquipe et ils s'en occuperont rapidement.
  2. Clause de non-responsabilité: Les points de vue et opinions exprimés dans cet article sont uniquement ceux de l'auteur et ne constituent aucun conseil en investissement.
  3. Les traductions de l'article dans d'autres langues sont effectuées par l'équipe Gate Learn. Sauf mention contraire, la copie, la distribution ou le plagiat des articles traduits est interdit.
Mulai Sekarang
Daftar dan dapatkan Voucher
$100
!