以太幣交易所 以太幣交易所
Ctrl+D 以太幣交易所
ads

Vitalik:通過調整 calldata 和增加分片進一步擴容 rollup 的漸進路線圖_以太坊

Author:

Time:1900/1/1 0:00:00

在中短期、甚至長期來說,rollup 是以太坊唯一的去信任擴容解決方案。數月以來,L1 上的交易費變得如此高,以至于我們迫切需要做些什么來促進整個生態系統向 rollup 遷移。Rollup 已經為許多以太坊用戶極大地降低了交易費: ?根據 L2 交易費監測網站 l2fees.info 顯示,Optimism 和 Arbitrum 的交易費比以太坊基礎層的交易費要低大約 3-8 倍;而 ZK-rollup 擁有更好的數據壓縮并且不需要打包簽名,費用與基礎層相比要低 40-100 倍。

然而,即便有所擴容,這樣的費用對于用戶來說也還是太昂貴了。關于該問題早就已經寫過文章,解決目前形式 rollup 不足的長期解決方案為添加數據分片,這將為 rollup 增加約 1-2 MB/秒的專用數據空間。本文檔描述了對該方案的實用操作方法,從而盡快為 rollup 釋放充足的數據空間,并逐漸增加額外的空間和提高安全性。

第一步:調整交易 calldata 以實現擴容

目前現有的 rollup 需要使用交易 calldata。因此,如果我們想在不需要 rollup 團隊做任何額外工作的情況下,短期內提高 rollup 的吞吐量并降低成本,我們應該僅需要降低交易 calldata 的成本。目前區塊的平均大小還遠不足以大到威脅網絡的穩定性,因此可以安全地完成這一操作,盡管可能需要一些額外的邏輯來防止一些極度危險的邊緣情況。

以太坊新聞周刊創始人:Vitalik 并未出售3000枚以太坊:11月15日消息,以太坊新聞周刊創始人Evan Van Ness發推稱,詢問Vitalik Buterin后得知,0xe692開頭的錢包地址非V神所有,所以這是假新聞。

此前消息,據慢霧監測顯示,以太坊創始人Vitalik Buterin地址(0xe692開頭)近日在Uniswap V3上分三筆將3000枚以太坊兌換為了400萬美元的USDC。[2022/11/15 13:06:16]

請閱讀:EIP 4488,或者另外一個 EIP (更簡單但效果更溫和) — EIP 4490。

理論上,EIP 4488 可以把 rollup 的數據可用空間最大增加到 ~1 MB/slot 并且成本降低大約 5 倍。這一步驟比下文提到的步驟可以更快地實施。

同時,我們可以開始開展一些工作以推出“專用”分片。以完整的形式實現專用分片可能需要很長時間,但我們可以做的是一片一片地實現,并從每一個分片中獲益。要實現的首個自然分片是分片規范中的“業務邏輯”,但想要避免網絡中的大部分困難,需要將初始分片數量維持在非常少的水平上 (例如 4 個分片)。每個分片將在自己的子網絡中進行廣播。驗證者將默認信任委員會;但是如果他們愿意,他們也可以選擇留在每個子網絡中。并且只有當他們看到信標區塊確認的任意分片區塊的完整主體時,才會接受這個信標區塊。

Vitalik Buterin:開發人員還不知道“Merge + surge + verge + purge + splurge”的執行順序:金色財經報道,以太坊聯合創始人“V神” Vitalik Buterin 今日在社交媒體上發文稱“Merge + surge + verge + purge + splurge”不是5個階段,而是會并行發生。在回應加密社區質疑“合并后不會立即發生所有事情”的問題時,Vitalik Buterin 進一步解釋說,這一切都是同時發生,實際的部署會在單獨的硬分叉進行,但是不同的團隊正在并行完成工作,在某些情況下,開發人員甚至還不知道事情的執行順序。[2022/7/26 2:38:57]

分片規范本身并不是特別困難;這是個和最近發布的 Altair 硬分叉規模差不多的樣板代碼更改 (Altair 信標更改規范文件有 728 行代碼,而分片信標更改規范文件有 888 行代碼)。所以我們有理由相信它可以在 Altair 實現和部署的時間框架內實現。

為了使得分片數據能夠真正被 rollup 使用,rollup 需要能夠對分片數據進行證明。有兩個選項:

1. 添加BEACONBLOCKROOT操作碼;rollup 將添加這個代碼以驗證植根于信標鏈歷史區塊根中的默克爾證明。

動態 | Vitalik提出加速合并以太坊1.0及2.0的替代方案,1.0系統將成為執行環境:以太坊聯合創始人Vitalik Buterin發布了一項在向以太坊2.0過渡中的合并以太坊1.0和2.0的替代方案。Vitalik表示,該方案旨在將整個PoW區塊鏈加速移向以太坊2.0的信標鏈,但該方案需要無狀態客戶端 (stateless clients) ,無需無狀態礦工和Webassembly語言,所以將減少需要完成過渡的配置。該方案的條件包括需要一個能夠實現支持驗證、見證區塊以及生成見證區塊功能的無狀態客戶端軟件。該方案的運營方式為,以太坊1.0系統將成為以太坊2.0的執行環境之一,但在最初可以成為以太坊2.0的分片之一。在該方案中,參與以太坊1.0系統的驗證人可以注冊為以太坊1.0的友好驗證人,將維護除了其信標節點外一個完整的以太坊1.0完整節點。[2019/12/26]

2. 添加未來證明的狀態和歷史訪問預編譯 (future-proof state and history access precompiles),這樣的話,如果承諾機制 (commitment scheme) 在未來發生變化,rollup 就不需要更改其代碼。

這將使 rollup 的數據空間增加到大約2 MB/slot(每個分片擴展 250 KB * 4 個分片,再加上第一步中已擴展的 calldata)

動態 | Waves發布互操作性協議Gravity Hub:金色財經報道,俄羅斯開源區塊鏈平臺Waves正在推出Gravity Hub,這是一個與區塊鏈無關的協議,旨在解決互操作性問題。它還會將來自外部世界的數據饋送到區塊鏈。Gravity Hub本質上是一個沒有任何代幣的區塊鏈,但是可以與Waves平臺、Waves Enterprise或以太坊等其他區塊鏈進行通信。[2019/12/12]

將活躍分片的數量從 4 個增加至 64 個。現在分片數據將進入子網絡中,因此到這時,P2P 層必須已經足夠堅韌,可以將分片分成數量更多的子網絡。其中數據可用性的安全性將基于誠實的大多數,即依賴于委員會的安全性。

這將使得 rollup 的數據空間提高到大約 16 MB/slot (每個分片擴展 250 KB * 64 個分片);我們假設此時 rollup 已經從執行鏈中遷移出來。

添加數據可用性采樣,以確保提高安全水平,即使在遭遇大多數不誠實行為的攻擊下,也能保護用戶的資產。數據可用性采樣可以分階段推出:首先,以非強制的方式讓網絡進行測試;然后添加了 DAS 才能接受信標區塊;甚至可能先在某些客戶端上實現。

動態 | Vitalik Buterin在layer2解決方案中加入SNARK:上周,以太坊核心開發者Schoedon表示,以太坊網絡已經超負荷,Dapp開發者應該在其他鏈上建設。Vitalik Buterin不同意這一觀點,他認為大多數Dapps并不是針對Gas進行優化的,而且行業內的競爭將“推動”次優Dapps。他還強調了layer2解決方案的重要性和前景,并在Ethresear.ch上發布了一個潛在的使SNARK-utilizing分叉解決方案來支持他的論點。[2018/9/25]

一旦完全引進了數據可用性采樣,分片就完成發布了。

分片機制下的 Optimistic 和 ZK rollups

分片世界和目前狀況的一個主要區別是,在分片世界中,一筆向智能合約提交 rollup 區塊的交易中將不可能包含 rollup 數據。相反,數據發布步驟和 rollup 區塊提交步驟將不得不分開:首先,在數據發布步驟中將數據發布至鏈 (發布到分片里);然后在提交步驟中,提交其區塊頭以及基礎數據的證明。

Optimism 和 Arbitrum 的 rollup 區塊提交已經使用了上面所說的兩步設計,所以這對它們來說只是一個小小的代碼修改。

但對于 ZK-rollup 來說,事情就有點棘手了,因為提交交易需要提供一個可以直接在數據上運行的證明。它們可以做一個 ZK-SNARK 的證明,證明分片中的數據與信標鏈上的承諾相符,但這樣很昂貴。幸好有更便宜的替代品。

如果 ZK-SNARK 是一個基于 BLS12-381 的 PLONK 證明,那么它們可以直接將分片數據承諾作為一個輸入。BLS12-381 分片數據承諾是一個 KZG 承諾,與 PLONK 中的承諾類型相同,因此它可以直接作為一個公共輸入傳入證明中。

如果 ZK-SNARK 使用不同的方案 (甚至只是一個擁有更強的信任設置的 BLS12-381 PLONK),它可以包含自己對于數據的承諾,并使用等價證明來驗證證明中的承諾和信標鏈中的承諾是對相同數據的承諾。

增加數據空間的一個必要共同條件是,移除以太坊核心協議負責永久保有其達成共識的所有數據這個屬性。數據量太大,根本不需要這樣做。例如:EIP-4488 導致理論上鏈的最大容量為大約 1,262,861 字節/ slot (12秒),或大約 3.0 TB 每年,盡管實際上,一開始更可能是大約 250—1000 GB 每年

4 個分片 ( 1 MB 每個 slot) 會每年增加額外 (幾乎可以確定) 大約 2.5 TB 的數據

64 個分片 ( 16 MB 每個 slot) 導致每年總共需要 (幾乎可以確定) 大約 40 TB 的存儲

大多數用戶的硬盤大小在 256 GB 到 2 TB 之間,1 TB 似乎是中位數。下圖是一組區塊鏈研究員的內部調查數據:

這意味著盡管用戶今天可以負擔得起運行一個節點,但如果這個路線圖的任何部分沒有進一步的修改,用戶將會負擔不起。大得多的驅動器是可以買到的,但用戶將不得不特地去購買它們,這大大增加了運行一個節點的復雜性。這方面的主要解決方案是 EIP 4444 (譯者注:可參閱《引介 EIP-4444:對執行層客戶端的歷史數據設限》),它使得節點運行者不再負責存儲超過 1 年的區塊或收據。在分片方面,這個期限可能會進一步縮短,節點將只負責它們積極參與的子網上的分片。

這就留下一個問題:如果以太坊核心協議將不再存儲這些數據,那么誰來存儲?

首先,重要的是要記住即使有了分片,數據量也不會變得異常地大。是的,每年 40 TB 的數據量的確是個人運行“一般”消費級硬件難以負荷的。但是,對于愿意投入資源和工作到存儲數據的個人來說,這是可以接受的。在 Best Buy 的一個 48 TB 硬盤售價 1729 美元,這里的 14 TB 硬盤售價大約 420 美元。運行一個 32 個 ETH 驗證者 slot 的人可以用質押獎勵來支付存儲實現分片后的整個區塊鏈的開銷。因此,從賬面上看,沒有人會存儲分片的歷史數據以致完全沒有人知道這些數據,這種情況似乎是不可能的。

那么誰將存儲這些數據呢?以下是一些可能的想法:

自愿存儲的個人和機構

區塊瀏覽器 (etherchain.org、etherscan.io、amberdata.io…) 肯定會存儲所有的數據,因為提供這些數據給用戶是它們的商業模式。

Rollup DAO 對存儲并提供與它們的 Rollup 相關的歷史數據的參與者進行提名與支付。

歷史數據可以通過 torrents 上傳和共享

客戶端可以自愿選擇各自存儲任意 0.05% 的鏈歷史數據 (因為使用糾刪碼,你需要很多客戶端同時離線才能丟失哪怕一個片段的數據)。

門戶網絡 (Portal Network) 里的客戶端可以存儲任意部分的鏈歷史數據,門戶網絡會自動把數據請求導向擁有這些數據的節點。

歷史數據的存儲可以得到協議內的激勵

像 TheGraph 這種協議可以創建有激勵的市場,其中的客戶端給提供歷史數據 (有默克爾證明確保其正確性)的服務器付費。這就給運行存儲歷史數據的服務器的個人和機構提供激勵,做到按需提供。

其中一些解決方案 (自愿的個人和機構、區塊瀏覽器) 已經存在了。特別是 p2p torrent,是由大型自愿者驅動的生態來存儲大量 TB 級內容的很好的例子。剩下的基于協議的解決方案更強大,因為它們提供激勵,但它們需要更長的開發時間。從長遠來看,通過這些第二層協議來訪問歷史數據會比今天通過以太坊協議更高效。

作者 | Vitalik Buterin

原文鏈接:https://notes.ethereum.org/@vbuterin/data_sharding_roadmap

Tags:以太坊ROLLROLVIT以太坊價格今日行情roll幣可以roll坐騎嗎SwaprolVITES

狗狗幣價格
創作者經濟新紀元:為什么音樂NFT會崛起_NFT

除了吃飯睡覺之外,人們身心放松的最重要方式,音樂應該算在Top3了。人類對音樂的喜愛幾乎是刻進DNA的.

1900/1/1 0:00:00
王麟:NFT距離當代藝術還有多遠?_NFT

當大多數人認為基于區塊鏈技術的各種虛擬貨幣是泡沫時,有一小部分人的資產已經翻了幾百倍甚至上千倍,藉此實現了財務自由。荷包鼓鼓的區塊鏈行業大佬們開始把目光轉向了藝術行業.

1900/1/1 0:00:00
元宇宙產業鏈梳理:受益的不僅僅是游戲_元宇宙

“元宇宙”出自尼爾·斯蒂芬森(NealStephenson)1992年發布的科幻小說《雪崩》。斯蒂芬森創造了一個并非以往想象中的互聯網,而是和社會緊密聯系的三維數字空間——虛擬實境,與現實世界平.

1900/1/1 0:00:00
Acala 拍下首槽成功接入波卡網絡 贏得第1 次平行鏈插槽拍賣_ACA

11 月 18 日下午,波卡 第 11 次拍賣的蠟燭期結束!Acala 以鎖定 3250萬 個DOT 成功贏得波卡 的第 1個插槽!接入 波卡中.

1900/1/1 0:00:00
區塊鏈游戲不止玩賺 一文盤點那些可玩性至上的鏈游_區塊鏈

基于區塊鏈底層技術打造的游戲正在受到追捧,新老玩家不斷涌入。根據 Dappradar 的數據,僅在 11 月 28 日當天,區塊鏈游戲的在線用戶量就達到 122 萬人,日交易量達到 1.2 億美.

1900/1/1 0:00:00
社科院專家認為元宇宙是雙刃劍 將帶來五大巨變_元宇宙

元宇宙的話題不斷升溫,每天都有相關的新聞出現,我們在文章中不斷地學習元宇宙的相關知識,而隨著時間的推移,新的時間和更多專家最新的認識也不斷在映證我們前文所做的設想.

1900/1/1 0:00:00
ads