以太坊在近几周处理 blob 数据块方面遇到困难。根据一份报告,如果问题恶化,可能威胁到网络的稳定性。研究人员表示并不担心,但同时警告目前不要进一步增加 blob 容量。

以太坊近几周在处理数据密集型区块方面遇到困难,这一问题表明网络尚未准备好充分利用其12月升级带来的全部优势。

该升级代号为 Fusaka,大幅增加了 Layer 2 区块链向以太坊发送的数据量。然而,包含更多“blob 数据块”的区块——由 Layer 2 区块链如 Arbitrum 与 Base 提交的数据包——更容易被网络丢弃。此结论来自与 Lido DAO、Cambridge Centre for Alternative Finance 有合作关系的研究机构 MigaLabs 的研究。如果问题持续或恶化,研究公司在报告中写道,可能威胁网络的稳定性。“我的本意不是危言耸听,而是在核心开发者和研究人员之间发出信号:我们需要看看这件事,”MigaLabs 创始人 Leonardo Bautista Gomez 对 DL News 表示。“在完全弄清楚发生了什么之前,重要的是不要再增加 blob 容量。”

在 Fusaka 之前,Layer 2 区块链每个区块只能向 Ethereum 发送最多九个 blob 数据块。升级之后,Ethereum 的 blob 容量翻了八倍。不过,这些提升将通过一系列较小的升级逐步实现。“在这里我们可以说,只需几分钟就把这个旋钮调到 8x,”以太坊基金会的高管 Alex Stokes 在庆祝 Fusaka 部署的十二月直播中表示。“鉴于这是一项非常新的技术,我们也不确定网络会如何反应,这并非最明智的决定。”首个小型升级在 Fusaka 推出不到一周后就到来,将最大 blob 容量提升至 15。开发者于1月7日发布了第二次升级,将最大容量提高到每区块 21 个 blob。

奇怪的是,自 Fusaka 以来,平均每区块的 blob 数量已下降。少数测试网络极限的区块,反而更可能导致下一区块失败,MigaLabs 发现。Ethereum Foundation 下的 PandaOps 团队的研究也得出类似结论,但发现部分问题可能归因于“时序博弈”——验证者为了提升名为 MEV 的收入而延迟发布区块。 “就我对 PandaOps 的分析而言,我目前对网络并不担心,”为 PandaOps 进行分析的工程师 Sam Calder-Mason 对 DL News 表示,“但初看确实让人担忧。”

据 Calder-Mason 表示,开发者之间存在一个“粗略共识”,在提高 blob 容量之前先推动一次小型更新,以便以太坊更高效、快速地传播 blob 数据。“如果没有它,我个人不会对后续的 BPO 提出反对,”他说。“我们也需要在承诺提高 blob 数量之前进行更全面的分析。” “虽然 Calder-Mason 认为时序博弈可能约占高 blob 数量所见现象的约 90%,Gomez 则更为审慎。我们确实看到高 blob 数量与时序博弈之间存在一定相关性,但我仍认为这并不能解释我观察到的一切,”MigaLabs 创始人表示。“另一种可能的解释是,在分布式网络中传播更多数据本身就很困难。” “我们确实在尽力在不影响区块链仍然保持活跃、高效且运行正常的前提下,尽可能地测试网络容量的极限,”Gomez 表示。“我们现在看到的是,当我们向网络发布的数据量稍多时,就会出现一些问题。我们仍然不完全理解为什么会这样。” “他补充说,起作用的是以太坊开发者在对网络进行变更时保持审慎的承诺。” “如果出现问题,我们很可能能够解决,”他表示,“我们正在严格按照事先设想的流程进行。”

发表评论

热门

了解 CoinFubi 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读