自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

为何区块链的实际交易处理速度常低于预期

2026-02-11 22:23:42
收藏

每秒交易量数据为何无法揭示区块链的真实性能

区块链每秒交易处理量常被视作性能指标,但这组数字并不能完整反映网络在实际应用中的扩展能力。Psy Protocol创始人、前黑客卡特·费尔德曼指出,TPS数据往往具有误导性,因为它们忽略了去中心化系统中交易的实际验证与传播机制。

“许多主网上线前的测试网或独立基准测试仅通过单一节点测量TPS。按此逻辑,我们甚至可以将Instagram称为能达到10亿TPS的区块链——因为它同样依赖单一中心机构验证每个API请求。”费尔德曼解释道。

设计瓶颈与验证分离

问题的根源在于多数区块链的设计架构。当系统试图提升速度时,每个节点的负载会随之加重,去中心化特性也越难维持。通过将交易执行与验证环节分离,可以有效减轻这种负担。

虽然新项目常以高TPS作为宣传亮点,但实际网络使用率很少触及理论峰值。TPS数据本质上忽略了去中心化的成本代价。

理想数字与现实吞吐量的鸿沟

TPS确实是衡量区块链性能的有效基准——更高的TPS意味着网络能承载更多实际使用场景。但费尔德曼强调,大多数标榜的TPS数值仅代表理想环境下的测试结果,无法转化为真实世界的处理能力。这些光鲜的数字并未展现在去中心化条件下系统的实际表现。

“虚拟机或单一节点的TPS并不能衡量区块链真实主网性能,”费尔德曼表示,“但在生产环境中区块链每秒能处理的交易量,仍是量化其承载能力的有效方式,这也应是扩展性的本质内涵。”

区块链中每个全节点都必须验证交易是否符合协议规则。若某个节点接受了无效交易,其他节点应当予以拒绝——这正是去中心化账本运作的核心机制。

理论承诺与现实的落差

白皮书公布的TPS数据常与主网实际表现存在巨大差距。将执行环节与传播验证成本割裂的基准测试,测量的更像是虚拟机速度而非真正的区块链扩展性。

以曾在2018年创下首次代币发行纪录的EOS网络为例,其白皮书曾提出约100万TPS的理论规模目标。即便以2026年的标准衡量,这仍是令人瞩目的数字。

然而EOS从未达到其理论目标。早期报告称其在理想设置下可实现4000笔交易处理,但实际网络环境中的测试显示吞吐量仅维持在50TPS左右。

2023年Jump Crypto通过其验证客户端实现了EOS未能企及的百万级TPS测试。该客户端目前已逐步部署,多个验证者正在运行其混合版本。当前实际运行中的网络通常处理约3000-4000TPS,其中近四成为非投票交易,更能反映真实用户活动。

突破线性扩展困局

区块链吞吐量通常随工作量呈线性增长。更多交易意味着更活跃的网络,但也要求节点接收验证更多数据。每笔新增交易都会增加计算负担,当触及带宽极限、硬件限制与同步延迟时,若要保持去中心化特性,继续提升将难以为继。

费尔德曼认为克服这一限制需要重新思考有效性验证机制,零知识技术为此提供了可能。该技术能证明批量交易被正确处理,而无需所有节点重新执行这些交易。由于可在不披露底层数据的前提下验证有效性,该技术常被视作隐私解决方案。

费尔德曼指出通过递归零知识证明同样能缓解扩展压力——简而言之,即用证明来验证其他证明的机制。“我们可以将两个零知识证明合并生成新证明,以同时验证两者的正确性。这意味着多个证明最终可收敛为单一证明。”

性能的多维考量

TPS并非无用指标,但其价值存在前提条件。费尔德曼认为相较于原始吞吐量数据,交易手续费等经济信号更能清晰反映网络健康状况与真实需求。

“我主张将TPS视为区块链性能的第二衡量基准,但前提是必须在生产环境中测量,或是在交易不仅被处理,还需经过其他节点传播验证的环境中测试。”他补充道。

现有区块链的主导设计模式也影响了投资方向。围绕顺序执行设计的系统难以直接嫁接基于证明的验证机制,往往需要重构整个交易处理流程。

在多数区块链中,更高的TPS意味着每个节点要承担更多工作。单纯的数值并不能说明这种工作负荷是否具有可持续性。

展开阅读全文
更多新闻