一些区块链公链技术发展的思考

电子说

1.2w人已加入

描述

近日区块链圈子吹起一股“无用论”热议,起因是鼎鼎有名的密码学与信息安全大师 Bruce Schneier,在《连线》杂志发表一篇长文,从信任与安全的角度,强烈质疑区块链技术的价值。他指出区块链的验证(verification)并不等于信任(trust),毫无用处。Bruce Schneier 是许多区块链开发者拥护的“密码朋克”代表性人物,从他之口说出区块链“无用”,对行业人士来说有如当头棒喝。

“共识”(consensus)是区块链最重要的核心概念之一,但若说人们对于区块链这一技术的发展有什么“共识”,那么很可惜的,区块链的性能很差,使用体验更是糟糕至极,绝对是为数不多的答案之一。然而问题出在哪?

在本周 DeepHash 专栏,创新工场执行董事、分布式系统专家王嘉平指出,以比特币、以太坊为首的当前主流区块链公链(public blockchain)技术,有速度、容量、分片等 3 大性能难点,以及包含交易隐私、硬件安全执行环境、中心化的辅助设施、交易确认延迟、私钥管理的 5 大体验障碍,严重限制着这项技术发挥它的实际用处。这些问题,其中一些方向已被广为关注,但也有一些方向仍未受到足够的注意,值得更多讨论。

今天这里分享一些区块链公链技术发展的思考。公链作为区块链世界的基础设施中的基石,极大地影响着上层应用的效率、成本以及用户体验。如果从比特币开始算起,公链一路走来已经 10 年了,但至今为止还远未到技术收敛的阶段。在这第 11 个年头,我细数一下已经被大家广为关注的方向,和一些尚未被大家关注的方向。

性能难点 1——速度

性能问题从区块链最开始就被大家意识到,直观的体验就是速度,也就是一个交易多久能被确认。最初这个瓶颈是共识算法,Nakamoto 共识最初 10 分钟一次出块,平均交易确认延迟是 5 分钟。而后以太坊将出块间隔降到了 15 秒,期望平均交易确认延迟是 7 秒。但真的是 7 秒就能被确认了吗?其实并不是。这时,性能的瓶颈变成了吞吐量,虽然交易确认延迟是 7 秒,但是大多数交易在排队,除非给出很高的交易手续费来插队。

吞吐量之所以受到限制,是因为普通全节点的带宽,也就是互联网的平均带宽。这个限制和共识算法是本质无关的。很高兴这一点终于被很多团队认识到,避免设计出一些只能运行在本地数据中心内部的高吞吐量系统。要突破这个限制,唯一的出路是切分吞吐量,让不同的全节点负责不同的部分。分片(Sharding)就是完成这种切分的有效方案,当然未来也可能有其它的方案。

在吞吐量问题解决之后,速度上的体验又会回到交易确认延迟这个事情上。当然这个时候的要求就不是要达到几十秒,而是应用会希望可以达到更低的延迟,比如 1 秒甚至以下。计算机系统,在同一个层面的设计上,吞吐量和延迟通常会有矛盾。例如区块链这种分批交易确认方式,一个批次越大,也就是 block 越大,吞吐量就会越大,而这时出块的间隔就需要更长,也就使得交易确认延迟变大。

公链的 Layer 1 技术将工作量切分之后,吞吐量将获得几个数量级的提升,然而其交易确认延迟却没有显着的改善。我自己的预判是,这里才是 Layer 2 的侧链真正发挥作用的地方,而不是像现在很多侧链项目宣称的那样,所要攻克的问题几乎和 Layer 1 要攻克的问题完全一样。

性能难点 2——容量

容量问题受到关注就少了很多。其实容量问题包含两个方面,一个是内存中的账簿状态,每个用户的余额以及智能合约的状态,另一个是磁盘中归档的历史交易记录。

比特币几乎没有被扩展用户状态,并且吞吐量又很低,所以在那个时候,这个容量完全不是问题。但是在吞吐量提升,并且 DApp 开始逐渐繁荣之后,容量问题便逐渐凸显出来。和吞吐量类似,这个问题之所以受到限制,是因为普通全节点的内存和硬盘的容量限制所致。这个限制也是和共识算法本质无关的。

突破这个限制,唯一的出路也是切分容量的负担,让不同的全节点负责不同部分的账簿状态以及交易归档。分片(Sharding)就是完成这种切分的有效方案,当然未来也可能有其他的方案。账簿状态压缩,历史交易压缩都是很好的实践,可以和分片方案一起用。但是这些方向始终受限于单个全节点的本地资源限制,能提高几倍已经是非常不易,而设计良好的分片系统可以提高成百上千倍。

性能难点 3——分片

我最初来到这个领域,看其中的性能问题。按说分片是非常靠谱并且直接的解决方案。在区块链以外的计算系统,哪个不是通过划分工作量,分散到不同的计算单元,从而获得几个数量级的性能提升?GPU、Mapreduce、CDN 哪个商用高性能体系不是用这样的架构?当然最初是源自数据库领域。然而,当时圈子里的人却和我说分片是个伪科学,是一个不切实际的方案,无法为区块链扩容提供任何帮助。我当时是惊了,这区块链有什么特殊之处,使得切分工作量变得不可行了?

最后我发现了问题所在。并不是区块链有什么特别之处,而是有个叫 Z 的项目,做了一个不完整的分片方案,仅仅切分了交易处理的工作量,而交易仍旧需要广播给全网所有节点,每个节点仍旧需要维护全网的账簿状态,每个交易的对账簿状态更新计算,所有节点也都仍要算一遍。这意味着完全没有实现分片的好处,也没有吞吐量和容量的提升,同时还引入了额外的开销,导致其实际性能比不分片的系统还差。

但是,这个系统总体上安全性是没问题的,继承了之前共识算法的安全特性,所以他们的论文会被 ACM CCS 这样专注计算和通讯安全的会议接受,倒也不令人惊讶。而真正在性能和容量上有突破的工作,为什么要找安全领域专家去评审,难道不应该是找性能领域的专家去评审吗?例如 ACM SIGCOMM、OSDI、SOSP、NSDI 那样的网络系统的会议。当然,在那个空气币都飚上天的年份,Z 出来用这样的技术方案,发个币毫无压力。

所以这里还是要给分片技术正名,这是公链 Layer 1 最靠谱的高性能发展方向。虽然有相当难度,但这是正途。

体验障碍 1——交易隐私

自 Zcash 以来,交易隐私成为公链技术中非常重要的特性。和性能不同,这个特性是密码学的主要阵地。其中零知识证明及其相关的延伸算法,是解决这个问题的主流方案。当前的缺陷是算法计算代价比较大,并且仅适用于较简单的验证计算问题,可以满足匿名支付,但是离通用计算还有很大距离。这个也会是一个很重要的方向。

当然,并不是说隐私特性必须要支持通用计算,我觉得只要满足主流应用即可。不过这个方向上,我的一个担忧是在当下这个监管主导的时代,这种强反监管技术,对其上应用的发展可能会有很大的负面影响。

同时隐私有两个方面的内涵,一是用户的状态,例如用户的账户余额,二是用户之间的活动记录,例如 A 给 B 转了 X 个币。监管和隐私也许可以在这两个方面分开找到权衡的点。

但是,如果我们从联盟链的角度去看这一块内容,就是另一番情形了。联盟链是有准入机制的平台,而不像公链那样是完 全 permissionless 的。这个准入机制可以是监管的切入点,同时其实各个商业实体的业务私密性可以得到很好的保障。这是一个意义非凡的方向。

体验障碍 2——硬件安全执行环境

硬件安全执行环境芯片(TEE)的出现,使得公允计算、隐私计算变得可以很简单地实现。看起来,我们都可以不需要共识算法了,也不需要零知识证明了。很不幸,这个不是灵丹妙药。暂且不提其计算效率低,内存容量小的问题,最致命的是,一个号称使用 TEE 的节点,没法独立证明他的计算是在 TEE 芯片中完成的,而需要依赖芯片厂商所提供的中心化的背书服务(Attestation Service)。这一点,对于 permissionless 的公链系统来说,是无法接受的。因为至少这些芯片厂商,可以凌驾于运行在 TEE 芯片中的共识逻辑和加密防护,而给出伪造的共识结果,探视隐私数据。

当然,在联盟链这种有准入门槛的应用场景来说,TEE 芯片会是一个事半功倍的解决方案。将 TEE 芯片应用于联盟链的共识机制和隐私计算机制,将是一个很有前景的方向。

体验障碍 3——中心化的辅助设施

公链系统的正确运行不能依赖于任何中心化的设施,但是中心化的辅助设施可以为公链系统所支持的应用生态,提供有益的优化和用户体验提升。虽然可行,但是现阶段大部分用户并不直接部署全节点来参与网络,而是通过依赖一个或多个可信赖的全节点服务提供商,来完成交互。这个环节的机制和安全性,会极大地影响最终用户使用区块链系统的实际体验。尤其是移动端用户的体验。而这里可以有三个方向上的发展。

一是公共信息服务。现在典型的例子是类似 Block Explorer 或者 Etherscan 这样的数据服务网站和 Web 服务。这些服务使得应用可以很方便地获取链上的状态,而避免承担一个全节点的工作量。但是美中不足的是需要依赖服务提供商的信誉,同时服务提供商有作恶的可能。但是对于不敏感的业务,这些问题尚不构成严重的威胁。

二是交易状态的链上证明。这种证明使得应用可以通过任何一个网上的全节点获取可验证的状态信息,而不需要信任该节点。例如 Ethereum 的 MPT 树(Merkle Patricia Tree)给出可被验证的状态。这种方式也可以提供上述的应用层的好处。并且不需要依赖其它节点的信誉,其它节点也没有作恶的可能性。有待改善的是,这种可被验证的信息类型非常有限。

三是让用户可以低成本地自行运行一个免维护的全节点,各个应用的客户端通过信任并依赖用户自己的全节点来完成链上的交互。这个方向,同时也是硬件的机会,一个面向普通用户的、好用的全节点设备,会是一个很有意义的方向。并且这个做法更有助于公链系统本身的健壮性和去中心化。

体验障碍 4——交易确认延迟

交易确认的等待是一个非常影响体验的问题。对于支付应用来说,现在可以降到十几秒确认,用户尚可将就。而对于往复频次更高的应用,如游戏,则需要更低的确认时间,例如百毫秒级。公链本身,首要保证安全性和去中心化,同时也由于批量确认交易才能获得比较高的吞吐量,这使得很难再同时兼顾到交易的确认延迟。前面已经提到,这个 Layer 1 无法解决的问题,才是 Layer 2 应该去攻克。

既然我们分了层,那么各个层应该有明确的差异和目标。Layer 1 用统一的方式承载全网的共识需求,那么就无法利用到特定应用的交易结构来优化。而 Layer 2 是可以分开垂直做的,多个 Layer 2 技术可以在同一个公链上并存,服务于不同的垂直业务。这使得 Layer 2 技术可以利用特定类型应用的交易结构,来弥补 Layer 1 的不足之处,最明显的机会便是交易延迟。

体验障碍 5——私钥管理

软件时代用户对个人数据管理毫无负担,数据都在本地,在物理层面保护好自己的电脑就可以了。然后到了在线服务的时代,邮件系统首次大规模地教育了用户,要对自己的个人数据负责,管理好自己的密码。

在那个时代,中心化的服务给为用户提供兜底的保护,提供一系列的方案,帮用户找回遗忘的密码。而今,在去中心化的应用面前,用户承受了更大的负担和责任,保护好自己的数据和资产权益。这个东西是私钥。教育用户保护好私钥,比上一个时代的密码管理要困难得多。

首先,私钥不是一个人类可以记忆的东西,每个人的私钥可以自主生成,但是其内容是一个相当长的随机比特串,不是用户自己可以选择的内容。虽然很多钱包支持助记词,甚至中文助记词,但是依旧是需要用户抄下来,而对于大多数人来说无法记在脑子里。其次,在去中心化的体系中,如果用户丢失,将没有任何一方可以提供找回服务,而永远失去对账户和资产的控制权。

因此,在公链系统中,私钥管理是否能提供更好的体验将是一个重要方向。比如利用本身的共识存储机制,或利用附加的 p2p 存储功能,以类似互联网服务的方式将用户的私钥管理起来,从而减轻用户的记忆负担和遗忘风险,但同时不失安全保障和去中心化的要求。相信这会是一个在使用便利性和安全可靠程度之间权衡的方案,适用于不同的场景和用户群体。

以上随笔,相信大家看到更多的更重要的方向,欢迎一起来讨论。

本文为作者个人观点,与就职单位无关。

王嘉平

王嘉平博士为微软总部研究院前主管研究员,专注分布式系统,计算机图形学和视觉以及用于机器学习的 GPU 集群等领域的研究,有数十项研究成果发表于 ACM/ToG 顶级期刊以及已授权的美国专利。他师从沈向洋博士,在中科院计算所获得博士学位。他的博士论文获得 2009 年度全国百篇优秀博士论文奖,是该年唯一一名计算机科学专业的获奖者。王嘉平博士现任创新工场执行董事,投资方向为区块链和人工智能。他曾主导了对比特大陆的首轮机构投资,成为其首轮三大主要投资方之一。

关于DeepHash 专栏 /每周二

文/林佳谊

“区块链技术非常复杂,而且有很多误解。更可怕的是,很多人自认为了解区块链技术,但表现出的却是无知。学术机构有着巨大的责任去培养下一代的创新者。”在杜克大学商学院开设区块链课程的教授 Campbell Harvey 曾经有感而发地说。

每项新兴技术发展都有它的周期,愈是可能带来重大变革的技术,这个周期往往也愈明显。就在区块链技术步入所谓“幻灭的低谷”之时,DeepTech 深科技认为,下一个产业风口,如今正在每个顶尖高校的实验室、在各国央行与监管机构的研究室,在行业组织的研讨会中酝酿着。

DeepTech 深科技认为,此时才是关键时刻,身为一家坚持深入报道科学科技产业的专业媒体与科技服务提供者,我们有责任也有必要,在这个时点上有带领读者去拨开迷雾、厘清误解,培养对区块链技术的更深刻认知。

因為此我们于每周二固定推出 DeepHash 专栏,由 DeepTech 资深编辑林佳谊,邀集千人学者兼天德链创始人蔡维德、分布式系统专家王嘉平、物联网区块链初创 Biilabs 创始人朱宜振等专家学者共同维护,每周一次,带领读者在技术研发、在法规政策、在行业标准,在国际趋势,方方面面深入挖掘未来 3-5 年真正具有产业化潜力的区块链知识。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分