2023 年 Jeff Yan 谈自己为什么要做 Hyperliquid?

CN
链捕手
关注
3小时前

作者|@flirting with models

编译|Aki 吴说区块链

本期节目的嘉宾是 Hyperliquid 创始人 Jeff Yan。Jeff 的职业生涯始于 Hudson River 的高频交易领域,随后转向加密世界,在该赛道打造了规模庞大的做市商之一。深入讨论了中心化加密交易所的基础设施、对抗性的算法,以及为什么 HFT(高频交易)的盈亏实际上可能对中期价格走势具有预测性。解释了他眼中当前去中心化交易所存在的问题,并介绍了 Hyperliquid 的早期理念。本期节目发布于 2023 年 5 月 8 日,可以从中看到 Jeff Yan 早期的很多想法。

如何从哈佛走进加密交易

Jeff Yan:我的经历大概和很多 HFT 从业者相似:我毕业于哈佛大学,主修计算机科学和数学,随后直接加入 Hudson River Trading,这是一家在传统金融里规模较大的做市机构。我当时做的是美股,体验非常好。我入职时公司大概 150 人,现在已经大了很多。在这里让我受益匪浅,能接触到最有意思的问题,工程与数学可以完美结合,对量化来说几乎是“天堂”。到了 2018 年,伴随以太坊智能合约的热潮,我读了(以太坊)Yellow Paper,瞬间就“开窍了”,我确信那会是未来,于是离职去做一种 L2 方向的交易所协议。

当时我们选择切入预测市场方向,是因为彼时 Augur 已经呈现出较强的产品市场匹配(PMF)迹象,而我们自身更擅长、也更关注交易所底层技术能力。因此我们完成融资后,搬到 San Francisco 组建团队。但几个月后,我还是决定关停项目,因为时机并不成熟:一方面监管不确定性极高;另一方面用户获取非常困难。彼时大多数人并不熟悉智能合约,兴趣更多集中在代币投机上,对 DeFi 的真实需求尚未形成,所以项目最终被搁置。

随后我花了一段时间反思与旅行,最终选择回到交易。相较于持续在市场里“苦找 PMF”,交易本身更直接、更有趣。起初我也考虑过加入一家成熟公司,但想到自己做过加密产品、对行业机制更熟悉,便先从自营加密交易做起。最开始这只是副业,但很快我就看到了显著机会,业务扩张速度远超预期。市场的低效程度令我惊讶。此后我几乎埋头投入了近三年:真正系统化启动是在 2020 年初,时点也恰好与市场周期共振。随着市场规模与成交量增长 10 倍甚至 100 倍,我们也同步做大,最终市场份额进入中心化交易所(CEX)做市商的第一梯队。

约一年前,我们开始系统评估 DeFi 交易机会。这与早期切入 CEX 交易时的观察相似 — — 低效环节广泛存在。但不同之处在于,部分 DeFi 协议在机制设计上存在先天不足,导致交易体验与资本效率受限。与此同时,FTX 事件后,市场对“not your keys, not your coins”以及对手方风险的认知显著强化,对真正去中心化产品的需求持续上升。基于上述变化,我们判断构建去中心化交易所的窗口期已经到来。过去一到两个季度,我们持续投入资源推进该方向;高频交易(HFT)业务则更多处于相对稳定的运行与维护状态,而当前的主要投入与关注重点,集中在将这条去中心化交易技术栈扎实落地并完成体系化搭建。

做市还是吃单:两者有何区别

Jeff Yan:在我看来,这确实是进入高频交易时首先需要作出的重大决策。从宏观层面看,两者有不少相似之处:本质上都对基础设施要求极高,且对时延高度敏感。但在许多关键环节上,两者又呈现出相反的侧重:做市更倚重基础设施能力;吃单更倚重统计与数学建模。

我认为选择哪条路径,主要取决于你更倾向投入哪类工作与研究。以做市为例,你在一定程度上受制于“将报价打穿”的对手盘,容错空间很小。通常通过杠杆、在多个品种与多个价位挂单,会形成较大的隐含风险敞口;一旦出现错误,尾部风险的代价往往很高。相比之下,吃单策略可以一天只触发一次 — — 仍可能是有效的高频策略,可能基于新闻,也可能基于某类细分信号。

正因触发较少,你有空间将模型做得更精细:大部分时间不触发并不影响,只要触发时表现足够好即可。相反,做市并不具备这种弹性 — — 即便 99% 的时间运行良好,只要有 1% 的时间略慢、未能及时跟随数据,相关损失就可能足以抹去其余 99% 的全部 PnL。这就是“基础设施驱动”与“模型驱动”的根本差异。

Corey Hoffstein:是否可以这样更直观地理解:选择“吃单”的一方之所以愿意跨越买卖价差,是因为其预期价格将沿自身方向继续运行,因此愿意承担点差成本;而“做市”的一方则希望价格在其交易时间窗内尽量保持稳定 — — 当有人跨价差与其成交后,再在另一侧完成对冲或反向成交,从而获取点差收益。以此区分是否合理?即一方在所处时间窗内更希望市场横盘,另一方则更希望出现方向性运动。

Jeff Yan:是的,基本可以这样理解。在高频交易中,我们通常以极短的时间窗来评估 markout(回看收益),但这一判断放到更一般的交易频率同样成立:只要你选择“吃单”,在以中间价计量的那一刻,你会立刻承担一笔确定性损失(点差与费用)。只有在随后、在你设定的预测时间窗内,价格的平均走势能够覆盖这笔即时损失并进一步补偿费用,你的策略才具有正期望。

做市则恰好相反:在成交瞬间,你的“初始 PnL”往往处于该笔交易可能实现的最高水平 — — 因为你刚刚获取了一个点差。你所押注的是,这部分收益在平均意义上不会被“劣化选择”完全侵蚀。

因此,在做市场景下,如果将所有成交按时间维度进行 markout 观察,PnL 随时间递减通常是更常见的形态;你的期望只是其递减幅度不要演变为负值。

Corey Hoffstein:我们通话前你提到,把业务规模做大,最难的部分其实不在研究,而在基础设施。我也在 X 上看到你有类似表述:“会做数据归一化不保证你能赚钱,但不会做你肯定赚不到。”能否谈谈你们在基础设施方面最大的经验教训,以及为什么它如此关键?

Jeff Yan:这个问题大致可以拆成两部分,并且二者紧密相关:一是“交易基础设施”,二是“研究基础设施”。数据清洗更偏向后者,属于统计实践的一部分;前者则是狭义的高频交易系统。两者都极其重要。

研究层面虽然更为人所熟知,但需要强调的是:高频交易中的“信噪比”与噪声形态,比学术研究中多数对象要糟糕几个数量级,因此对异常值的处理重要得多。

如果对这些问题缺乏正确的处理框架,仅仅简单忽略异常值,那么一旦出现黑天鹅尾部事件,模型可能被直接击穿;但如果又未能做好规范化或过滤,极端样本又会主导模型训练与参数选择。具体实践中,在许多任务里使用分位数往往比直接使用原始数值更为鲁棒;即便使用原始数值,也需要在“丢弃异常值”与“裁剪异常值”之间作出明确取舍,而这些选择对最终效果的影响往往非常显著。

最大的教训听起来很朴素:必须亲自审阅数据。不要以为自己足够聪明、管道足够“干净”,模型输入就会自动符合预期。用于检查原始数据的时间很难被视为“过多” — — 因为每一次审阅几乎都会带来新的发现。团队早期应当将交易所提供的全部原始数据流完整落盘,逐条核对,主动识别异常并进行一致性校验。

有一个看似荒诞但真实发生过的案例:某段时间,一家交易所在行情推送中出现缺陷,将“价格”和“数量”字段对调。比如比特币的 20,000 / 0.1 被记录为 0.1 / 20,000,导致我们内部的统计与计数逻辑全面失真。许多团队因此不得不紧急停机或切换至备用数据源。这类事件说明:无论你的逻辑设计得多么“健壮”,都不可能覆盖所有异常情形,因此应尽可能保持对原始数据的贴近与可追溯性。

并且还要高度关注时间戳。交易所往往会在数据中提供多种时间戳,其真实含义需要自行拆解与对齐。这一点对于理解“黑盒时延”尤为关键 — — 你究竟在测量什么?你是确实“跟上”了市场,还是对方在推送质量较差的数据?通过时间戳的拆分与比对,可以较好地区分这些情形,从而判断链路是否健康、时延是否处于可控区间。

什么是“公允价(fair)”?如何度量,为何高频做市要围绕它交易?

Jeff Yan:不同交易公司对 fair 的定义确有差异,往往取决于各自的交易风格。但其共通点在于:fair 本质上是将你的建模结果凝练为一个“预测价格”。这一抽象非常有价值,因为它把“如何构建可盈利策略”拆解为两部分且同等困难的任务:价格预测与订单执行。

这也呼应你此前关于做市与吃单的提问:做市更偏向执行侧,吃单更偏向建模侧。对吃单策略而言,研究与决策几乎都围绕“公允价”展开。至于公允价应纳入哪些信息,取决于你认为自己在哪些数据处理环节具备优势,以及市场的效率缺口具体存在于何处。

此外,公允价并不必然只有一个。在更偏机器学习的框架下,你可以同时维护不同预测期限的公允价,例如 1 秒预测与 1 天预测;执行策略会以不同方式加以利用,而对应的优化目标也可能在 PnL 维度上各不相同。

对入门者而言,一个相对有效的“粗切法”是:先给出一个你愿意围绕其进行报价或跨越价差的单一数值,并将其视为你的“预言机”;随后在拥有历史价格序列的前提下,进一步思考如何围绕该数值实现最优执行。

Corey Hoffstein:是否可以将其简化理解为:观察某一交易所,若假设 Binance 汇聚了几乎全部流动性,则可将 Binance 的价格视为公允价;若其他交易所(如 OKX)在毫秒到秒级存在滞后,则可依据 Binance 的公允价跨越价差进行交易,等待其“追价”。当然也存在更偏统计的做法,即不以单一交易所为“真值”,而是结合订单簿相关信号来估计公允价。这样的解释是否成立?我也并不完全确定。

Jeff Yan:是的,思路正确。以流动性最强的交易场所作为公允价(fair),确实是一个很好的第一近似。早期各交易所之间常出现 10% 量级的价差,彼时的主要难点并非价格预测,而在于如何在交易所之间高效转移资金;因此这种方法在当时非常有效。近几年市场经历了一个演变过程:流动性先是分散,随后又回流并向币安集中(尤其是近期)。因此,正如你所说,将币安价格作为公允价是一个合理的起点。

但需要强调的是,将外部单一来源直接等同于公允价仍需谨慎。例如 OKX 的滞后可能仅为数毫秒,实际交易并不一定如表述般直接。再进一步,假设存在一种机会:每当币安价格变动而 OKX 尚无人吃单,你便据此进行跟随交易并试图平仓套利 — — 多数情形下可能有效,但这毕竟是加密市场,存在非连续性风险:例如 OKX 突然进入钱包维护,导致币安与 OKX 之间的充提被暂时切断,套利链条无法闭合,价格也可能随之发散。此时若你的公允价仅依赖币安价格,反而可能面临被动风险暴露。

因此,细节因素非常多。即便在这一看似直观的框架下,也远不止“从某个数据源取一个数作为公允价”那么简单 — — 它只能作为良好的第一近似。

Corey Hoffstein:这也正好引出我接下来想问的:加密交易所在技术层面的诸多特性与“陷阱”。从历史经验看,它们的技术口碑并不稳定:你前面提到过“脏数据”的例子(例如将价格与数量字段对调)、API 崩溃、文档质量不佳、隐藏端点,甚至存在未公开的参数。我记得你最近还在 X 上举过例子:可以绕过风控引擎,或让风控引擎并行运行 — — 这些完全未被文档化的细节,构成了与价格预测无关、相互独立的“正交 alpha”。我的问题是:诸如深入理解 API 细节、准确测量端点延迟这类工作,究竟能贡献多少 alpha?与之相比,更“传统”的统计类 alpha(例如利用订单簿信号判断压力与方向)孰轻孰重?

Jeff Yan:你提到的那条推文,我记得反响确实不错。

Corey Hoffstein:顺便说一句,我到现在仍不确定那是不是愚人节玩笑。

Jeff Yan:愚人节已经过去了,我承认那是个玩笑。不过它比大家以为的更接近现实。真正的“笑点”在于:它其实部分是真的。我一直想写篇后续,这是个很好的提醒 — — 录完这期我就去发。

回到你的直觉,我认为你的判断方向是对的。一个人在某家公司工作久了,往往会形成偏好;或是在进入时就带着偏好 — — 例如“我学过数学,所以我应当做更酷的机器学习模型、挖掘信号、产出 alpha,这才是关键,因为这最难”。这种“只做模型”的思路在大公司或许行得通,因为分工足够细;但如果你需要把整套业务自行运行起来,仅靠这一点是走不远的。

你提到的那些“脏活累活” — — 吃透 API、补齐文档缺口、测量各端点延迟 — — 非常关键。我对高频交易(乃至许多事情)的理解是:它更像多个因素的乘积,而不是简单相加。你在不同“桶”里的投入看似是加总的,但产出往往体现为相乘关系。举个具体例子:

整体效能≈基础设施 × 模型。

如果“基础设施”这一因子只有 1,而“建模”这一因子是 10,那么在每投入一个单位精力时,理性选择往往是优先补齐最短板。高频交易的难点在于:你很难准确判断这些因子各自处于什么水平。因此,实践中需要持续进行“元分析” — — 我现在做的,是否确属最重要的事项?你会很快发现:答案并不显然。很多竞争优势,恰恰体现在对优先级的判断能力上。

在这一意义上,那些看似“脏活”的工作往往至关重要。应当务实地获取低垂果实,遵循 80/20 原则。行情顺畅时,最容易陷入的误区是:“基础已经打好,可以去做一些更酷的机器学习研究、追求创新。”我们也曾在这一点上付出代价。并非意味着该方向不存在 alpha,而在于其投入规模大、且边际回报往往很快递减。

当你团队规模较小、现有策略仍然有效、市场机会仍然充沛时,更需要反复自问并诚实面对:当前最应优先推进的是什么?不要被表面数据“诱导”去追逐那些暂时不应作为优先项的方向。

Corey Hoffstein:对于希望在加密领域开展高频交易的人,你曾给出两条路径建议:其一是直接在 Binance(币安)进行交易、并将重心放在 alpha 产生上(我理解这更偏向“主动吃单”,而非“挂单做市”);其二是选择一家具有长尾特征的交易所,深入理解其基础设施层面的“特性”,并据此寻找优势。能否进一步说明,为何你认为这是两条最优路径?二者在方法论上有何差异?

Jeff Yan:这可以类比为一个“钟形曲线”的直观结论 — — 不要停留在中间。若将钟形曲线的横轴理解为不同交易所,那么问题最突出的往往是中间区间,例如可粗略对应第 2 至第 7 梯队的平台。

它们的成交量远小于Binance,但竞争强度与“有毒流量”却差不多,甚至流量质量可能更差。至少在Binance,我们知道其零售流量占比极高,这会带来一种“缓冲效应” — — 有毒与零售流的混合更友好。顶级HFT公司基本都已经全量接入前若干家头部交易所(你可以粗略理解为前15名),会用更大规模、更成熟的策略满负荷交易;你在这些中间梯队平台里很难再“榨”出多少收益。如果你愿意挑战可高度扩展的大型CEX策略,就直接从Binance开始,能泛化的也会尽量泛化 — — 没有理由从“中间”起步。

你提到的另一条路也成立:去钟形曲线最左端。去找小而被忽视的机会 — — 要么体量太小不值得大玩家花时间,要么太小众以至于他们没覆盖。小众的基础设施就是极好的例子。

交易所系统由人开发实现。正如不少 DEX 的协议设计可能存在明显欠妥之处,一些小型中心化交易所的技术实现也可能存在清晰可识别的缺陷。如果只有你真正理解其运行机制中的“特殊性”,这本身就可能转化为策略优势。基础设施往往也是 alpha 的重要来源,并不存在绝对清晰的“模型 vs 基建”边界。

你也许会担心“不可泛化”:例如你在某家小交易所吃透了一种特定的“利用方式”,但对在 Binance 并无直接帮助。我认为外界普遍低估了“将一个有效策略跑起来”的价值。对多数团队而言,这应当是首要目标;至于策略规模大小,未必需要在起步阶段过度在意。

当然也存在一个基本前提:若平台体量小到几乎没有成交量,研究与部署都缺乏意义。但只要具备一定交易规模,通常就能实现一定收益。更重要的是,如果该策略夏普率较高、对零售端事件具备足够稳健性,那么你所获得的能力与经验,将是绝大多数参与者并不具备的。

即便具体策略未必能够直接泛化,我的经验是:只要你完整走通“研究 — 上线 — 生产”的闭环,在这一过程中获得的认知往往远超预期;即使随后推倒重来、转向 Binance 等头部平台,整体难度也会显著下降。此外,许多细节差异虽然无法一比一迁移,但你会开始从“已被验证有效的东西”中提炼共通原则,并持续生成新的思路;这些思路通常明显优于凭空设想。

因此,两条路径各有价值。如果一时难以取舍,可以先从小的做起,再逐步走向大的;坦率地说,两条路径都尝试一遍也未尝不可。

Corey Hoffstein:你提到过“有毒流量”。能否为从未听过这一概念的人给出一个定义?

Jeff Yan:其本质是“信息占优的流量”。我对加密市场成长有一个理解框架:我进入市场时其实已不算早,只能通过回溯去想象更早期的状态。即便在我入场的阶段,零售资金规模已相当可观,也存在大型参与者,但当时供需关系的核心矛盾仍在于 — — 可用流动性不足以满足零售端的交易需求。因此,零售流量是最直接、也最值得捕捉的对象。最直观的做法,是编写较为通用的做市策略,通过挂单提供流动性。只要零售投资者与您的挂单成交,你在很大程度上可以保留其跨越价差所贡献的那部分收益;在当时,这一模式本身就能够持续盈利。这也反过来构成一个强信号:当时市场中的主导流量,仍主要来自零售端。

但随着时间推移,市场参与者逐渐意识到这一点,并开始大规模部署做市策略。随着做市侧流动性不断增加,吃单策略的意义随之上升,买卖价差也被持续压缩。为了继续捕捉优质的零售流量,吃单者开始出现,并转而更为挑剔地“筛选”做市端的劣质挂单,将其逐一拿走。这是市场演化中较为常见的路径。需要补充的是,吃单同样为市场提供了重要价值;将“做市=做市商、吃单=对手盘”作简单二分并不准确,两类角色在实践中往往交织存在。在我看来,更理想的市场形态,是允许参与者以各自方式自由交易。

但站在做市者的视角,这类吃单流量会显著提高策略难度:原先相对轻松的模式 — — 持续挂单、每次被成交便获取少量点差 — — 可能会被少数交易“击穿”。例如,你可能在约 99% 的零售成交中累计获得约 1 个基点的收益,但在另外约 1% 的交易中却一次性损失 10 个基点(仅作为心智模型,并非精确数值)。在这种结构下,尾部损失足以吞噬大部分常规收益。

因此,“有毒流量”在很大程度上指的就是这类由吃单者所代表的、具有信息优势的流量。当然,是否构成“有毒”取决于你所运行的具体策略;但在多数语境下,通常可以用“零售流量”与“机构化/高水平流量”作一个相对直观的区分。

加密市场中“对抗性算法”诱骗 HFT 有多常见?

Jeff Yan:Crypto 确实带有一种“西部荒野”的气质。换个更积极的角度看,Crypto 也是一场实验,而立场与视角在其中尤为重要。监管者往往会抓住一点不放 — — “他们没有遵循我们精心制定的证券法”。而 DeFi 的支持者则会认为,这些证券法本身很可能带有游说与人为判断的烙印;加密或许提供了一种更偏自由意志主义的实验空间:究竟哪些事物必须被监管?我也并不确信,现实大概率介于两者之间。我并非监管者或政策制定者,这里只是分享一些偏哲学层面的观察。回到实务层面,如果你不重视那些带有操纵与攫取性质的策略,在加密市场开展交易将会非常吃力。

另一个现实是,并非交易所不愿监管,而是很多时候并不清楚究竟应由谁来监管哪一家交易所 — — 至少对我而言,这一点并不明晰。许多法律框架在不同国家之间差异显著,这或许也是问题长期存在的重要原因之一。并且,运营一家交易所本身就极具难度,他们还需要同时处理大量其他事项。

举一个更具体的例子:spoofing(诱骗挂单/虚假申报)是一类非常常见的行为。我不打算在此纠缠其在美国证券与期货法中的严格技术定义;这里所说的 spoofing 更偏向宽泛含义:从订单簿及随后形成的价格轨迹中,你往往可以清晰观察到,有人挂出巨量订单,但显然并无真实成交意图 — — 甚至一旦成交,他们反而会感到不利。尽管在法律层面很难证明其“意图”,但这些挂单显然并非为了成交,而是为了制造某一侧挂单极为充沛的假象。其结果是:若某些算法将订单簿流动性视为价格走向信号,就可能被误导,进而在相应方向下单。待“诱导”生效后,spoofing 算法接下来要么挂出更易被击中的 maker 单,要么主动吃掉那些在诱导下暴露出来的被动挂单。

这类情形非常常见。另一个更为直白的,则是各类市场操纵行为,例如“拉高出货”的组织化圈子。

出于观察,我曾潜伏过几个此类群体,从未参与交易,仅作旁观。这类现象的规模不小。近来相关行为确实被清理了不少,这是一件好事;但在早些年,它们甚至能够制造夸张的成交量:某个“内圈人士”宣布一只代币,随后零售用户迅速涌入(其组织方式我亦不甚了解),内圈人士则借助流量完成出货。对高频交易而言,这类场景表面上似乎可以应对,但实际处理难度很高,因为强烈的均值回归效应往往会反向“诱杀”策略。

至于应对方式,又回到你此前提出的基础设施、模型与策略之间的取舍 — — 精力究竟应投入何处。对我而言,这一类问题属于必须覆盖的“杂项/特殊场景”,也可归入风险管理与特殊情景处置。

简言之,若不完成这部分工作,即便其他环节做到近乎完美,在不同市场状态与不同标的上,这一块仍可能成为决定长期平均 PnL 成败的关键因素。

Jeff Yan:我们最初遭遇这类情况时,确实感到震撼。回想起来,我们当时算是幸运:起初交易的标的要么不易被操纵,要么对方尚未来得及下手。我们完全没有预见到这一问题,在“无知”的前提下搭建了系统,Pnl 一度进展顺利。但一旦中招,冲击会非常剧烈 — — 如果不对策略进行约束,可能在一分钟内亏掉一天的 PnL。有时自动化交易反而是最“愚蠢”的交易,因为它本质上只是一个缺乏人工裁量的有限状态机,只会按预设路径执行。我们的应对方式相当务实:当然,你可以坐下来细究、建模,去预测是否存在操纵;但我们当时的一项优势,是反应极快、以数据为依据,不执着于“最规范”的路径。对我们而言,做法就是 — — 一旦出现特定亏损模式,便直接关停相关逻辑;

Jeff Yan:这类规则往往在一小时内就可以完成编写,并直接上线到生产环境。当时我们严格遵循 80/20 原则:确实会因此错过一部分机会,但也由此腾出了时间与精力,用于扩容与推进那些能够将 PnL 放大 10 倍的关键事项,而不是被这些问题持续牵制。可能有约 5% 的时间,我们会因关停而放弃潜在收益,但这本质上是取舍与判断 — — 将资源投入到最具价值的工作上。

随着后续资源与时间更为充裕,我们才逐步将这一块做深:目前已经具备更复杂的模型,用于预测相关市场状态并识别正在发生的行为;相较早期较为“离散”的开/关处理方式,如今我们更多采取连续化的参数与权重调整,对策略进行动态约束与自适应配置。

截至目前,我们对这类操纵行为的运作方式及其可识别特征已形成较为深入的理解。但仍需强调:对新入行者而言,80/20 原则依然是最重要的行动准则。

市场操纵是否更多发生在长尾币种与小交易所

Jeff Yan:在任何交易所,比特币与以太坊上出现这类情形都相对少见,因为它们的流动性更为充足。我认为,这更多取决于资产本身,而非交易所。几乎所有交易所我都见过(操纵/诱骗)行为;不同平台上手法有所差异,你能感受到参与者并不完全相同,但整体套路大体一致。

其中存在一个“甜蜜点”:若某个代币几乎没有成交量,通常不值得投入;但对于部分具备一定成交规模的山寨资产则不同 — — 算法会在其上预期存在一定成交与流动性,于是便可能出现“可被诱导”的空间,从而使操纵者能够从中获利。

Corey Hoffstein:我一直认为,我们观察市场的方式往往受制于自身的交易周期。你作为高频交易者,对微观结构的直觉可能与我这种持有周期更长、偏基本面的人很不一样。你曾发过一条推文,将市场比作一种黏性流体,外部冲击在价格发现过程中会以阻尼振荡的方式呈现。我觉得这个比喻很有意思,能否进一步展开?

Jeff Yan:我同样重视对事物本质的理解。这大概与我的数学与物理背景有关 — — 若未能理解其内在机制,我很难在一个“黑箱”体系上进行创新。因此我倾向于构建一些心智类比与比喻,以帮助理解市场如何运作。

以“黏性流体”的模型为例,可以先回到一个更基础的问题:高频交易为何能够赚钱?不少散户会将其视为一种“掠夺”,例如认为我们在“抢跑”或“猎杀止损”。我并不是要宣称高频交易是在“行善”,但我认为它确实在一定程度上为市场提供了必要的服务。

可以将外部影响价格的因素抽象为对系统施加的“冲击”(对我们而言,这在很大程度上具有随机性):例如,有人短期内急需成交、必须立刻获取流动性;或是新闻事件改变了资产的“公允价值”。尽管有人会尝试解读事件本身,但这类需求往往是突发的,且通常“成交后即退出”。订单簿本质上是一个强 PvP(参与者相互博弈)的场域,许多参与者带着明确的执行紧迫性入场;并且会形成反馈循环:动量交易触发更多交易,进而催生多种不稳定均衡。

在这种结构下,价格往往先经历一次幅度最大的初始冲击,随后市场参与者才逐步“进场”并围绕真正的公允价(fair)展开博弈。第一跳通常最大;之后会有人判断“出现过冲”,据此进行均值回归交易 — — 既可能来自中频,也可能来自高频参与者,例如认为“未来 5 秒的均值上价格将回落”。与此同时,也会有人认为事件影响深远,从而选择顺势推动价格持续上行,直至出现更大幅度的涨幅;例如“Elon 将 Doge 纳入 Twitter”这类事件,在其叙事框架下可能被视为“具有真实影响”,从而反过来击穿均值回归一侧的头寸。

整体而言,这更像是一场以真金白银进行的“价格投票”与持续博弈。其关键特征在于:波动幅度会逐步收敛。随着参与者逐渐建立其目标头寸,资金不断完成加权平均,价格最终趋于收敛至更稳定的公平价区间。

在这一过程中,高频交易的核心功能仍是以低买高卖的方式提供流动性。若将价格路径视为一条上下波动的曲线,高频交易在曲线偏低时买入、偏高时卖出,其交易冲击在平均意义上会对该曲线产生平滑效应 — — 促使价格更快向公允价贴近,并在价格形成过程中尽量围绕公允价运行。

因此,在这一类比框架下,高频能力越强、市场流动性越充足,这团“流体”就越表现为更高的黏性(阻尼更强)。这一心智模型未必严密,但大体上即为我那条推文所意图表达的含义。

为何高频交易的 P&L 能预测中频价格变动?

Jeff Yan:这是我们内部的一些“探索性想法”。我此前提到过,围绕已被验证有效的方向进行迭代,几乎总是更优:命中率更高,也更容易实现规模化。但我们也会为少量更大胆的探索保留空间,偶尔它们确实会产生效果。这一次就是一个相对成功的“兴趣项目”,在立项之初,我们并没有很强的先验判断。

其动机主要在于:我们的可用资本规模已超过高频策略能够有效承载的容量;我们虽已接入多家交易所,但这更多属于常数项层面的扩张,且边际收益持续递减 — — 因为后续接入的平台体量越来越小。于是我们开始思考:是否可以将触角延伸至中频领域 — — 理想状态下,那将是夏普率 3–4,且容量可达到高频策略数百倍的“理想资产”。这一设想听起来极具吸引力。

不过,我们总体上认可有效市场的基本框架。是的,我们在高频上具备优势,但如果给我们一组日度数据、要求我们预测日收益,我们也很难直接找到可靠的切入点。基于这种审慎态度,这个“脑洞”为我们提供了一条相对可行的路径:在中频交易中,若能获得对他人有价值但他人无法获取的数据源,本身就可能形成策略优势。我们不可能像一些机构那样获取卫星图像、统计停车场车流等“另类数据”。那么,我们真正拥有的是什么?我们拥有自身的 HFT PnL — — 这是一项私有数据,而且显然并非随机噪声,从其时间序列形态就能看出某种结构性特征,因而值得进一步研究。

进一步追问,它与哪些因素相关?回到此前关于“有毒流量与零售流量”的讨论,它与零售流量高度相关。一个相对朴素的先验是:若你能够区分市场参与者类型并理解其行为模式,往往就能获得较好的信号。整体的先验当然仍是“多数信号缺乏稳定预测性”,但方向并不必然明确。因此我们的思路是:既然我们拥有这一指标,且它与零售流量相关,而零售流量又在概率意义上与价格形成相关 — — 那么就应当将这条路径真正做透,并进行严肃的分析验证。

Jeff Yan:我们确实做了这项分析。总体思路是:将一系列以 P&L 为核心的特征(例如 P&L 的变化量、P&L 的“导数”等)纳入回归框架,用以预测中频尺度上、不同时间窗口下的价格表现。起初我们也不确定中频研究应如何落地,因此采取相对“宽覆盖”的方式:先从 5 分钟收益入手,再将时间尺度逐步扩展至数小时。

Jeff Yan:研究主要依托我们内部看板的数据体系,该体系能够汇总不同策略在不同交易所、不同标的上的 P&L,并支持按交易所/策略/品种等维度进行切分。由于数据噪声较大,需要进行较为稳健的处理;显然,我们不会直接用单一币种的 P&L 去回归该币种的中频走势 — — 噪声过高、可解释性也有限。我们基本遵循 80/20 原则,通过分桶与分组等方式,在尽量避免明显过拟合、并遵循既有先验的前提下,得到一个相当有趣、且与直觉相反的结论:

无论是做市还是吃单,高频侧的 PnL 与加密资产后续回报呈显著负相关,且效应强度并不弱。我们在尝试进行实盘捕捉时一度非常兴奋:在 1–2 小时的预测窗口内,该效应的量级大致达到数十个基点,并且容量较高。

但问题在于:该信号几乎只在提示做空,而缺乏对称的反向效应(理论上或许存在,但我们的策略迭代会避免长期处于持续亏损状态)。换言之,当我们赚钱时,模型给出的含义更接近于:应当做空。

Jeff Yan:那么,究竟做空什么?直觉上应当是做空永续合约或期货。但在具体落地时,会遇到两个现实约束。

第一是资金费率。当这类情形出现时,许多成熟参与者往往也在做空;即便各自关注的底层信号不同,alpha 之间也可能高度相关,市场行为趋于同向,资金费率会反映并吸收这一部分拥挤程度。

第二是信号最“显著有效”的个别标的往往属于极端样本,而这些标的在实际操作上反而难以做空,原因可能包括流动性不足、可借券受限、合约工具不完备等。

尽管如此,整体效应仍然具有可用性。高频交易天然会形成库存,你可以在策略之间进行内部对冲或内化;即便不采取内化方式,也可以在信号最强时对库存目标施加偏置(例如尽量降低持仓或避免持仓),从而对总体 P&L 产生正向贡献。

就“单独抽象出一条可复用的中频空头策略”而言,我们认为其说服力不足,因此并未将其包装为独立策略。这也属于最接近能够公开分享的那类 alpha;但具体是否可执行,仍取决于你的策略组合与交易流程设计,它完全可能在特定体系下转化为可落地的 alpha。

Corey Hoffstein:我很喜欢这个思路:直接在期货上做空未必可行,因为资金费率可能已将信号部分价格化;但通过调整库存偏置来承接这一 alpha,是一种替代路径,并能对 P&L 产生实质性影响。

这让我联想到我所处频段的一些做法 — — 以 DFA 为例,他们并不显式交易动量,但在买入价值股时会剔除动量显著偏弱的个股:并非将动量作为因子直接建仓,而是在完全不同的时间尺度上,等待负动量阶段消退后再介入价值。这与这里的逻辑相近:将理论上“正交”的 alpha 不作为显式头寸表达,而是融入交易流程中,通过边际优势与细微改进持续提升结果。这一概念很有启发。

Jeff Yan:补充一点。你刚才的例子很有意思,我此前并未接触过,但我确实听过一些以大仓位交易为主的“人工盘手”提到类似做法:在加密市场中,只要 50 日均线与某条均线出现“金叉/死叉”,他们就会触发相应动作。其含义是:其核心决策并不依赖技术分析,但当某个技术条件出现时,会将其视为执行触发器。我并未专门研究你提到的那一案例,但它让我联想到同类方法 — — 等待一个自认为相对可靠的“条件信号”发生变化,再执行既定交易流程。

Corey Hoffstein:是的,本质就是等待某个条件信号发生改变。很有意思。我们前面谈了很多中心化交易所,但对链上策略/去中心化交易所涉及不多。你提到过,你最喜欢但后来已经停用的一类链上策略是做 RFQ。能否解释一下:它是什么、为什么你当时非常喜欢且效果很好、以及后来为何停止?

Jeff Yan:大约半年前,我们开始加大在 DeFi 方向的投入。当时业内普遍认为,最好的机会正在向链上迁移,而中心化交易所这边已进入边际收益递减阶段(整体成交活跃度偏低)。因此我们决定投入更多时间研究 DeFi。那段时间,RFQ(Request for Quote,询价/报价)形成了一波热潮。CrocSwap 的 Douglas 最近也发表过几条颇有意思的推文,我在很大程度上同意他的观点:这一设计并不理想 — — 它在尝试将传统金融(TradFi)中有效的机制直接移植到 DeFi,但未必契合链上环境。

为便于不熟悉的听众理解,先补充背景:RFQ 的出发点是较为清晰的 — — 帮助做市商过滤“有毒流量”,并让零售用户能够与做市商直接对接。零售用户发起请求:“我是零售用户,请给我报价。”做市商返回一个报价(通常优于盘口点差,或至少能够满足零售用户希望成交的更大规模)。零售用户拿到做市商签名的报价后,将该签名载荷广播至智能合约;合约验证签名有效后,完成双方资产结算。其本质更接近一套“协议化的 OTC”机制。

其设想听起来确实合理,在传统金融(TradFi)中也较为常见:用户可以获得更大规模、且不易被高频交易“前置”的成交,对零售端而言属于更好的服务。但在 DeFi 语境下,这几乎是一个显而易见的缺陷设计,因为你无法证明对方确为“散户” — — 链上默认匿名,且不存在 KYC 这一层身份验证。

为验证这一判断,我们写了一个极简的 Python 脚本,批量发起询价请求。结果做市商确实给出了极优报价:价差大约仅 5 个基点,且报价有效期为 60–90 秒。多数情况下,从做市商视角看,获得这样的成交本应是有吸引力的;其愿意给出的成交规模也相当可观(十万美元级别)。但这也直接暴露了机制缺陷:在一个无法验证身份、默认匿名的系统中,任何人都可以伪装为“散户”,反向利用报价机制获取优势。这也是我们当时为何一度非常喜欢、但又很快停止使用这类链上 RFQ 策略的根本原因。

Jeff Yan:我们的操作方式其实很简单:先等待价格出现波动。加密市场本就波动较大,一旦价格发生变化,我们就将那笔已经签名的交易广播上链。对手方能做的有限。该策略的夏普率非常高。进一步说,甚至不必等待价格波动才触发 — — 其本质更接近一张“免费期权”,且带有明确的时间价值:你可以一直等到报价接近到期的最后时刻,再决定是否提交成交。

Jeff Yan:这也使得收益更为稳定。我们当时就是这样执行的。显然,我们并非唯一这样做的参与者(也可能是之一),做市商很快便作出反应:开始停止向我们提供正常报价,理由是“你们在让我们亏钱,你们显然不是散户”,于是要么给出极宽价差,要么干脆不再报价。对此我们也可以应对,例如更换地址、更换钱包继续请求。

从原则层面看,我并不认为这种策略本身存在问题。更像是一个现实层面的顾虑:我们执行这一策略的最大价值,可能在于向市场证明 RFQ 的微观结构设计存在硬伤 — — 资本与智力资源应当转向更合理的机制。也许在这一意义上,我们的“实验”已经完成了其功能。

我理解目前许多 RFQ 机制已引入做市商的 “last look(最后看价权)”,而非让“散户”保有最终决定权。正如你所说,我们后来也停止了这类策略。我确实认为这是一种演化;但一旦给予做市商 last look,RFQ 的核心优势基本会被削弱甚至消失。这一点在 Twitter 的相关讨论中也能看到:要在机制层面优于中心限价簿(CLOB)非常困难,我并不认为 RFQ 能在 DeFi 中稳定实现这一点。上述经历也进一步说明,在我们反复试错之后,愈发感到该赛道仍不成熟,许多协议的机制设计并未充分想清楚。

在这一背景下,我们当时作出了一个战略判断:与其在既有机制上进行“套利式适配”,不如由我们来构建一个真正面向零售用户、能够实现去中心化价格发现的平台。

为何转向 Hyperliquid

Jeff Yan:我们之所以决定亲自下场去做,是因为在 DeFi 交易过程中产生了强烈困惑:即便在 2022 年年中 DeFi 低迷期,零售流量依然可观,但用户却在使用体验极差的协议。他们在底层公链性能不佳的情况下支付高额 Gas,同时还在使用机制设计并不理想的方案(例如 RFQ)。更令人意外的是,用户确实愿意继续使用;从数据层面也能清楚看到 — — 需求始终存在。基于这一判断,我们进一步深入调研。

我不太记得 FTX 事件在这条时间线中的准确位置,但应当是在其暴雷前不久。FTX 崩盘之后,市场叙事迅速转向对手方风险:“Not your keys, not your coins”这类过去更像口号的表述,突然成为多数人最关切的问题。这进一步强化了我们“应当构建某种基础设施”的信念。但具体要构建什么,我们也曾反复权衡:首先需要弄清用户的真实需求,以及市场中尚未被满足的空白。

彼时市场上已有大量 swap 的克隆版本,各类小幅创新与聚合器层出不穷,不同曲线与公式带来了巨大的参数空间。然而我们对 AMM 路线并不乐观:相当一部分所谓“做市”所形成的流动性,更多是被错误或误导性的叙事驱动出来的低质量流动性(例如对“无常损失”的表述方式、以及流动性挖矿遗留效应)。即便 AMM 确实代表市场的主要需求,这条赛道也已高度拥挤,我们再推出一个同类产品,能够提供的增量价值并不清晰。

因此我们转而回到中心化交易所去观察:用户真正需要什么?价格发现主要发生在哪里?有效流动性集中在哪里?答案高度一致 — — 永续合约。永续本身是一项极为巧妙的创新(其思想最早可追溯至传统市场,但在加密市场被充分发展)。而在去中心化领域,真正以去中心化方式提供这一能力的项目几乎不存在。dYdX 虽然采用订单簿形态,但撮合仍偏中心化;它是最接近的一类方案,但也仅止于此。我们的结论是:既然缺口明确,那就由我们来做。

面向交易者的价值主张也很直接:如果你认可 Binance、Bybit 这类中心化交易体验,但又不愿承担托管风险 — — 那么 Hyperliquid 试图提供的正是这种选择。

Hyperliquid 近期已启动封闭内测,其目标是提供与中心化交易所(CEX)一致的交易体验:点差足够窄、成交确认近乎即时、Gas 成本几乎为零(仅用于防御 DoS)。在无拥堵条件下,其区块链可实现每秒处理数万笔订单。所有行为全程透明、全部上链,所有操作均以链上交易记录呈现 — — 这就是我们所追求的愿景。

我们的首要目标用户是DeFi圈,因为向更广泛人群灌输“你可以不用托管机构、把信任交给链上合约”的教育成本很高,也不是我们的特长;而DeFi用户今天就愿意用。我们要做的是向他们证明:在众多协议里,大多数并不严肃,有些只是权宜之计/创可贴式方案,或基于本地价格的临时机制 — — 适合赌徒,但并不适合需要真实流动性与可靠价格发现的严肃交易者。我们要提供的,是可用的流动性与去中心化的价格发现机制。

区块链与智能合约本身可以承担托管与结算职能,并在机制层面建立可验证的信任。但这一观念的推广并不容易,也非我们所长。我们的策略更直接:以产品与事实展示差异,让用户看到在繁杂的协议选择中,多数方案并不严谨,许多只是短期补丁(其中一些甚至仅基于本地价格)。这类机制或许更适合“Degen 式”参与,而不适合需要稳定交易体验与真实流动性的专业交易者。

Hyperliquid 的不同之处在于:我们从设计之初即围绕上述需求展开。为此,我们在技术上做了大量创新,并投入了一个季度的大部分时间进行集中开发。起初,我们也一度被 dYdX 的路径所吸引:链下撮合、链上无托管结算。但在进一步推演后,我们认为该模型存在结构性缺陷 — — 一个系统的去中心化程度,取决于其中最中心化的那一环。基于这一判断,我们无法接受该方案,因为它难以扩展至我们设想的规模与愿景。

因此,我们回到原点:必须实现完全去中心化。在我们的约束条件下,这几乎意味着别无选择 — — 只能自研一条公链。我们不倾向于绕行,也不盲从既有结论。外界普遍认为自建 L1 难度极高,我们的处理方式是先集中解决共识问题。Tendermint 并不完美,但其成熟度高、经过大量实战检验。我们选择在其基础上构建,并由此推进到当前阶段。

为何 Hyperliquid 选择自建 L1,并将其视为关键的“纵向集成”决策

Jeff Yan:过去几年,L1 已成为行业中的重要叙事,许多大额投资也围绕其展开,例如 Solana、Avalanche 等所谓的 L1 项目。概念本身其实并不复杂:L1 指的就是一条区块链本体。与之相对的是“基于智能合约的实现路径” — — 即在另一条既有的 L1(例如以太坊、Solana)之上,通过智能合约实现交易所逻辑,并由该 L1 负责执行与结算。

这一点之所以重要,在于其中存在较为微妙的激励结构。许多团队愿意“建在某条 L1 上”,部分原因是这样更容易获得持有大量代币的 VC/基金的支持与宣传资源;而通用型智能合约 L1 的价值亦依赖应用生态承载,因此它们天然倾向于吸引开发者“基于我来部署合约”。相较之下,以 Tendermint 为基础的 Cosmos 系链更接近自我主权(self-sovereign)模型 — — 缺乏强烈的外部激励去推动其扩张,价值也并不直接回流到某个单一主体。

就我的亲身体验而言(两条路径我们都尝试过),很难想象仅将既有 L1 作为通用合约平台,就能构建出真正高质量的交易所,尤其是在衍生品场景、尤其是在订单簿模式下。某种意义上的“旁证”是 dYdX:作为公认的先行者,其在运行五年后也选择转向自建区块链。他们的动机或许包含法律层面的压力(我只能推测),但无论如何,其当前运行的架构显然并非完全去中心化;待新链就绪后,旧架构也将逐步退出。对我们而言,若目标是打造一套真正高质量的交易所,走 L1 路径才是更为正统且可扩展的方向。

举一个更具体的例子:如果将交易所完全实现为“智能合约”,就必然受到基础合约平台规则的强约束。以以太坊为例,交易与状态更新通常需要由用户交易触发。于是,对于永续合约交易所最基本的运营动作之一 — — 例如每 8 小时结算资金费 — — 一旦系统中存在 10 万个在持仓的“会话/仓位”,需要更新的存储槽数量在单个区块内根本无法容纳。你就不得不额外设计一套“由谁触发资金费结算”的机制:可能需要拍卖触发权限,设计激励与费用分配,向触发者补贴 Gas 成本等。更关键的是,这一过程往往无法原子化完成,最终实际效果就会变成“约每 8 小时结算一次”,但具体执行时点取决于当时参与者活跃程度,可能延后数分钟。对于策略交易者而言,很难围绕这种不确定性建立稳定的执行与风控框架。

而这类操作对所有永续合约交易所而言都属于“基础动作”。如果在自研链上实现,则可以显著简化:将资金费结算逻辑写入共识协议即可。例如规定:当新区块产出且其时间戳恰好满足自创世起每 8 小时的整数倍时,系统自动触发资金费结算并执行相应逻辑,整体实现会更直接、更可控。换言之,运营一家永续合约交易所,在工程本质上更接近于构建一条 L1,而不仅仅是编写几份智能合约。

为什么 Hyperliquid 认为订单簿 DEX 优于“费率分层”的流动性池模式?

Jeff Yan:费率分层这一点确实颇具代表性。你会看到,不少 AMM 正在缓慢地向订单簿形态“进化”。对许多 DeFi 从业者而言,这难免带来挫败感 — — 仿佛最终仍在重造轮子。过程中或许会产生局部创新,但从更底层的结构看,流动性池模型既有其“巧妙”之处,也带有某种近似“被过度包装”的意味。

之所以如此,是因为 AMM 在很大程度上源自当年的计算与存储约束。回到 2018 年(Uniswap 刚出现的阶段),链上可承载的算术运算极为有限,一笔交易往往只能更新极少量的存储状态,用户也无法接受过高的 Gas 成本。AMM 正是在这种算力与存储高度受限的环境下,为了“勉强可用”而形成的折中方案。

它之所以能运转,某种意义上依赖于说服资金进入池子提供流动性。与此同时,将无常损失包装为一套营销叙事,在我看来是一种非常高明、但也值得质疑的做法:向零售用户强调“存进去不是交易,而是在获得收益”;即便可能产生损失,也被解释为“无常”的、可被忽略的成本。这种叙事是否充分揭示了风险,至少存在讨论空间。

从交易者视角看,AMM 池子的套利机会在机制上相对显性:围绕这些池子进行套利可以获取收益。如今这类交易已相当拥挤,但在早期阶段,它确实曾是具备明显正期望的策略。与订单簿市场不同,池子的流动性提供者往往并非专业做市商,而更多是零售 LP。许多人将资金放入池中后长期不再管理,依赖所谓“挖矿收益”维持参与。若缺乏有效管理与风险认知,在长期维度上,其期望收益可能并不理想,甚至可能持续被动承受不利选择带来的损耗。

“流动性挖矿”在早期通过激励强行拉入了流动性;当激励衰减后,部分资金可能仍停留在池中,甚至存在参与者对自身敞口缺乏持续关注的情况。这一结构本身难言可持续。有人可能反驳说“成交量依然很高”,但在你的论述框架里,这更可能与激励与营销机制有关,而非长期均衡下的自然结果。长期均衡中,真实可承受的流动性可能逐步下降,直到 LP 为覆盖不利选择所付出的隐性成本,被迫将费率抬升至更高水平;而费率一旦升高,零售流量又会被进一步抑制,从而形成负反馈循环。

在那种“实际可承受”的流动性水平下,若将收益与风险成本进行核算,结果往往并不理想。这也是我认为资金池模型难以长期成立的根本原因之一。

其所谓“升级版”可以理解为 GMX 及一系列“GMX 克隆”:它们不再依赖恒定函数曲线,而转向采用预言机价格。为了使交易发生时的预言机读数尽可能贴近“真实价格”,这类协议往往会设置诸多限制与权宜设计。然而即便如此,相关问题仍频繁出现 — — 例如,有人先在中心化交易所操纵价格,再在 GMX 上针对已被操纵的预言机报价进行交易获利。就机制层面而言,这些手段本质上仍更像是“止痛贴式”的补丁,而非从根本上解决价格发现与对手方信息优势的问题。

在我看来,随着近年在 L1 共识等底层技术方向的进展,我们终于不必再在“去中心化”与“可用交易形态”之间作出过度妥协:既能保持去中心化,又能够承载订单簿式交易。基于经验,这几乎是唯一被充分验证、能够实现真实价格发现并形成“真实市场”的路径。

自建 L1 是否会因跨链与法币出入金而拖慢价格发现

Jeff Yan:这确实是整个加密行业的共性问题,并不局限于 DeFi。即便在中心化交易所做套利,资金的充提链路仍运行在公链之上,一旦链上拥堵,转移效率就会显著下降。我们起步阶段选择聚焦永续合约,本质上是一次 80/20 的取舍:市场绝大部分交易量与价格发现都集中在永续上。在此基础上再做一次 80/20,就是先统一采用 USDC 作为保证金,把核心路径打通;后续再逐步引入多种稳定币以分散风险,并不困难。对多数用户而言,这一模式更顺畅:将 USDC 存入桥/链/合约体系后,即可在同一处对大量加密资产表达观点并进行交易。

就高波动资产的观点表达与价格发现而言,只要具备抵押品,就能够建立头寸并实施套利。典型场景是现货 — 永续套利:获取资金费并交易期现价差。在这一结构下,永续端完全可以在 Hyperliquid 上完成,而无需频繁搬动现货或 USDC。

当然,跨链问题本身仍需持续关注。当前已有不少值得关注的全链技术方向;我们已集成其中部分方案,并会持续支持相关演进。由于资源与优先级约束,我们不会亲自投入多链基础设施的“原始创新”,但终极目标是明确的:资产可来自任意源链,并通过可信最小化或去中心化的桥接方式抵押进入,从而直接作为 Hyperliquid 的保证金使用。

目前,无论通过 UI、Python SDK,还是直接调用原始 API 试用 Hyperliquid,端到端延迟大致在 100–300 毫秒之间;由于出块存在随机性,该数值并非完全确定。你可能会认为这比 Binance 的下单延迟慢一个数量级。但延迟的影响并非像手续费那样线性累加;就我们优先服务的核心用户群体 — — 零售用户 — — 而言,人类在 100 毫秒与数十毫秒之间几乎难以稳定分辨差异。

即便能够分辨,多数情况下也并不构成关键因素;他们更在意的是获得“即时”的交互反馈。在通常市场环境下,价格在 100 毫秒与 10 毫秒之间并不会发生实质性变化。

对绝大多数交易场景而言,这部分由区块时间引入的延迟可以近似视为零,因此通过运行自研 L1 基本可以将其控制在可接受范围内。相较之下,Ethereum 等链上超过 10 秒的确认时间会显著损害体验 — — 价格在 10 秒内可能发生较大波动。并且,从用户侧看,延迟改进的收益存在明显的边际递减。就订单簿速度而言,更关键的指标反而是 TPS;对应到去中心化交易所,具体就是每秒可处理的下单、撤单等操作数量。

确实,相较 Binance 等中心化交易所,去中心化交易所的吞吐往往会低一个数量级。

但在我看来,这一差距并不必然构成实质性问题 — — 计算能力持续提升,而当前性能在工程意义上已经“足够好”。我并不知道 Binance 撮合引擎的确切指标,假设其可处理 1,000,000 笔/秒,而我们自研 L1 的目标是 100,000 笔/秒,这并不能简单推出“Binance 好 10 倍”的结论。协议完全可以有意识地将上限设计在 100,000 TPS,这仍然足以支撑所覆盖资产的价格发现与大部分用户需求。的确,在极端波动时期,部分频繁重下单可能会延后数个区块,甚至十个区块才被链上处理。

但类似现象在中心化交易所同样会发生。因此,尽管数值上存在“一个数量级”的差距,却未必对应“一个数量级”的成本后果。

相反,如果将比较对象换成通用智能合约链,其吞吐可能只有 10 TPS,那么 10 与 100,000 之间的差距就会变得决定性。此外,这不仅是 TPS 的问题,也涉及工程取舍。dYdX 一直强调链下订单簿路径 — — 据我了解,即便在 v4 版本中,其计划仍是由验证者各自运行订单簿,仅将结算放到链上。

理论上,这或许能带来一个数量级的 TPS 提升,但代价也相当高。会显著放大 MEV 空间,同时也会让“何为事实”变得更为含混 — — 在我看来,订单簿应当被视为系统状态的一部分;将其置于链下,会使系统整体更难推理、也更难验证。因此,我更倾向于接受少数几个数量级的性能折损,以换取鲁棒性、韧性与透明度的显著提升;在我看来,这些收益远大于成本。

再补充一点:我们也对最新的共识研究进行了系统调研。可以预见,共识将成为系统的主要瓶颈,但近年的新成果非常多,方向也很有价值。Tendermint 的确相对“老”,其核心思想至少已有十年历史。学界在相关问题上积累深厚,只是许多较新的共识协议尚未达到可生产级。因此,我们目前选择 Tendermint 作为阶段性方案,但除共识之外的部分几乎全部自研:不依赖 Cosmos SDK,而是使用 Rust 从零实现高性能组件。

与此同时,我们已经完成了相关研究并会持续跟进。对我们而言,一旦出现更优且达到生产级的共识协议,将 Tendermint 替换为新方案的迁移成本并不高;在条件成熟时,我们预计至少可以获得 10 倍的性能提升。我们对技术路径保持乐观:目前自研部分与 PoC(概念验证)均已就绪,基准测试数据也表现良好。若非确认平台能够承载目标负载,我们也不会推进当前的市场推广与用户增长。

我所关注的是掌控、意志、成功、行动与决心 — — 这与我们“以做事立身”的方式高度契合,也使我们与许多团队拉开差距。我们设定的目标往往并不“保守”:例如,“能否在完全去中心化的前提下,做出一个不牺牲体验的 Binance?”多数人可能会认为这至少需要五年。但我们不预设结论,而是从第一性原理出发研究,并将其真正工程化落地。这种意志与执行力对交易同样关键:你既要有取胜的意愿,也要有盈利的动机;缺少任何一项,都很难走到最后。如今我们在建设一个更大的系统,这种“战车式”的推进方式就更重要 — — 市场确实需要它,但少有人愿意承担,部分原因是这件事本身确实很难。我们的选择很直接:由我们来做。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接