HomeAI为什么推理需求正在爆炸式增长,这对去中心化计算网络意味着什么

为什么推理需求正在爆炸式增长,这对去中心化计算网络意味着什么

在过去的两年中,人工智能的重心发生了变化。如果说在2022-2023年,一切都围绕着大型模型及其训练展开,那么今天真正的战斗不再是模型的构建,而是其持续执行的能力,即每天响应数十亿次查询的能力。这是一场inference的战争,比看起来要重要得多。

Messari在其报告State of AI 2025”中明确指出:到2030年,推理将占全球计算需求的50%至75%。如此高的比例将彻底重塑AI基础设施的地理布局。

今天,每当用户打开ChatGPT,生成图像、寻求建议、分析文本、请求代理在网上浏览或做出决策时:他们正在消耗inference。同样的情况也发生在数以千计的AI代理身上,它们在后台持续执行操作,而无人关注。

结果是计算消耗呈现出垂直增长,远远超过训练模型本身所需的计算量。

新的压力:真实用户,真实互动

这一增长的原因是多方面的,但都汇聚于一个方向:AI已经成为一种大众化服务。用户不再仅仅是实验;他们每天都在使用AI,使用时间更长,应用也越来越复杂。

ChatGPT的会话变得更长、更复杂:根据Messari的数据显示,用户在模型上花费的时间在一年内翻了一番,单次会话的平均时长增加了75%。这是一个非常明显的信号:AI不再是一个“偶尔”的助手,而是一个真正的操作环境,用户在其中停留更长时间,提出更广泛且更密集的token请求。

此外,AI消费市场的爆发也值得关注。到2024年,人工智能应用的下载量已超过十亿,年增长率超过100%。ChatGPT目前每周用户超过7亿,而Gemini、Copilot和Claude的增长速度也相似。这是一波持续不断的需求浪潮,转化为计算能力需求,从而导致成本增加。

“reasoning”因素:智能模型成本更高

使一切更加复杂的是“reasoning”导向模型的兴起,这些模型不仅仅是完成句子,而是尝试进行推理、解释和规划。与传统模型相比,这些模型在回答同一个问题时消耗的token多达十倍。

如果再加上该行业已经采用了基于强化学习的后训练技术——如DeepSeek所示——计算压力进一步爆炸。强化学习为每个单一问题生成数千次迭代,将计算消耗成倍增加到工业规模。

换句话说:AI 越智能,运行成本就越高。

成本问题:推理已成为AI的新“硬核”

有一个常常被低估的点:训练是一个巨大的成本,但这是一个一次性的成本。一旦训练完成,模型就存在了。相反,推理是一个持续的成本,无限的,与使用它的用户、代理和应用程序的数量成正比。

对于大型实验室——OpenAI、Anthropic、Google——推理已成为主要的支出项目。这一动态正在为与加密生态系统密切相关的无声革命创造空间。

开源颠覆平衡:更小、更快且更经济的模型

尽管专有模型在规模和复杂性上不断增长,开源技术正在迅速缩小差距。根据Messari引用的Artificial Analysis基准测试,顶级封闭模型与大规模开源模型之间的差距如今已显著缩小,尤其是在成本方面的对比。

一个拥有1200亿参数的开放模型在推理成本上比ChatGPT-5低至90%,而能力损失总体上是边际的。

但真正的革命涉及smallmid-size模型,参数在40亿到400亿之间。如今,许多这样的模型即使在单个消费者级GPU如RTX 4090或5090上运行,也能解决复杂任务。这意味着推理不再需要集中在巨大的数据中心:可以分布式进行。

这正是去中心化AI世界找到其自然立足点的地方。

去中心化计算网络(DCN)的崛起:计算的新经济

去中心化计算网络 (DCN) — 如 Render、Akash、io.net、Aethir、Hyperbolic、EigenCloud 和 Exabits — 聚合了全球分布的数百万个 GPU。多年来,这些网络一直难以找到真正的市场:大型模型的训练由于延迟和 GPU 之间持续的信息交换而变得极其复杂。

但推理是另一回事。

推理需要的水平通信要少得多,可以高度并行化执行,并且可以利用异构硬件。它不需要完美且超同步的集群。这是一个理想的工作,适合数千个分散的节点,尤其是在现在较小的模型变得异常强大的时候。

这一次,市场确实存在。Messari 将其定义为整个 deAI 领域的第一个真正的“产品市场契合”。

Fortytwo案例:群体智能的实际应用

在最有趣的创新中,报告提到了Fortytwo Network,这是一种协调安装在用户笔记本电脑上的小型模型的网络。这些模型像一个蜂群一样协同工作:每个模型回答相同的问题,然后评估其他模型的回答,最后网络基于共识生成一个优化的答案。

该机制生成链上信用、声誉和奖励。Fortytwo 的效率如此之高,以至于成功生成了完全由 swarm 生成的数据集,并在 Rust 中对一个专门的模型进行后训练,取得了比更大模型更优的结果。

这是一个具体的例子,说明去中心化不仅是可取的,而且已经具有竞争力。

验证问题:去中心化推理的关键要素

每当一个请求在分布式节点上执行时,就会出现一个关键问题:如何确保结果是正确的?这就是加密技术发挥决定性作用的地方。

Messari分析了当今占主导地位的三种方法:

  • 零知识证明 (zkML),速度较慢但极其安全;
  • 乐观系统,其中结果被视为有效,除非有挑战;
  • 硬件隔离区(TEE),速度更快但依赖于硬件信任。

在该领域的先驱者中,EigenCloud 被提及,该公司正在市场上推出一种确定性和可验证的推理,与 OpenAI 的 API 兼容,并已用于 Coinbase 和 Google 的代理框架。

验证不是一个技术细节:它是使AI适用于金融、健康、治理和自主交易的关键。它是AI与Web3之间的桥梁。

未来:持续消耗计算资源的代理经济

报告的结论很明确:AI的未来不会由更大的模型主导,而是由那些能够以最具可扩展性、经济性和可验证性方式提供推理服务的人主导。如果今天人类用户生成了数百万请求,那么明天自主代理将生成数十亿请求。而每一个请求都将产生计算成本。

到那时,decentralized compute networks 将不再是实验性的替代方案:它们将成为经济上的必需品。

结论

我们正进入推理时代,而非训练时代。
这是一个需求无限增长的时代,计算不再是孤立的投资,而是一个持续的流动过程,数以百万计的大型或小型模型需要每秒被处理。

正是在这个巨大的经济空间中,crypto世界找到了其最自然的角色:协调、验证、分配和经济化支持日益智能化社会所需的计算能力。

RELATED ARTICLES

Stay updated on all the news about cryptocurrencies and the entire world of blockchain.

LATEST