如若你还不熟悉,Bittensor 是一个承载多条子网的区块链。
这些子网中的每一个都包含从链上矿工汇聚的计算资源,能够完成由子网所有者规定的特定任务。
每个子网都有不同的专业方向,到目前为止已有超过 120 个。
其中很多高使用度的子网专注于计算密集型任务,如训练新的 AI 模型。
要从某个子网购买计算能力并让其完成你所看到的工作,需要以 Bittensor 的 TAO 代币支付,这也是本链的原生代币及本文讨论的主要资产。
TAO 本身类似于 Bitcoin,因为它被挖掘、定期经历减半,且供应上限为 21000000 枚。
目前,Bittensor 的市值约为 $3.5 billion,而 Bitcoin 的市值为 $1.4 trillion。
因此,前者在最近的上涨之下仍有相当的增长空间。
但正如你所猜测,Bittensor 与 Bitcoin 是一个截然不同的项目,其供需动态在表面上看起来大同小异,实则差异颇大。
鉴于此,推动市值翻倍以上增长的主要催化剂来自 All-In Podcast 的一段节目,其中投资者 Chamath Palihapitiya 与 Nvidia 首席执行官 Jensen Huang 讨论了 Bittensor 最近的一项技术成就。
简而言之,该网络刚完成对 Covenant-72B 的训练,这是一个由超过 70 名不同贡献者使用普通互联网连接的硬件搭建的 72-billion-parameter 开源大型语言模型(LLM),并非集中式数据中心。
Huang 表示印象深刻,并表示集中式与开源 AI 平台更可能相互补充,而非直接竞争。






发表评论