美联储大降息 加密市场蓄势待涨?

撰文:1912212.eth,Foresight News

4 年来,美联储终于在今晨会议上宣布首次降息 50 基点。沉闷已久的加密市场行情利率决议公布之后,再次迎来不小振幅。比特币从 5.9 万美元最高冲至 6.2 万美元上方,以太坊从 2200 美元涨破 2400 美元,山寨币也受益大盘提振,获得不错涨幅,SEI 暴涨 22%,突破 0.34 美元,BLUR 暴涨 17%,突破 0.2 美元。

据 coingrass 数据显示,过去 24 小时全网爆仓 1.99 亿美元,其中空单爆仓 1.23 亿美元。

从上轮周期历史看,2019 年 9 月当美联储时隔多年宣布首次降息之后,BTC 短时并未受到利好消息影响,反而月线图以跌 13.54% 收场,从 1 万美元上方,跌至 8300 美元附近。本次降息之后,加密市场是否同样再次重演历史,还是即将迎来流动性改善后的上涨行情?

美联储接下来数月将持续降息

本次降息远超市场普遍预估的 25 个基点,直接降息 50 个基点。鲍威尔在在记者会上强调不认为大幅降息说明美国经济衰退临近,也不说明就业市场濒临崩溃的边缘,降息更多是一种预防性质的行动,目的是保持住经济和劳动力市场「稳健」的现状。

尘埃落定之后,市场普遍预估接下来的 11 月份以及 12 月,将继续降息。预计年内还有 70 个基点的降息。公布的点阵图则暗示年内还会降息 50 基点。

市场普遍担忧的美经济衰退可能性变小,软着陆的可能性越来越大。

降息将会对风险资产产生持续性利好。虽然未必在立刻即见效过,但随着时间推移以及降息持续性,市场的流动性开始从债券、银行等不断流出涌入股票、加密货币等市场。

此外,今年 11 月初,即将到来的美国总统大选也将给加密市场带来短期震荡影响,在结果正式公布之后,徘徊观望的场外资金或将开始不断注入加密市场。

当前现货市场交易量仍处于低迷状态,总体维持在 600 亿美元上下波动。抛开特殊宏观事件造成的短暂突发波动,市场的流动性仍表现平平。

美联储大降息 加密市场蓄势待涨?

比特币已越发成为反映整体经济趋势的宏观资产。当流动性不断注入市场,加密行情或将一扫过去阴霾。

BTC 现货 ETF 仍在净流入

截止 9 月 17 日,比特币现货 ETF 已累计总净流入达 175 亿美元。 8 月末至 9 月初的连续 8 天净流出终结,9 月 12 日起,比特币现货 ETF 实现连续 4 天净流入。

美联储大降息 加密市场蓄势待涨?

BTC 现货 ETF 在不断净流入之时,比特币价格往往表现稳定并上扬。而一旦出现不断大额流出,则往往会造成币价的阴跌下挫。

目前而言,市场在经历长期币价震荡下行之后,场外资金信心逐渐恢复,仍在不断买买买。

稳定币市值仍在不断攀升

USDT 总市值过去一个月从 1170 亿美元,升至 1187 亿美元,流入资金近 17 亿美元。若从今年 4 月的 1047 亿美元总市值计算,则在加密市场总体盘整下跌的过程中,USDT 的市值仍强势增加流入 140 亿美元。

美联储大降息 加密市场蓄势待涨?

另一大稳定币 USDC 市值,则从 8 月末的 344 亿美元,升至 355 亿美元,不到一月即流入 11 亿美元。

法币支撑的稳定币的总市值也已经创下历史新高,并且仍在不断攀升。

美联储大降息 加密市场蓄势待涨?

历史上 10 月为表现强劲月份

加密市场的有趣之处在于,与部分股票等类似,都会出现季节性趋势。比如,夏季市场普遍表现惨淡,而在年末以及年初又表现不错。比特币在过去的 9 年里,除 2018 年的 10 月份因处于熊市而下跌外,从 2015 年至 2023 年皆获得强劲正回报。

美联储大降息 加密市场蓄势待涨?

2023 下半年,比特币恰恰也是从 10 月份开始不断上扬,叠加比特币现货 ETF 获批预期,从而开启一轮牛市。

市场观点

加密 KOL Lark Davis:2025 年将会是本轮周期的高点,届时应及时卖出

Youtube 拥有 50 万粉丝的加密 KOL Lark Davis 在 9 月 9 日发布的最新视频中表示,2025 年将会是本轮周期高点,届时应该卖出然后离开。针对这一论点,他给出如下理由:全球流动性周期预计在 2025 年达到顶峰,之后开始下降。中国的信贷周期约四年一个周期,2025 年可能是中国信贷的高峰期。目前,短期债券的收益率高于长期债券,但收益率曲线正逐渐恢复正常,这可能预示着经济周期的转变。因此,他认为 2025 年可能会出现巨大的市场混乱,然后迎来熊市。

Glassnode:比特币市场处于停滞期,供需双方都显示出不活跃迹象

密市场数据研究机构 Glassnode 发文表示,比特币市场目前正在经历一段停滞期,供需双方都显示出不活跃的迹象。过去两个月,比特币的实际市值达到峰值并稳定在 6220 亿美元。这表明,大多数正在交易的代币都接近其原始收购价。自 3 月份创下历史最高值以来,绝对已实现损益已大幅下降,这意味着当前价格范围内整体买方压力有所减轻。

Hyblock Capital:比特币市场深度枯竭,或预示比特币价格看涨

Hyblock Capital 联合创始人兼首席执行官 Shubh Verma 早前在接受 CoinDesk 采访时表示:「通过分析综合现货订单簿,特别是现货订单簿深度为 0%-1% 和 1%-5% 的订单簿,我们发现订单簿流动性低通常与市场触底相吻合。这些低订单簿水平可能是价格逆转的早期指标,通常先于看涨趋势。

加密激励众筹一个AI模型是否可行?

作者:Jeff Amico;编译:深潮 TechFlow

引言

在新冠疫情期间,Folding@home 取得了一个重大里程碑。该研究项目获得了 2.4 exaFLOPS 的计算能力,由全球 200 万台志愿者设备提供。这代表了当时世界上最大超级计算机的十五倍处理能力,使科学家能够大规模模拟 COVID 蛋白质动态。他们的工作推动了我们对病毒及其病理机制的理解,尤其是在疫情初期。

加密激励众筹一个AI模型是否可行?

Folding@home 用户的全球分布,2021

Folding@home 基于志愿计算的悠久历史,项目通过众包计算资源来解决大规模问题。这个想法在 1990 年代的 SETI@home 中得到了广泛关注,该项目汇集了超过 500 万台志愿者计算机以寻找外星生命。此后,这一理念已被应用于多个领域,包括天体物理学、分子生物学、数学、密码学和游戏。在每种情况下,集体力量增强了单个项目的能力,远远超出了他们单独能够实现的范围。这推动了进步,使研究能够以更开放和合作的方式进行。

许多人想知道我们是否可以将这一众包模型应用于深度学习。换句话说,我们能否在大众中训练一个大型神经网络?前沿模型训练是人类历史上计算最密集的任务之一。与许多 @home 项目一样,目前的成本超出了只有最大参与者才能承担的范围。这可能会阻碍未来的进展,因为我们依赖于越来越少的公司来寻找新的突破。这也将我们的 AI 系统的控制权集中在少数人手中。无论你对这项技术的看法如何,这都是一个值得关注的未来。

大多数批评者驳斥了去中心化训练的想法,认为与当前的训练技术不兼容。然而,这种观点已经越来越过时。新的技术已经出现,能够减少节点间的通信需求,从而允许在网络连接不佳的设备上高效训练。这些技术包括 DiLoCo 、 SWARM Parallelism 、 lo-fi 和异构环境中基础模型的分散训练等多个技术。其中许多具有容错性,并支持异构计算。还有一些新架构专为去中心化网络设计,包括 DiPaCo 和去中心化混合专家模型。

我们还看到各种加密原语开始成熟,使得网络能够在全球范围内协调资源。这些技术支持数字货币、跨境支付和预测市场等应用场景。与早期的志愿项目不同,这些网络能够汇聚惊人的计算能力,通常比目前设想的最大云训练集群大几个数量级。

这些要素共同构成了新的模型训练范式。这种范式充分利用全球的计算资源,包括如果连接在一起可以使用的大量边缘设备。这将通过引入新的竞争机制来降低大多数训练工作负载的成本。它还可以解锁新的训练形式,使得模型开发变得协作和模块化,而不是孤立和单一的方式。模型可以从大众中获取计算和数据,实时学习。个人可以拥有他们所创建模型的一部分。研究人员也可以重新公开分享新颖的研究成果,无需通过货币化他们的发现来弥补高昂的计算预算。

本报告考察了大型模型训练的现状及相关成本。它回顾了以往的分布式计算努力——从 SETI 到 Folding 再到 BOINC——以此为灵感探索替代路径。报告讨论了去中心化训练的历史挑战,并转向可能有助于克服这些挑战的最新突破。最后,它总结了未来的机遇与挑战。

前沿模型训练的现状

前沿模型训练的成本对非大型参与者而言已经不可承受。这个趋势并不新鲜,但根据实际情况,情况正在变得更加严重,因为前沿实验室不断挑战扩展假设。据报道,OpenAI 今年在训练方面花费超过 30 亿美元。Anthropic 预测到 2025 年,我们将开始进行 100 亿美元的训练,而 1000 亿美元的模型也不会太远。

加密激励众筹一个AI模型是否可行?

这一趋势导致行业的集中化,因为只有少数几家公司能够承担参与的费用。这引发了未来的核心政策问题——我们是否能接受所有领先的 AI 系统由一两家公司控制的局面?这也限制了进展速度,这一点在研究社区中显而易见,因为较小的实验室无法承担扩展实验所需的计算资源。行业领导者们也多次提到这一点:

Meta 的 Joe Spisak:要真正理解 [模型] 架构的能力,你必须在规模上进行探索,我认为这正是当前生态系统中所缺失的。如果你看看学术界——学术界有很多杰出的人才,但他们缺乏计算资源的访问,这就成了一个问题,因为他们有这些伟大的想法,却没有真正以所需水平实现这些想法的途径。

Together 的 Max Ryabinin:对昂贵硬件的需求给研究社区带来了很大压力。大多数研究人员无法参与大型神经网络开发,因为进行必要的实验对他们而言成本过高。如果我们继续通过扩大模型规模来增加其大小,最终能够进行竞

Google 的 Francois Chollet:我们知道大语言模型 (LLMs) 尚未实现通用人工智能 (AGI)。与此同时,朝 AGI 发展的进展已经停滞。我们在大语言模型上所面临的局限性与五年前面临的局限性完全相同。我们需要新的想法和突破。我认为下一个突破很可能来自外部团队,而所有大型实验室则忙于训练更大的大语言模型。 一些人对这些担忧持怀疑态度,认为硬件改进和云计算资本支出将解决这个问题。但这似乎不太现实。一方面,到本十年末,新一代 Nvidia 芯片的 FLOP 数量将大幅增加,可能达到今天 H100 的 10 倍。这将使每 FLOP 的价格下降 80-90%。同样,预计到本十年末,总 FLOP 供应将增加约 20 倍,同时改善网络和相关基础设施。所有这些都将提高每美元的训练效率。

加密激励众筹一个AI模型是否可行?

来源:SemiAnalysis AI Cloud TCO 模型

与此同时,总 FLOP 需求也将大幅上升,因为实验室希望进一步扩大规模。如果持续十年的训练计算趋势保持不变,到 2030 年前沿训练的 FLOPs 预计将达到约 2e29。进行这种规模的训练大约需要 2000 万个 H100 等效 GPU,依据当前的训练运行时间和利用率。假设这一领域仍有多个前沿实验室,总所需的 FLOPS 数量将会是这个数字的几倍,因为整体供应将在它们之间分配。EpochAI 预测到那时我们需要大约 1 亿个 H100 等效 GPU,约为 2024 年出货量的 50 倍。SemiAnalysis 也做出了类似的预测,认为前沿训练需求和 GPU 供应在此期间大致同步增长。

产能状况可能会因多种原因变得更加紧张。例如,如果制造瓶颈延迟了预计的出货周期,这种情况是常有的事。或者如果我们未能生产足够的能源来为数据中心供电。又或者如果我们在将这些能源来源连接到电网方面遇到困难。或者如果对资本支出的日益审查最终导致行业缩减规模,等等因素。在最好的情况下,我们当前的方法只能让少数公司继续推动研究的进展,而这可能还不够。

加密激励众筹一个AI模型是否可行?

显然,我们需要一种新的方法。这种方法不需要不断扩展数据中心、资本支出和能源消耗来寻找下一个突破,而是高效利用我们现有的基础设施,能够随着需求的波动灵活扩展。这将让研究中有更多实验的可能,因为训练运行不再需要确保亿万美元计算预算的投资回报。一旦摆脱这一限制,我们可以超越当前的大语言模型 (LLM) 模式,正如许多人所认为的,实现通用人工智能 (AGI) 是必要的。为了理解这种替代方案可能呈现的样子,我们可以从过去的分布式计算实践中汲取灵感。

群体计算:简史

SETI@home 在 1999 年普及了这一概念,允许数百万参与者分析无线电信号,寻找外星智慧。SETI 从 Arecibo 望远镜收集电磁数据,将其分成若干批次,并通过互联网发送给用户。用户在日常活动中分析数据,并将结果发送回。用户之间无需沟通,批次可以独立审核,从而实现高度的并行处理。在其巅峰时刻,SETI@home 拥有超过 500 万名参与者,处理能力超过当时最大的超级计算机。它最终于 2020 年 3 月关闭,但它的成功激励了随后的志愿计算运动。

Folding@home 在 2000 年延续了这一理念,利用边缘计算模拟阿尔茨海默病、癌症和帕金森病等疾病中的蛋白质折叠。志愿者在个人电脑的空闲时间进行蛋白质模拟,帮助研究人员研究蛋白质如何错误折叠并导致疾病。在其历史的不同时间段,其计算能力超过了当时最大的超级计算机,包括在 2000 年代后期和 COVID 期间,当时它成为第一个超过一 exaFLOPS 的分布式计算项目。自成立以来,Folding 的研究人员已发表超过 200 篇同行评审论文,每一篇都依赖于志愿者的计算能力。

伯克利开放网络计算基础设施 (BOINC) 在 2002 年普及了这一理念,提供了一个众包计算平台,用于各种研究项目。它支持 SETI@home 和 Folding@home 等多个项目,以及在天体物理学、分子生物学、数学和密码学等领域的新项目。到 2024 年,BOINC 列出了 30 个正在进行的项目,以及近 1,000 篇发表的科学论文,均利用其计算网络产生。

在科研领域之外,志愿计算被用于训练围棋(LeelaZero、KataGo)和国际象棋(Stockfish、LeelaChessZero)等游戏引擎。LeelaZero 通过志愿计算从 2017 年到 2021 年进行训练,使其能够与自己下棋超过一千万局,创造了今天最强的围棋引擎之一。类似地,Stockfish 自 2013 年以来一直在志愿网络上持续训练,使其成为最受欢迎和最强大的国际象棋引擎之一。

关于深度学习的挑战

但是我们能否将这一模型应用于深度学习?我们是否可以将世界各地的边缘设备联网,创建一个低成本的公共训练集群?消费者硬件——从苹果笔记本到 Nvidia 游戏显卡——在深度学习方面的性能越来越出色。在许多情况下,这些设备的性能甚至超过了数据中心显卡的每美元性能。

加密激励众筹一个AI模型是否可行?

然而,要有效利用这些资源在分布式环境中,我们需要克服各种挑战。

首先,当前的分布式训练技术假设节点之间存在频繁的通信。

当前最先进的模型已经变得如此庞大,以至于训练必须被拆分到数千个 GPU 之间。这是通过多种并行化技术来实现的,通常是在可用的 GPU 之间拆分模型、数据集或同时拆分两者。这通常需要高带宽和低延迟的网络,否则节点将闲置,等待数据到来。

例如,分布式数据并行技术 (DDP) 将数据集分配到各个 GPU 上,每个 GPU 在其特定的数据片段上训练完整的模型,然后共享其梯度更新,以生成各个步骤的新模型权重。这需要相对有限的通信开销,因为节点仅在每次反向传播后共享梯度更新,并且集体通信操作可以部分与计算重叠。然而,这种方法仅适用于较小的模型,因为它要求每个 GPU 在内存中存储整个模型的权重、激活值和优化器状态。例如,GPT-4 在训练时需要超过 10TB 的内存,而单个 H100 仅有 80GB。

为了解决这一问题,我们还使用各种技术对模型进行拆分,以便在 GPU 之间进行分配。例如,张量并行技术 (tensor parallelism) 在单个层内拆分各个权重,使得每个 GPU 执行必要的操作并将输出传递给其他的 GPU。这降低了每个 GPU 的内存需求,但需要它们之间进行持续的通信往来,因此需要高带宽、低延迟的连接以提高效率。

流水线并行技术 (pipeline parallelism) 将模型的层分配到各个 GPU 上,每个 GPU 执行其工作并与流水线中的下一个 GPU 共享更新。尽管这所需的通信量比张量并行更少,但可能会出现「气泡」(例如,空闲时间),在这种情况下,位于流水线后面的 GPU 会等待来自前面 GPU 的信息,以便开始其工作。

为了解决这些挑战,发展出各种技术。例如,ZeRO(零冗余优化器)是一种内存优化技术,它通过增加通信开销来减少内存使用,从而使更大的模型能够在特定设备上进行训练。ZeRO 通过在 GPU 之间分割模型参数、梯度和优化器状态来降低内存需求,但依赖于大量的通信,以便设备能够获取分割的数据。它是流行技术如完全分片数据并行 (FSDP) 和 DeepSpeed 的基础方法。

这些技术通常在大模型训练中结合使用,以最大化资源的利用效率,这被称为 3D 并行。在这种配置中,张量并行技术 (tensor parallelism) 通常用于在单个服务器内将权重分配到各个 GPU 上,因为在每个被分割的层之间需要大量通信。然后,流水线并行技术 (pipeline parallelism) 被用来在不同服务器之间(但在数据中心的同一岛屿内)分配层,因为它所需的通信量较少。接着,数据并行技术 (data parallelism) 或完全分片数据并行技术 (FSDP) 被用来在不同服务器岛屿之间拆分数据集,因为它可以通过异步共享更新和 / 或压缩梯度来适应更长的网络延迟。Meta 使用这种组合方法来训练 Llama 3.1,如下面的图示所示。

这些方法给去中心化训练网络带来了核心挑战,这些网络依赖于通过(速度更慢且波动更大的)消费级互联网连接的设备。在这种环境中,通信成本很快就会超过边缘计算带来的收益,因为设备通常是空闲的,等待数据到达。以一个简单的例子说明,分布式数据并行训练一个具有 10 亿参数的半精度模型,每个 GPU 在每个优化步骤中需要共享 2GB 的数据。以典型的互联网带宽(例如 1 千兆位每秒)为例,假设计算与通信不重叠,传输梯度更新至少需要 16 秒,导致显著的空闲。像张量并行技术 (tensor parallelism) 这样的技术(需要更多的通信)当然会表现得更糟。

其次,当前的训练技术缺乏容错能力。像任何分布式系统一样,随着规模的增加,训练集群变得更容易发生故障。然而,这一问题在训练中更加严重,因为我们目前的技术主要是同步的,这意味着 GPU 必须协同工作以完成模型训练。成千上万的 GPU 中单个 GPU 的故障会导致整个训练过程停止,迫使其他 GPU 从头开始训练。在某些情况下,GPU 并不会完全故障,而是由于各种原因变得迟缓,进而减慢集群中成千上万其他 GPU 的速度。考虑到当今集群的规模,这可能意味着数千万到数亿美元的额外成本。

Meta 在他们的 Llama 训练过程中详细阐述了这些问题,他们经历了超过 400 次意外中断,平均每天约 8 次中断。这些中断主要归因于硬件问题,例如 GPU 或主机硬件故障。这导致他们的 GPU 利用率仅为 38-43%。OpenAI 在 GPT-4 的训练过程中表现更差,仅为 32-36%,这也是由于训练过程中故障频繁。

换句话说,前沿实验室们在完全优化的环境中(包括同质的、最先进的硬件、网络、电源和冷却系统)进行训练时,仍然难以达到 40% 的利用率。这主要归因于硬件故障和网络问题,而在边缘训练环境中,这些问题会更加严重,因为设备在处理能力、带宽、延迟和可靠性方面存在不均衡。更不用说,去中心化网络易受恶意行为者的侵害,他们可能出于各种原因试图破坏整体项目或在特定工作负载上作弊。即使是纯志愿者网络 SETI@home,也曾出现过不同参与者的作弊现象。

第三,前沿模型训练需要大规模的计算能力。虽然像 SETI 和 Folding 这样的项目达到了令人印象深刻的规模,但与当今前沿训练所需的计算能力相比,它们相形见绌。GPT-4 在一个由 20,000 个 A100 组成的集群上训练,其峰值吞吐量为半精度的 6.28 ExaFLOPS。这比 Folding@home 在其峰值时的计算能力多出三倍。Llama 405b 使用 16,000 个 H100 进行训练,峰值吞吐量为 15.8 ExaFLOPS,是 Folding 峰值的 7 倍。随着多个实验室计划构建超过 100,000 个 H100 的集群,这一差距只会进一步扩大,每个集群的计算能力高达惊人的 99 ExaFLOPS。

加密激励众筹一个AI模型是否可行?

这很有道理,因为 @home 项目是志愿者驱动的。贡献者捐赠了他们的内存和处理器周期,并承担了相关成本。这自然限制了它们相对于商业项目的规模。

最近的进展

虽然这些问题在历史上一直困扰着去中心化训练工作,但它们似乎不再不可逾越。新的训练技术已经出现,能够减少节点间的通信需求,从而在互联网连接的设备上进行高效训练。这些技术很多源自大型实验室,它们希望为模型训练增加更大的规模,因此需要跨数据中心的高效通信技术。我们还看到了容错训练方法和加密激励系统的进展,这些方法可以支持更大规模的训练在边缘环境中进行。

高效通信技术

DiLoCo 是谷歌近期的研究,它通过在设备间传递更新的模型状态之前进行本地优化,从而减少了通信开销。他们的方法(基于早期的联邦学习研究)显示出与传统同步训练相当的效果,同时节点之间的通信量降低了 500 倍。此后,该方法已被其他研究者复制,并扩展至训练更大模型(超过 10 亿个参数)。它还扩展到异步训练,这意味着节点可以在不同时间共享梯度更新,而不是一次性共享所有更新。这更好地适应了处理能力和网络速度各异的边缘硬件。

其他数据并行方法,如 lo-fi 和 DisTrO,旨在进一步减少通信成本。Lo-fi 提出了完全本地微调的方法,这意味着节点独立训练,只在最后传递权重。这种方法在微调超过 10 亿参数的语言模型时,性能与基准相当,同时完全消除了通信开销。在一份初步报告中,DisTrO 声称采用了一种新型的分布式优化器,他们认为可以将通信需求降低四到五个数量级,尽管该方法尚待确认。

新的模型并行方法也已经出现,这使得实现更大的规模成为可能。DiPaCo(同样来自谷歌)将模型划分为多个模块,每个模块包含不同的专家模块,以便于特定任务的训练。然后,训练数据通过「路径」进行分片,这些路径是每个数据样本对应的专家序列。给定一个分片,每个工作者几乎可以独立训练特定的路径,除了共享模块所需的通信,这部分由 DiLoCo 处理。这种架构将十亿参数模型的训练时间减少了超过一半。

SWARM 并行性和异构环境中基础模型的去中心化训练 (DTFMHE) 也提出了模型并行的方法,以在异构环境中实现大模型训练。SWARM 发现,随着模型规模的增加,管道并行性通信约束减小,这使得在较低的网络带宽和更高的延迟下有效训练更大模型成为可能。为了在异构环境中应用这一理念,他们在节点之间使用临时「管道连接」,这些管道可以在每次迭代中实时更新。这允许节点将其输出发送到任何下一个管道阶段的对等节点。这意味着,如果某个对等节点比其他节点更快,或者任何参与者断开连接,输出可以动态重新路由,以保证训练的持续进行,只要每个阶段至少有一个活跃参与者。他们使用这种方法在低成本的异构 GPU 上训练一个超过 10 亿参数的模型,并且互连速度较慢(如下图所示)。

DTFMHE 同样提出了一种新颖的调度算法,以及管道并行和数据并行,以在 3 个大洲的设备上训练大型模型。尽管他们的网络速度比标准 Deepspeed 慢 100 倍,但他们的方法速度仅比在数据中心使用标准 Deepspeed 慢 1.7-3.5 倍。与 SWARM 类似,DTFMHE 显示出随着模型规模增大,通信成本可以有效隐藏,即使在地理分布的网络中也同样适用。这使得我们能够通过各种技术克服节点之间较弱的连接,包括增加隐藏层的大小和每个管道阶段增加更多层。

故障容错

上述许多数据并行方法默认具有容错能力,因为每个节点都在内存中存储整个模型。这种冗余通常意味着,即使其他节点出现故障,节点仍然可以独立工作。这对于去中心化训练非常重要,因为节点通常是不可靠的、异构的,甚至可能存在恶意行为。然而,如前所述,纯数据并行方法仅适用于较小的模型,因此模型大小受到网络中最小节点内存容量的制约。

为了解决上述问题,一些人提出了适用于模型并行(或混合并行)训练的容错技术。SWARM 通过优先选择延迟较低的稳定对等节点来应对对等节点故障,并在发生故障时重新路由管道阶段的任务。其他方法,如 Oobleck,采用类似的方法,通过创建多个「管道模板」来提供冗余,以应对部分节点故障。尽管在数据中心进行了测试,Oobleck 的方法提供了强大的可靠性保证,这些保证同样适用于去中心化环境。

我们还看到了一些新的模型架构(如去中心化混合专家模型 (Decentralized Mixture of Experts, DMoE)),用于支持去中心化环境中的容错训练。与传统的专家混合模型类似,DMoE 由多个独立的「专家」网络组成,这些网络分布在一组工作者节点上。DMoE 使用分布式哈希表以去中心化方式跟踪和整合异步更新。该机制(在 SWARM 中也使用)对节点故障具有良好的抵抗力,因为如果某些节点失败或未能及时响应,它可以将某些专家排除在平均计算之外。

规模化

最后,像比特币和以太坊所采用的加密激励系统可以帮助实现所需的规模。这两个网络通过向贡献者支付一种可以随着采用增长而增值的本地资产来众包计算。这个设计通过给予早期贡献者丰厚奖励来激励他们,当网络达到最小可行规模后,这些奖励可以逐步减少。

确实,这种机制存在各种陷阱,需要避免。其中最主要的陷阱是,过度激励供给而未能带来相应的需求。此外,如果基础网络不够去中心化,这可能引发监管问题。然而,当设计得当时,去中心化激励系统可以在较长时间内实现可观的规模。

例如,比特币年电力消耗约为 150 太瓦时 (TWh),这比目前构思中的最大 AI 训练集群的电力消耗高出两个数量级之多(100,000 个 H100 全负荷运行一年)。作为参考,OpenAI 的 GPT-4 在 20,000 个 A100 上进行了训练,Meta 的旗舰 Llama 405B 模型在 16,000 个 H100 上进行了训练。同样,在其高峰期,以太坊的电力消耗大约为 70 TWh,分散在数百万个 GPU 之间。即使考虑到未来几年 AI 数据中心的快速增长,像这些激励计算网络仍将多次超越其规模。

当然,并非所有计算都是可替换的,训练相对于挖矿有独特的需求,需要考虑。尽管如此,这些网络展示了通过这些机制可以实现的规模。

未来的道路

将这些部分联系在一起,我们可以看到前进的新道路的开端。

很快,新的训练技术将使我们能够超出数据中心的限制,因为设备不再需要共同放置才能发挥作用。这将需要时间,因为我们当前的去中心化训练方法仍处于较小规模,主要在 10 亿到 20 亿个参数的范围内,比像 GPT-4 这样的模型小得多。我们需要进一步的突破,以在不牺牲关键属性(如通信效率和容错能力)的情况下提升这些方法的规模。或者,我们需要新的模型架构,这些架构与今天的大型单体模型有所不同——可能更小、更模块化,在边缘设备上运行,而非在云端

无论如何,可以合理地预期在这个方向上会有进一步的进展。我们当前方法的成本是不可持续的,这为创新提供了强烈的市场动力。我们已经看到这一趋势,像 Apple 这样的制造商正在构建更强大的边缘设备,以便在本地运行更多的工作负载,而不是依赖云端。我们还看到对开源解决方案的支持不断增加——甚至在像 Meta 这样的公司内部,以促进更去中心化的研究与开发。这些趋势随着时间的推移只会加速。

与此同时,我们还需要新的网络基础设施来连接边缘设备,以便能够这样使用它们。这些设备包括笔记本电脑、游戏台式机,最终甚至可能是拥有高性能显卡和大内存的手机。这将使我们能够构建一个「全球集群」,低成本、始终在线的计算能力,可以并行处理训练任务。这也是一个具有挑战性的问题,需要在多个领域取得进展。

我们需要更好的调度技术来在异构环境中进行训练。目前没有任何方法可以自动并行化模型以达到优化,特别是在设备可以随时断开或连接的情况下。这是优化训练的关键下一步,同时保留基于边缘网络的规模优势。

我们还必须应对去中心化网络的一般复杂性。为了最大化规模,网络应该构建为开放协议——一套标准和指令,规定参与者之间的互动,就像 TCP/IP 而是用于机器学习计算。这将使任何遵循特定规范的设备能够连接到网络,无论拥有者和位置。它还确保网络保持中立,允许用户训练他们喜欢的模型。

虽然这实现了规模最大化,但它也需要一个机制来验证所有训练任务的正确性,而不依赖于单一实体。这一点至关重要,因为存在固有的作弊诱因——例如,声称自己完成了某个训练任务以获得报酬,但实际上并没有做到。考虑到不同设备通常以不同方式执行机器学习操作,这使得使用标准复制技术变得难以验证正确性,因此这尤其具有挑战性。正确解决这个问题需要在密码学和其他学科上进行深入研究。

幸运的是,我们在所有这些方面都继续看到进展。与过去几年相比,这些挑战似乎不再不可逾越。与机会相比,它们也显得相当微小。Google 在他们的 DiPaCo 论文中对此进行了最佳总结,指出去中心化训练有潜力打破的负反馈机制:

分布式训练机器学习模型的进展可能促进基础设施的简化建设,最终导致计算资源的更广泛可用。目前,基础设施是围绕训练大型单体模型的标准方法而设计的,同时机器学习模型的架构也旨在利用当前的基础设施和训练方法。这种反馈循环可能使社区陷入一个误导性的局部最小值,即计算资源的限制超过了实际需要。

也许最令人兴奋的是,研究界对解决这些问题的热情日益高涨。我们在 Gensyn 的团队正在构建上述网络基础设施。像 Hivemind 和 BigScience 这样的团队在实践中应用了许多这些技术。像 Petals、sahajBERT 和 Bloom 这样的项目展示了这些技术的能力,以及对基于社区的机器学习日益增长的兴趣。还有许多其他人也在推动研究进展,目标是建立一个更开放、更协作的模型训练生态系统。如果您对这项工作感兴趣,请与我们联系以参与其中。

美联储降息50基点引爆加密市场

作者:Alvis;来源:火星财经

经过四年的等待,美国联邦储备系统在今日的晨间会议中宣布了首次降息,幅度为50个基点。这一决策的公布,获奖为长期低迷的加密货币市场注入了新的活力。

美联储降息50基点引爆加密市场

根据Binance数据,比特币从 5.8万美元最高冲至 6.2 万美元上方,其中年底的比特币交割合合约溢价将近1600美金,充分显示了强烈看涨的信号!

公链板块普涨:

SEI 现报价 0.3305 美元,24 小时涨幅达 20.5%

SUI 现报价 1.39 美元,24 小时涨幅达 17.2%

TAIKO 现报价 1.89 美元,24 小时涨幅达 31.9%

ZETA 现报价 0.7186 美元,24 小时涨幅达 38.1%

SAGA现报价2.46美元,24 小时涨幅达 25.1%

MEME板块:

NEIRO再创新高,24 小时涨幅达 30.1%,现报价0.00098美金

POPCAT现报价0.87美金,24小时涨幅达25%

RATS现报价0.000118美金,24小时涨幅达20%

美联储降息50基点引爆加密市场

据 coingrass 数据显示,最近24小时,共有 66,865 人被爆仓 ,爆仓总金额为 $1.99 亿,最大单笔爆仓单发生在 Bybit – BTCUSD 价值 $892.77万

据统计,美联储上一次降息 50 基点为 2020 年 3 月,当时为应对新冠疫情降息 1 个百分点至 0-0.25%。2022 年 3 月以来,美联储启动了一轮近乎史无前例的激进加息,并从 2023 年 7 月起将政策利率维持在 5.25%-5.5% 高位至今。

2020 年降息后,比特币从「3.12」后的 4000 美元-6000 美元的价格区间起步拉升,至 2021 年 11 月触及上轮牛市高点 69,040 美元,最大涨幅超过 10 倍。同期,黄金价格于 3 月的 1450 至 1700 美元区间起涨,提前比特币触顶,于 2020 年 8 月触及 2075 美元高点后回落,于 2022 年 11 月达到 1616 美元的底部后开始新一轮上涨至今。

本次降息之后,加密市场是否同样再次重演历史?

接下来数月将可能持续降息

此次利率下调幅度超出了市场预期的25个基点,达到了50个基点。在新闻发布会上,鲍威尔明确表示,大幅度的降息并不意味着美国经济即将陷入衰退,也不预示着就业市场即将崩溃。相反,降息是一种预防措施,旨在维持经济和劳动市场的稳定。

市场普遍预计,在接下来的11月和12月,利率将继续下调。预计今年内还将有70个基点的降息空间。而公布的点阵图则显示,今年内可能还会有50个基点的降息。

相关阅读:一文读懂鲍威尔重磅鹰派记者会的问答要点(中英文对照)

降息对风险资产市场是一个长期利好。虽然短期内可能不会立即显现效果,但随着时间的推移和降息政策的持续实施,市场流动性将逐渐从债券和银行等传统渠道转移到股票和加密货币等新兴市场。

此外,11月初即将举行的美国总统选举也可能对加密货币市场造成短期波动。选举结果公布后,原本观望的资金可能会开始流入加密货币市场。

BTC 现货 ETF

美联储降息50基点引爆加密市场

截止 9 月 18 日,比特币现货 ETF 已累计总净流入达 30万个BTC。

当比特币现货交易所交易基金(ETF)持续获得资金流入时,比特币的价格通常会保持稳定并呈现上升趋势。相反,如果出现大量资金流出,比特币的价格往往会持续下跌。

当前,经历了一段时间的价格波动和下跌后,市场信心正在逐步回升,投资者继续积极地买入比特币。

10月份通常会上涨

美联储降息50基点引爆加密市场

根据Coinglass数据,加密货币市场表现出明显的季节性波动特征。例如,夏季往往见证市场表现的低迷,而年末和年初则通常迎来市场的复苏和增长。历史数据显示,比特币在过去九年中,除了2018年10月因熊市影响而出现下跌外,从2015年到2023年的其余时间里均实现了显著的正收益。

在2023年的下半年,比特币的价格自10月起稳步上升,这一趋势与比特币现货交易所交易基金(ETF)获批的预期相叠加,可能预示着新一轮牛市的开启。

市场观点

HashKey Jeffrey:黎明前的黑暗已经过去,新一轮潮汐行情起点已经到来。

HashKey Group 首席分析师 Jeffrey Ding 表示:美联储此次降息 50 个基点,标志着其对当前经济环境存在明显的担忧,需要以更大幅度开启降息周期。近期全球经济均面临流动性的挑战,这一降息决策为全球金融市场释放了新的活力。 比特币作为新时代的“数字黄金”,在这一背景下表现强劲,短线突破上涨 62000 美元。然而此次受益的并非比特币单一资产,整个加密市场都预计在宽松货币政策中迎来新一轮行情。此处需要注意的是,与传统市场不同,比特币的表现更多受到美元流动性的影响,而非美国经济前景的变化。这意味着,在未来的宽松货币环境中,比特币可能继续成为投资者对抗通胀和寻求避险的优选资产。 随着降息周期的延续,加密市场可能会进入更长时间的上涨通道。市场的波动性仍然存在,但这一轮加密货币行情或将带动更多的资金和创新进入该领域,推动整个加密生态体系进入新的发展阶段。

Hyblock Capital:比特币市场深度枯竭,或预示比特币价格看涨

Hyblock Capital 联合创始人兼首席执行官 Shubh Verma 早前在接受 CoinDesk 采访时表示:「通过分析综合现货订单簿,特别是现货订单簿深度为 0%-1% 和 1%-5% 的订单簿,我们发现订单簿流动性低通常与市场触底相吻合。这些低订单簿水平可能是价格逆转的早期指标,通常先于看涨趋势。

Glassnode:比特币市场处于停滞期,供需双方都显示出不活跃迹象

加密市场数据研究机构 Glassnode 发文表示,比特币市场目前正在经历一段停滞期,供需双方都显示出不活跃的迹象。过去两个月,比特币的实际市值达到峰值并稳定在 6220 亿美元。这表明,大多数正在交易的代币都接近其原始收购价。自 3 月份创下历史最高值以来,绝对已实现损益已大幅下降,这意味着当前价格范围内整体买方压力有所减轻。

免责声明:本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况,及遵守所在国家和地区的相关法律法规。

2024全球加密采用度调查:中南亚和大洋洲领先世界

原文作者:Chainalysis Team

原文编译:深潮 TechFlow

2024全球加密采用度调查:中南亚和大洋洲领先世界

通过,查看您的国家在 2024 年 Chainalysis 全球加密货币采用指数中的排名。

这篇文章摘自我们 2024 年。

我们很高兴分享第五个年度 Chainalysis 全球加密货币采用指数。在每年的报告中,我们都会分析链上和链下的数据,以确定哪些国家在加密货币的基层采用方面处于领先地位。我们的研究突出了那些独特的加密货币应用案例正在形成的国家,并探讨了世界各地的人们为何选择接受加密货币。

美联储降息50bp:加密市场的黄金投资机会与潜在风险

本文 Hash (SHA1): b7909e85230c846f01fdf480d00fe25080ede1dc

编号: 链源科技 PandaLY Security Knowledge No.033 

2024 年 9 月 18 日,美联储宣布将基准利率下调 50 个基点(bp),这一决定引发了全球金融市场的广泛关注。此次降息背后,是面对通胀回落与经济增长放缓的双重压力。过去两年间,美联储曾多次通过加息遏制通胀,但随着宏观经济环境的变化,宽松的货币政策再度成为应对金融市场波动的重要工具。

降息的影响不仅限于传统金融市场,对加密货币领域的主流资产如比特币、以太坊以及加密货币交易所交易基金(ETF)也具有重大影响。这类第一梯队的加密资产,作为市场焦点,可能受到直接的资本流入。然而,伴随这一机遇的同时,也有潜在的市场波动与投机性风险上升。相比之下,去中心化金融(DeFi)等衍生品也将在降息的背景下获得一定的发展空间。

1.美联储降息的背景和影响

美联储降息50bp:加密市场的黄金投资机会与潜在风险

美联储降息背景

美联储降息是宏观经济政策的重要工具之一,通常用于应对经济增长放缓或金融市场动荡的情况。通过降低基准利率,美联储希望刺激企业和消费者的借贷和消费行为,从而促进经济复苏。2024 年 9 月 18 日,美联储决定降低基准利率 50 个基点(bp),这标志着一个重要的货币政策转向。

  • 通货膨胀压力: 2022 年-2023 年期间,全球范围内的高通胀促使美联储采取激进的加息措施。然而随着经济放缓,货币政策开始回调。    

  • 金融市场波动:加息导致市场出现流动性紧缩,加密货币等高风险资产价格剧烈波动。美联储的降息试图缓解这一局面,恢复市场信心。

  • 全球经济环境的变化:在国际贸易不确定性和地缘政治紧张局势的背景下,全球经济增速放缓,美联储的政策也与全球经济状况紧密相关。

降息对金融市场的广泛影响

  • 降息对金融市场的影响广泛,尤其是通过以下途径产生效应:

  • 降低借贷成本:企业和消费者更容易获得廉价的信贷,促使投资和消费增加,从而提振整体经济。

  • 货币贬值压力:降息往往伴随着美元等货币的贬值,这对于持有美元的投资者来说,可能会导致资金转向其他避险或高回报资产,如加密货币。

  • 股市反弹与资本流入:降息的消息通常会刺激股市反弹,并吸引更多资金进入高风险、高回报的市场,如科技股和加密市场。

降息对加密市场的潜在影响

与传统金融市场一样,加密货币市场对美联储降息政策也会作出反应。特别是:

  • 资金流入加密市场:低利率环境下,更多投资者可能选择将资本投入高回报的加密资产,尤其是那些具有快速增长潜力的项目。

  • 波动性上升:随着更多资金流入加密货币市场,可能会推动短期的价格上涨。然而,随之而来的价格波动也会导致市场更加不稳定。

  • 主流资产受益:比特币、以太坊和加密货币 ETF 等主流资产将直接受益于降息,因为投资者可能转向这些资产以对冲通胀和寻找高回报。相比之下,传统金融资产的回报率可能会下降。    

2.加密市场反应与主流资产的机会和风险

    美联储降息50bp:加密市场的黄金投资机会与潜在风险

降息如何推动资金流入主流加密资产

降息后,低利率环境增加了市场中的流动性。传统金融系统中的低回报促使投资者寻求更高收益的机会,这为主流加密资产如比特币、以太坊和加密货币 ETF 带来了资本流入。

比特币和以太坊的收益机会:在低利率环境下,比特币和以太坊作为主要的加密资产,通常会吸引更多资金流入。这一过程可能进一步提升这些主流资产的流动性,并推动其价格上涨。    

加密货币 ETF 的吸引力:加密货币 ETF 作为一种合规的投资工具,为投资者提供了接触加密市场的新方式。在降息的背景下,加密货币 ETF 的吸引力可能增强,吸引更多投资者参与。

市场流动性增加带来的机会

降息通常意味着更多资本会在短时间内涌入高增长领域,对于主流加密资产而言,可能带来一系列机遇:

资本投入市场:更多资本流入可以推动主流加密资产的市场基础设施建设,如交易平台的技术升级和安全增强。

资产创新和应用:资金的充裕可以推动比特币和以太坊等资产的创新应用,提升市场的生态多样性和用户体验。

市场投机性增加带来的风险

然而,市场流动性增加也伴随着一定的风险:

投机性资金流动:大量资金流入主流加密市场可能导致短期的价格上涨,但也会加剧市场的投机性。当美联储货币政策再次收紧时,资金可能快速撤离,导致市场波动加剧。

泡沫风险:随着更多资金流入加密资产,某些尚未成熟的项目可能被过度炒作,形成价格泡沫,最终对市场产生更大的冲击。

3. 降息带来的安全挑战

链上攻击的增加:

市场流动性增加、资金活跃会带来更多链上攻击的机会,尤其是在Web3平台上。以下是主要的安全挑战:

  • 价格操控攻击:价格剧烈波动时,DeFi 协议尤其容易遭受价格操控攻击。攻击者通过操纵价格预言机,导致智能合约触发错误的价格判断,进而进行套利或攻击。

  • 清算攻击:在降息带来的市场波动期,DeFi 协议中涉及的抵押品可能频繁遭到清算,黑客可能通过设计复杂的清算策略,故意引发大规模清算事件,影响平台的正常运行。

流动性池和资产冻结风险 :

随着资本流入加剧,Web3平台中的流动性池可能面临更高的压力。流动性池的资金快速进出,可能导致以下风险:

  • 流动性枯竭:在剧烈波动的市场中,流动性池资金耗尽的风险增大。平台可能因为流动性不足而冻结用户的资产,导致用户无法及时提取资金。

  • 智能合约漏洞被放大:随着市场资金的集中,一旦平台上的智能合约存在漏洞,攻击者可能利用大量资金的流入进行大规模的攻击,造成巨额损失。

加密货币诈骗的增加 : 

降息带来的市场热潮也吸引了更多的加密货币诈骗,以下是常见的诈骗类型:

  • 虚假空投和投资平台:诈骗者可能借助市场的乐观情绪,冒充知名项目进行虚假空投活动,吸引投资者将资金转入骗局中。

  • 网络钓鱼攻击:用户在急于参与市场的情况下,容易陷入钓鱼网站或虚假交易平台的陷阱,从而泄露私钥或钱包信息,导致资金被盗。    

案例分析: 2023 年比特币价格波动事件

2023 年比特币市场经历了剧烈的价格波动。当美联储宣布降息时,比特币的价格出现了大幅上涨,吸引了大量资金进入市场。然而,市场的急速上涨也带来了剧烈的价格波动和相关的安全挑战。一些交易平台因流动性压力而冻结了用户资产,同时,钓鱼攻击和虚假投资平台也随之增加,导致许多投资者蒙受了损失。

这一风险同样适用于当前市场,特别是在大量资金涌入主流加密资产的情况下。未成熟的技术和过度炒作可能导致项目泡沫,随着货币政策变化,泡沫破裂时将对市场带来重大影响。

4.诈骗与钓鱼的增加及应对策略   

市场情绪波动下的诈骗行为:  

当市场处于资金流动性增加和价格上涨的背景下,投资者容易因为**恐慌错过机会(FOMO)**而做出非理性的投资决策。这为诈骗者提供了机会:

  • 伪装成热门项目:诈骗者可能伪装成与降息利好相关的热门项目,以高回报为诱饵,吸引投资者参与虚假的 DeFi 或 NFT 项目。

  • 虚假社交媒体活动:利用社交媒体传播虚假赠送或虚假空投信息,诈骗者通过冒充知名人士(例如波场的创始人孙宇晨)引诱投资者。

如何应对诈骗和钓鱼?  

为了应对这一现象,Web3用户应采取以下措施:    

  • 加强安全意识:用户必须提高对诈骗活动的警觉性,避免参与任何要求转账或分享私钥的活动,尤其是在社交媒体上的虚假空投活动。

  • 启用多重认证:用户应为他们的加密货币账户启用双重身份认证(2FA),以提高账户的安全性。

  • 使用安全的Web3钱包和浏览器扩展:选择知名且经过验证的钱包和浏览器扩展,如 MetaMask,避免使用来历不明的工具。

案例分析:

在美联储降息消息公布后,加密市场的流动性增加,多个虚假项目趁机兴起。一个名为“BitProfit”的诈骗项目在社交媒体上迅速扩展。他们声称与知名比特币投资平台合作推出一个与降息相关的高收益投资计划,承诺用户可获得高达 25% 的年化回报率。诈骗者伪装成一个与降息利好挂钩的热门比特币投资平台,甚至伪造了以太坊创始人维塔利克·布特林的社交媒体账号,发布了虚假空投活动,诱导投资者将资金转入其控制的钱包地址。

在短短两周内,诈骗者吸引了超过 200 名投资者参与,骗取了超过数十万美元的比特币和以太坊。一旦资金进入骗子控制的地址,用户便再也无法取回资金,诈骗者随后销毁了与其相关的所有社交媒体账号,项目迅速消失。

5. Web3开发者与企业的应对策略

智能合约的安全升级:

随着资金流入Web3生态,Web3开发者需进行全面的智能合约安全升级。除了常规的代码审计,开发者应使用更多元化的工具进行动态监控与测试,及时修复可能被利用的漏洞。例如,增强对 Oracle 的安全保护,防止预言机操控,减少合约被恶意触发的风险。使用自动化工具检测恶意行为和资金异常流动,确保在大量资金涌入的情况下,合约仍能保持安全性和稳定性。    

加强安全基础设施:

在资本迅速流动和市场波动的背景下,Web3平台必须投资于安全基础设施建设,以应对潜在的链上攻击和投机行为。首先,平台应加强链上监控,实时追踪资金流动,预防可能的攻击。其次,增强分布式防护措施,比如分布式节点保护,降低单点故障带来的攻击风险。此外,Web3项目应与第三方安全公司合作,通过及时的漏洞修复和智能合约升级减少攻击面。

6.全球政策与Web3的长期发展

    美联储降息50bp:加密市场的黄金投资机会与潜在风险

1、合规与监管压力

随着美联储降息带来的流动性上升,全球监管机构可能会进一步加强对Web3生态的监管力度。这种监管的加剧主要体现在以下几个方面:

  • 加强合规要求

为了应对流动性增加带来的风险,监管机构可能会引入更严格的合规要求。尤其是对于 KYC(了解客户)和 AML(反洗钱)措施,这些将成为平台的标准合规配置。平台必须建立完善的客户身份验证系统,确保用户身份的真实性,并监控交易活动以防止非法资金流入。

  •  国际化监管挑战

不同国家和地区的监管政策差异将是全球Web3项目面临的主要挑战之一。例如,欧盟可能会推行严格的数据保护法规,而其他国家可能会侧重于税收和反欺诈措施。开发者和企业应密切关注这些政策变化,并根据各地法规进行相应调整。实现跨国合规不仅需要技术手段的支持,还需要法律专业知识的保障。

  • 合规流程的优化

为了适应不断变化的合规要求,Web3平台需要不断优化其合规流程。这包括实现实时合规监控系统、增强数据透明度和追踪能力、以及进行定期的合规审计。这样可以及时发现潜在的合规问题,避免因违规操作而受到处罚。

2、长期政策走向与Web3安全挑战

尽管美联储降息带来了短期的资本流入机遇,但从长期来看,宏观经济的不确定性仍然可能对Web3生态系统构成威胁:

  • 宏观经济的不确定性    

长期的宏观经济不确定性可能导致货币政策的频繁调整,如未来可能的加息周期。这种经济波动会影响资本的流动性,从而对Web3项目的融资和运营产生影响。平台需要制定应急预案,确保在流动性紧缩的情况下,仍能维持业务的稳定运营。

  •  Web3安全挑战的持续性

随着监管压力和黑客攻击的加剧,Web3平台面临的安全挑战将更加复杂。监管机构对数据隐私和安全的要求越来越高,平台需要不断升级其安全防护措施,以抵御各种网络攻击。同时,黑客手段的不断演进也要求平台加强对潜在漏洞的监测和修复。

  • 提升安全防护能力

为了应对这些安全挑战,Web3平台和用户需要持续提升自身的安全防护能力。平台可以通过实施多层次的安全措施,如智能合约审计、实时监控系统和用户教育,来增强其安全性。同时,用户也应提高警惕,定期更新密码,使用双因素认证等措施来保护个人资产。

  • 未来政策走向的预判

展望未来,政策走向将对Web3的发展产生深远影响。开发者和企业需要密切关注政策动态,提前布局,以便在政策变化时能够快速调整战略。此外,与政策制定者和行业协会的沟通也有助于掌握政策趋势,推动有利于Web3发展的法规制定。

总的来说,全球政策和经济环境的变化对Web3的发展具有重要影响。Web3项目和用户需要在合规、监管、经济波动和安全等方面做好充分的准备,以确保在复杂的环境中实现可持续的发展。    

结语

美联储降息 50 bp 不仅在传统金融市场产生了深远影响,也为Web3生态带来了全新的机会与风险。在此背景下,Web3平台、开发者、投资者和用户必须保持高度的安全意识,尤其是在市场波动加剧、资金流动加快的情况下。通过提升合约安全、加强基础设施建设以及密切关注全球政策变化,Web3生态才能在不断变化的宏观经济环境中维持稳健发展并应对潜在的挑战。

链源科技是一家专注于区块链安全的公司。我们的核心工作包括区块链安全研究、链上数据分析,以及资产和合约漏洞救援,已成功为个人和机构追回多起被盗数字资产。同时,我们致力于为行业机构提供项目安全分析报告、链上溯源和技术咨询/支撑服务。             

感谢各位的阅读,我们会持续专注和分享区块链安全内容。   

Babylon上线一个月反响平平,BTCFi叙事逻辑成立吗?

原文作者:Haotian(X:@tmel0211

距离 @babylonlabs_io 主网上线已有近 1 个月,不过预期中的 BTCFi 市场反应并没有想象中热烈。那么,Babylon 第一期质押过程中暴露出哪些问题?Babylon 的可持续生息叙事逻辑成立吗?Babylon 的市场预期影响被高估了吗?接下来,说说我的看法:

1)Babylon 的创新内核是采用 Self-Costodian 自托管的方式,让用户的 BTC 资产用脚本契约形式锁定在比特币主网的同时,能够在众多 BTC layer 2 上输出「安全共识服务」继而得到其他扩展链提供的丰富收益。

这句话现阶段只有前半句成立,的确 Babylon 的精密复杂的密码学算法架构,让用户可以自托管形式持有 BTC 的情况下实现额外收益的可能性,其他 CeDeFi 或 Wrapped 形式让原生 BTC 突破原链束缚都需要有个第三方托管平台,Babylon 确实不需要。若钱包支持,用户可以看到自己质押给 Babylon 协议的 BTC 依然显示在自己的余额内。

而这句话的后半句,目前只能算一个未成熟的「饼」。因为要把 Babylon 的安全共识转化为服务并产生收益,需要有如下先决条件:

其一:要有大量的用户,包括拥有较大比例投票权的 Validators 节点将 BTC 质押在 Babylon 部署在比特币主网协议内;

其二:要聚合大量的 LST 资产,并产生强大流动性,以构成生态用户、TVL 等壮大的基础;

其三:要有大量的新生 layer 2 POS 链「采购」Babylon 提供的安全共识服务,并提供可持续的 Yield 收益;

2)目前,Babylon 协议只开放了第一期 1, 000 个 BTC 的有限质押,只能算实验性上线阶段,但却暴露了不少问题,这让其同时具备以上三个先决条件充满挑战。比如:

1、质押过程和 Babylon 协议交互会产生较高的「交易费损耗」。

包括:质押网络 Fomo 效应导致的网络整体交易 Fee 飙升损耗,以及后续协议 Unbond、Withdraw 等操作产生的相应手续费。

以第一期质押 War 为例:若限定了每笔交易只能存入 0.005 个 BTC,而且只有前 5 个区块内交易有效。假设 1 个机构 Validator 要存入 100 个 BTC,需要在 1 个小时内,向链上发起 20, 000 笔交易,且要比其他竞争者交易更早确认。这势必会导致网络交易 fee 短时暴涨,极大增加质押者的成本,据了解矿工费比率超过 5% 。(仅供参考,具体数据以官方为准)

2、Babylon 存入的原生 BTC 和其生态可流通的 Wrapped 版本 BTC 并非 1: 1 限定。

由于 Babylon 没有直接流通的 Wrap 版 BTC,在 Babylon 生态内流通的 Wrapped 版本 BTC 都是由一些参与质押的节点提供,包括:@SolvProtocol、@Bedrock_DeFi、@LorenzoProtocol、@Pumpbtcxyz、@Lombard_Finance

等等。这些机构 Validators 在 Babylon 质押若干 BTC,但实际其聚合的 Wrapped 版本 BTC 流动性要远超其已质押 BTC 的数量(事实也需要扩大 LST 流动性的规模才行)。

这意味着,虽然 Babylon 协议能确保质押在比特币主网上原生 BTC 资产的安全,但聚合平台上流通的各类 Wrapped 版本 BTC 的流动性风险和绝对信任,Babylon 并无法保证。还得靠这些聚合平台做公开审计、合约透明等一系列信誉背书。

也就是说,如果把 Babylon 比方成 Lido,用户存入 ETH 之后不会有相应的 stETH 用于流通,实际流动性由 Solv Protocol(SolvBTC.BBN)、BedRock(uniBTC) 等聚合型平台提供。Babylon 则像一个部分储备的央行角色,只会压一点储备金约束其流动性供给者(地方银行角色),整体安全要靠中央和地方统一协力才能保证。

以上两点问题决定了,Babylon 在这场 BTCFi 的大浪洪流之中,只占据一个「安全加固」的搭台角色,真正的好戏依旧要靠 Solv Protocol、BedRock、Lorenzo、PumpBTC 等聚合流动性平台唱响。

关键是,开局过于 Fomo 的市场情绪,会严重拉高这些参与者的进入「成本」,无疑加强了对后续 Yield 生息的「退出」压力。

和 Eigenlayer AVS 服务市场的发展动态关乎 Restaking 赛道命脉一样,Babylon 安全共识服务输出商业化的进展也成了 Babylon 必须要交出的市场答卷。

3)那么,Babylon「共享安全」服务范式,要如何产生可持续性的 Yield 收益呢?在我看来,仅依托 Babylon 社会安全共识激励演进的市场并不足够,还需要另一个股力量来壮大 POS 链需求池。

换句话说,Babylon 维持上下游经济链条的叙事逻辑不牢固,采购端存在极大不确定性。

假设一条新构建的 POS 链,要接入 Babylon 生态,Babylon 先得由完整的节点 Validators 网络产生 AVS 服务,比如:Eigenlayer 在 AVS 即服务叙事确立了,提供了一系列包括去中心化 Sequencer、预言机、ZK 协处理器等服务。

而现阶段,或许只是主网协议上线过于早期的缘故,Babylon 并没有成熟的商品化的服务。市场对于 Babylon 的期许貌似只有主动参与质押投票权争夺,然后聚合流动性搞积分 Point 大战,最终靠做大整体 Babylon 流动性市场蛋糕来共享溢出性红利。这样做也许可行,但靠堆叠市场预期来推动生态发展,会过于「被动」。有没有「主动」的 BTCFi 生息方案呢?

有,我此前文章中有提到,Babylon 本质上是通过经济模型制约构建「社会安全共识」来给 BTC layer 2 提供了一种「安全」批量化复制范式。还要一种依托 ZK 技术构建各类链基础模块化组件来加强 BTC layer 2 快速起链的「技术安全共识」复制范式。

以 ZK 通用架构应用链@GOATRollup 为例,@ProjectZKM 团队基于 ZK 技术底层构建的通用型 layer 2 框架,包括:底层 zkVM 通用执行层、Entangled Rollup Network 共享可交互通信层、去中心化 Sequencer 共享层等,最终用通用化组件服务给 layer 2 提供免跨链桥的 Native 跨链、统一流动性可交互操作中心。

相较 Babylon,Goat 把用户的原生 BTC 锁定在比特币主网后,随即提供 1: 1 Wrap 版的 BTC(goatBTC),并通过去中心化 Sequencer 原生挖矿收益(yBTC),并引入了 Pendle 债息分离等设计来丰富生息可能性。

可以认为,Goat Network 类似于以太坊 layer 2 体系中的「Rollup as a Service」服务方,可以输出通用模块化范式扩大 BTC layer 2 POS 链的规模,并提供了一套可持续的 BTC 收益经济模型来确保其叙事的可落地性。

以上。

不难看出,Babylon 的创新密码学安全范式,最大的价值在于把原先分散的 BTC 市场流动性快速聚合起来,并形成生态发展势能,核心流动性资本规模和效率是支撑其叙事成立底层逻辑。

要扩大 POS 链的规模效应,加大安全共识服务的商品化输出,还是得靠 zk 技术为互补,以模块化共享 Sequencer、Interoperability、DA 等组件服务来推动。

至于 Babylon 究竟是被高估,还是被错误预期了?相信以上观点能对大家有所启发。

解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

原创 | Odaily星球日报(

作者|南枳(

解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

今日,去中心化 AI 数据协议 Vana 在宣布获得 Coinbase 领投的 500 万美元融资后,旗下 Telegram 游戏 Data Hero 在 X 平台得到大范围推广,社区以“Paradigm 投资的唯一一个 AI 项目”作为亮点进行宣传。Vana 的实际核心业务是什么?当前能否进行交互获得空投?Odaily 将于本文解读。

项目背景

项目业务解读

Vana 是为用户所拥有的私人数据而设计的分布式网络,它由一个 EVM 兼容的 Layer 1 区块链组成,用户通过名为“数据 DAO”的组织拥有、管理他们贡献的数据和 AI 模型并从中获利

Vana 的核心组件称为“数据流动性网络(data liquidity network)“,它使用户的数据能够像金融资产一样以灵活、模块化的方式进行使用。Vana 通过两种机制来实现这一点:

  • 贡献证明机制,能够在保护隐私的情况下验证私有数据的价值。

  • 非托管数据机制,确保数据仅用于经过批准的操作。

Vana 的”数据流动性网络“创建了一个无信任的环境,可以在其中安全地对数据进行代币化、交易并用于 AI 训练,而不会损害用户隐私或控制权。

Vana 的主要特性与运作流程包括:

  • 用户通过数据 DAO 汇集上传数据,基础模型 DAO 将评估每个人的数据贡献的价值,并用特定于模型的代币奖励他们

  • 贡献者能够获得他们参与创建的 AI 模型的所有权;

  • 具有灵活的激励机制,推出多种代币例如数据集专用代币、AI 模型专用代币等

  • 排名前 16 位的数据 DAO 将获得代币激励

Vana 的业务可简单概括为,用户向 Vana 协议上传他们私有的如 Facebook、Instagram 和 Reddit 等数据,Vana 通过机制设计保证这些数据处于隐私状态并用于 AI 训练,而用户根据上传内容获得激励。

融资情况

Vana 共完成了 2500 万美元融资,其中:

2024 年 9 月完成 500 万美元战略融资,Coinbase 领投,未披露其他参与公司。

2022 年 12 月完成 1800 万美元融资,Paradigm 领投,Paradigm 前合伙人 Casey Caruso、Polychain Capital 等参投。。

另有 200 万美元融资 Vana 未公布详情。

项目进展

Vana 生态系统中已有一批成熟的数据 DAO,例如 Reddit Data DAO 目前有 140, 000 名 Reddit 用户加入,现已训练出第一个用户拥有的 AI 模型,还有由 Bittensor 矿工创建的 Twitter 数据 DAO ,由等。

解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

GPT Data DAO 示例

用户可选择向不同的 DAO 提交数据,这里选择GPT Data DAO作为示例。需注意,当前为测试网阶段,官方表示“在测试网上获得的积分没有任何价值,也不代表未来的空投”,是否进行批量交互需用户自行判别。

  • 链接 GPT Data DAO 网站,向 ChatGPT 中输入一次链接钱包的地址

    解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

  • 通过 ChatGPT 的设置-数据管理-导出,导出与 ChatGPT 的聊天记录。

解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

  • ChatGPT 将向你的注册邮箱发送你的聊天记录,下载后在上传即可。

  • 解析去中心化AI数据协议Vana:总融资2500万美元,获Coinbase与Paradigm双重加持

其他项目

除了数据 DAO 之外,Vana 曾于 7 月 30 日推出了,玩法仅有在屏幕上不断点击获得积分,今日公布 Coinbase 领投的融资后,该链接在 X 平台大量传播,官方称这一游戏为“DataDAO Pre-Mine”,但具体参与价值暂不明确。

Vitalik:当前加密领域已不再是早期阶段

以太坊联合创始人Vitalik Buterin在参与TOKEN2049主会场首日进行“What Excites Me About the Next Decade”(未来十年令我兴奋的事情)主题演讲时表示: 人们往往会说现在加密还在早期阶段,我们仍在构建基础设施。确实,像互联网这样的东西花了多长时间才实现,我认为自比特币推出以来,人们几乎一直在这样说。而我们现在面临的一个现实挑战是,今天的加密领域已经不再是早期阶段了。 以太坊作为一个项目已经存在了超过10年,而在比特币诞生后的这15年时间里,我们看到像ChatGPT这样的事物从完全不存在发展到突然崛起,彻底改变了人们对人工智能的理解。 因此,我们必须问自己一个问题,那就是我们究竟该如何看待这一切? 我们真的还处于早期阶段吗? 我对这个问题的回答是,我认为我们在加密领域并不是早期,但我们确实处于一个特殊的阶段。

暗杀风波未平,特朗普的加密项目被疑触碰监管「红线」

原文作者:David Yaffe-Bellany、Sharon LaFraniere、Matthew Goldstein

原文编译:比推 BitpushNews Shawn

在一次直播中,唐纳德·特朗普正式推出了他的最新商业项目——World Liberty Financial,这是由两位在高端商业领域经验有限的数字货币企业家领导的加密货币公司。

暗杀风波未平,特朗普的加密项目被疑触碰监管「红线」

在前总统唐纳德·特朗普遭遇明显的暗杀未遂事件后的第二天,他现身直播,宣传他的最新商业项目——加密货币。

「无论我们喜不喜欢,必须要做加密货币,」特朗普在 X 上说道。「这是我必须做的。」

与他一起出现在直播中的有家族朋友、特朗普的两个儿子——小唐纳德·特朗普和埃里克·特朗普——以及两位鲜为人知的加密货币企业家。他们一起推出了特朗普的加密货币业务 World Liberty Financial。这个项目已经引发了人们对特朗普潜在利益冲突的担忧,甚至令他在加密行业内一些最热心的支持者感到惊讶。

自 8 月以来,特朗普一直在推广这个项目,但其具体目的尚不明确。目前还没有正式的启动日期。在直播中,特朗普没有直接提到这个项目的具体细节,而是将其留给了两位企业家——查斯·赫罗(Chase Herro)和扎卡里·福克曼(Zachary Folkman)。赫罗自称为「互联网的坏小子」,而福克曼曾教授如何吸引女性的课程。

在距离大选仅数周的时间里,总统候选人推出新业务非常罕见,尤其是一个明确旨在给他自己及其家族带来利益的项目。但在其整个政治生涯中,特朗普经常参与一些被道德专家认为存在问题的商业活动。特朗普是特朗普媒体与科技集团的主要所有者,这家公司是其社交媒体平台 Truth Social 的母公司,特朗普的个人财富中大约 20 亿美元来自于此。

非营利监察机构——政府监督项目的执行董事丹妮尔·布莱恩表示,如果特朗普在 11 月当选,他参与加密货币业务将带来严重的利益冲突问题。美国证券交易委员会(SEC)已经在打击加密行业,认为几乎所有加密货币都是未注册的证券,应像华尔街股票一样受到监管。

「他可能会利用影响力推动监管机构偏袒他所参与的业务」布莱恩说。道德专家也曾对特朗普拥有社交媒体公司提出类似的担忧。特朗普集团和 World Liberty Financial 的代表未回应置评请求。

暗杀风波未平,特朗普的加密项目被疑触碰监管「红线」

多年来,特朗普一直是加密货币的怀疑论者,甚至称比特币为「骗局」。但在竞选活动中,他逐渐成为加密货币的支持者,出席了一个广受欢迎的行业会议,并吸引了加密行业高管的捐款。「你们看到的是一个非常敌对的 SEC,」特朗普在周一的直播中说道。「而我的态度则不一样。」

World Liberty Financial 的规划始于九个月前,推动此项目的特朗普家族好友、房地产大亨史蒂夫·威特科夫表示,他向特朗普的儿子们介绍了赫罗和福克曼,这两人负责领导该项目。

到 7 月,位于波多黎各的 AMG 软件解决方案公司为该平台提交了商标申请。下个月,特朗普、埃里克·特朗普和小唐纳德·特朗普开始在 X 上发布有关该项目的内容。

在周一的直播中,特朗普和他的儿子们表示,加密货币将改变金融体系,但没有详细说明他们的商业项目计划实现什么目标。不过,据知情人士透露,World Liberty Financial 被一些内部人士描述为一个借贷平台。根据《纽约时报》审阅的一份白皮书,该项目将推出一种名为 $WLFI 的新加密货币,并向公众出售。

在其官方 X 和 Telegram 账户上,World Liberty Financial 表示,该项目的目标是推动「稳定币的大规模采用」,稳定币是一种旨在保持恒定价值(1 美元)的加密货币。一位知情人士将该项目描述为类似于现有的服务 Instadapp,这是一款允许用户跨多个加密平台管理投资的应用程序。

根据白皮书中的团队成员名单,特朗普家族的几位成员都参与了该业务。特朗普本人担任「首席加密货币倡导者」一职。其 18 岁的儿子巴伦·特朗普被列为项目的「DeFi(去中心化金融)愿景者」。埃里克·特朗普和小唐纳德·特朗普则分别担任「Web3 大使」。

白皮书的免责声明中提到,该平台并不属于特朗普、特朗普集团或其家族所有,尽管家族成员可能会因此获得报酬。(白皮书最早由加密货币新闻网站 CoinDesk 报道。)

据知情人士透露,史蒂夫·威特科夫在该项目中扮演了积极的角色。他设想这个项目部分是为了让巴伦·特朗普积累创业经验,并引导他远离 meme 币(一类充满骗局的加密货币)。威特科夫的发言人拒绝置评。

巴伦·特朗普没有参与直播,但特朗普表示他的儿子是个加密货币的爱好者。「他拥有四个钱包,」特朗普说。「他对这些东西了如指掌。」

暗杀风波未平,特朗普的加密项目被疑触碰监管「红线」

该项目的主要负责人是赫罗和福克曼。在直播中,赫罗表示,他的目标是让「每个普通美国人」都能参与加密货币投资。

「这个国家对我来说非常好,而加密货币也对我非常好,」赫罗说。

赫罗在加密货币界是一个相对不为人知的角色。据他所说,自己年轻时因长期涉毒被判入狱,但后来洗心革面,成功致富。2022 年,他曾出现在乔丹·贝尔福特(电影《华尔街之狼》的灵感来源)主持的一场加密货币研讨会上。赫罗在会上将稳定币形容为「自切片面包以来的最大创新」,并表示他最喜欢的一种币「充满活力、疯狂,几乎像一个庞氏骗局。」

多年来,赫罗与福克曼合作密切,后者曾创办了一家公司「Date Hotter Girls」,提供有关「如何吸引、约会并留住美丽和高质量女性」的课程。

赫罗和福克曼曾在美国维京群岛以及后来的波多黎各从事多个商业项目。据公开记录显示,两人都在波多黎各拥有房产,那里因提供慷慨的税收优惠而吸引了许多加密货币爱好者。福克曼在政府数据库中被列为享受该税收优惠的人之一。

在波多黎各成立公司之前,赫罗和福克曼在美国维京群岛经营了 Nexus 集团,这是一家享受类似税收优惠的互联网广告和媒体公司。赫罗还在那里经营了一家名为 Pacer Capital 的加密货币交易公司。

在直播中,福克曼表示,由于政府对加密货币的打击力度加大,World Liberty Financial 关联的数字货币只会向合格投资者开放。他补充说,律师们「正在紧张地盯着我。」

次贷AI危机:加密 x AI 需要重新思考

作者:Edward Zitron 编译:Block unicorn

如果你正在关注加密行业的AI,或是传统互联网的AI,你需要认真思考一下这个行业的未来。文章内容篇幅较为长,如果你没有耐心,可以马上离开。

我在这篇文章中写的内容,并不是为了传播怀疑或“抨击”,而是对我们今天所处的状况及当前道路可能导致的结局进行冷静评估。我相信,人工智能热潮——更确切地说,生成式AI热潮——(正如我之前所说)是不可持续的,最终将会崩溃。我还担心,这场崩溃可能会对大科技公司造成毁灭性打击,严重破坏创业生态系统,并进一步削弱公众对科技行业的支持。

我今天写这篇文章的原因是,现在感觉形势正在迅速变化,多个AI“末日的预兆”已经浮现:OpenAI(匆忙)推出的“o1(代号:草莓)”模型被称为“一场大而愚蠢的魔术”(虚假幻想);传闻OpenAI未来模型(及其他地方)将涨价;Scale AI裁员;以及领导层离开OpenAI。这些都是事情开始崩溃的迹象。

因此,我认为有必要解释当前局势的危机,以及为何我们陷入了幻想破灭的阶段。我想表达对这场运动脆弱性的担忧,以及我们到达这一点的过程中,过度执迷和缺乏方向感,我希望有些人能够做得更好。

此外——也许这是我之前没有充分关注的一点——我想强调AI泡沫破裂可能带来的人类代价。无论是微软和谷歌(以及其他大型生成式AI支持者)逐渐放缓其投资,还是通过削弱公司资源来维持OpenAI和Anthropic(以及他们自己的生成式AI项目),我相信最终结果都是一样的。我担心,成千上万的人将失去工作,科技行业的大部分将意识到,唯一能够永远增长的东西是癌症。

这篇文章不会有太多轻松的内容。我将为你描绘一幅阴暗的画面——不仅是针对那些大型AI玩家,也是针对整个科技行业及其员工——并告诉你为什么我认为这场混乱且具有破坏性的结局比你想象的来得更早。

继续往下,进入思考模式。

生成式AI如何生存?

目前,OpenAI——这个名义上的非营利组织,很快可能转为营利性质——正在以至少1500亿美元的估值进行新一轮融资,预计筹集至少65亿美元,可能高达70亿美元。这轮融资由Josh Kushner的Thrive Capital领投,传闻NVIDIA和苹果也可能参与。如我之前详细分析过的,OpenAI将不得不持续筹集前所未有的巨额资金,才能生存下去。

更糟糕的是,据彭博社报道,OpenAI还正尝试从银行以“循环信贷额度”的形式筹集50亿美元的债务,而循环信贷通常伴随更高的利率。

《The Information》也报道称,OpenAI正与MGX——一个背靠阿联酋、拥有1000亿美元资金的投资基金——进行谈判,寻求投资AI和半导体公司,可能还会从阿布扎比投资局(ADIA)筹集资金。这是一个极其严重的警告信号,因为没有人是自愿向阿联酋或沙特寻求资金的。只有当你需要大量资金且不确定能从其他地方获得时,你才会选择向他们寻求帮助。

附注:正如CNBC所指出的,MGX的创始合作伙伴之一穆巴达拉(Mubadala)持有Anthropic大约5亿美元的股权,这些股权是从FTX破产资产中收购的。可以想象,亚马逊和谷歌对此利益冲突应该感到多么“开心”!

正如我在7月底讨论的那样,OpenAI至少需要筹集30亿美元,甚至更可能是100亿美元,才能维持下去。它预计将在2024年亏损50亿美元,而这个数字可能会随着更复杂的模型需要更多的计算资源和训练数据而继续增加。Anthropic的CEO Dario Amodei预测,未来的模型可能需要高达1000亿美元的训练费用。

顺带一提,这里的“1500亿美元估值”指的是OpenAI为投资者定价公司股份的方式——尽管“股份”这个词在这里其实也有些模糊。例如,在一家普通公司中,以1500亿美元的估值投资15亿美元通常会获得公司“1%”的股份,然而在OpenAI的情况下,事情要复杂得多。

OpenAI今年早些时候曾试图以1000亿美元的估值进行融资,但一些投资者因价格过高而犹豫,部分原因是(引用《The Information》记者Kate Clark和Natasha Mascarenhas的说法)对生成式AI公司估值过高的担忧日益加剧。

为了完成这一轮融资,OpenAI可能会从非营利组织转变为营利性实体,但最令人困惑的部分是投资者实际上获得了什么。《The Information》的Kate Clark报道说,参与这一轮融资的投资者被告知(引用原话)“他们不会因为投资而获得传统的股权…相反,他们获得的是承诺公司利润分成的单位——一旦公司开始盈利,他们就能分到利润”。

尚不清楚转为营利性实体是否能够解决这个问题,因为OpenAI那种奇怪的“非营利组织+营利部门”的公司结构意味着,作为2023年投资的一部分,微软有权获得OpenAI 75%的利润——尽管理论上,转变为营利性结构可能会包含股权。然而,投资OpenAI时你得到的是“利润分成单位”(PPU),而不是股权。正如Jack Raines在Sherwood中写道:“如果你拥有OpenAI的PPU,但公司从未盈利,而且你也无法将其卖给认为OpenAI最终会盈利的人,那么你的PPU就毫无价值。”

上周末,路透社发表了一篇报告称,任何1500亿美元的估值都将“依赖于”OpenAI是否能够重新调整其整个公司结构,并在此过程中解除对投资者利润的上限,该上限目前限制为原始投资额的100倍。这个利润上限是在2019年设立的,当时OpenAI表示,超出这一上限的任何利润都将“返还给非营利组织,以造福人类”。近年来,公司已经修改了这一规则,允许从2025年起,每年将利润上限提高20%。

鉴于OpenAI现有与微软的利润分享协议——更不用提其深陷的巨额亏损——任何回报在最好的情况下都是理论上的。冒着显得轻率的风险说一句,即使涨了500%,零再怎么增加,最终还是零。

路透社还补充道,任何转为营利性结构(从而使其估值高于最近的800亿美元)都会迫使OpenAI重新与现有投资者谈判,因为他们的股份将被稀释。

另据报道,《金融时报》指出,投资者必须“签署一份运营协议,该协议声明:‘应将对[OpenAI的营利子公司]的任何投资视为捐赠的精神’并且OpenAI‘可能永远无法盈利’。”这样的条款确实非常疯狂,任何投资OpenAI的人如果因此遭遇糟糕的后果,都完全是自作自受,因为这是一次极其荒唐的投资。

实际上,投资者并没有获得OpenAI的一部分股权,或对OpenAI的任何控制权,而只是获得了一家每年亏损超过50亿美元、而且很可能在2025年亏损更多(如果它能撑到那时的话)公司未来利润的股份。

OpenAI的模型和产品——稍后我们会讨论它们的实用性——在运营上极其不盈利。《The Information》报道称,OpenAI将在2024年支付微软约40亿美元的费用来支持ChatGPT及其底层模型,而这已经是微软为其提供的每小时每GPU 1.30美元的折扣价,相比之下,其他客户的常规费用是每小时3.40美元到4美元。这意味着,如果没有与微软的深度合作,OpenAI每年在服务器上的支出可能高达60亿美元——这还不包括如员工成本(每年15亿美元)等其他开销。而且,正如我之前讨论过的,训练成本目前为每年30亿美元,并且几乎肯定会继续增加。

尽管《The Information》在7月报道OpenAI的年收入为35亿至45亿美元,但《纽约时报》上周报道称,OpenAI的年收入“现已超过20亿美元”,这意味着年底的数据很可能接近该估算范围的低端。

简而言之,OpenAI正在“烧钱”,未来只会烧更多的钱,而为了继续烧钱,它将不得不从签署了“我们可能永远无法盈利”声明的投资者那里筹集资金。

正如我之前写过的,OpenAI的另一个问题在于,生成式AI(扩展到GPT模型和ChatGPT产品)并没有解决那些能够证明其巨额成本合理性的复杂问题。这些模型是基于概率的,这导致了巨大的、难以解决的问题——换句话说,它们什么都不知道,只是在基于训练数据生成答案(或者生成图像、翻译或摘要),而模型开发者正以惊人的速度耗尽这些训练数据。

“幻觉”现象——即模型明确生成了不真实的信息(或者在图像或视频中生成了看起来像是错误的内容)——是无法通过现有的数学工具彻底解决的。尽管可能会减少或缓解幻觉现象,但它的存在使得生成式AI在关键业务应用中难以真正依赖。

即使生成式AI能够解决技术问题,是否真正为业务带来价值也不明确。《The Information》上周报道称,微软365套件的客户(包括Word、Excel、PowerPoint和Outlook等,尤其是许多面向企业的软件包,后者还与微软的咨询服务紧密相关)几乎没有采用其AI驱动的“Copilot”产品。仅有0.1%到1%的440万用户(每人30到50美元)为这些功能付费。一家正在测试AI功能的公司表示:“大多数人目前并不觉得它有太大价值。”其他公司则表示,“许多企业尚未看到生产力和其他方面的突破性提升”,并且他们“也不确定什么时候会有”。

那么,微软为这些并不重要的功能收费多少呢?令人瞠目结舌的是,每位用户每月要额外支付30美元,或者“销售助手”功能的每位用户每月最多要支付50美元。这实际上要求客户在原有费用的基础上再加一倍——顺便提一句,这是按年签订的合同!——而这些产品似乎并没有那么有用。

需要补充一点:微软的问题如此复杂,以至于可能在未来需要专门的新闻内容来讨论。

这就是生成式AI的现状——生产力和商业软件的领军企业竟然找不到一个客户愿意为之付费的产品,部分原因是结果过于平庸,部分原因是成本过于高昂,难以证明其合理性。如果微软需要收取如此高的费用,要么是因为Satya Nadella希望在2030年实现5000亿美元的收入(这一目标是在微软收购动视暴雪的公开听证会上公布的备忘录中透露的),要么是成本太高,无法降低价格,或者两者兼而有之。

然而,几乎所有人都在强调AI的未来将会让我们大为震撼——下一代的大型语言模型近在眼前,它们将会非常惊人。

上周,我们首次真正地窥见了那个所谓的‘未来’。然而,结果却让人大失所望。

一个愚蠢的魔法把戏

OpenAI在周四晚间发布了o1——代号“草莓”——其兴奋程度犹如去看牙医一样平淡无奇。Sam Altman在一系列推文中将o1描述为OpenAI“最强大且最对齐的模型”。尽管他承认o1“仍然存在缺陷,仍然有限,而且在使用一段时间后,它的表现不像初次使用时那样令人印象深刻”,但他承诺o1将在处理那些有明确正确答案的任务(如编程、数学问题或科学问题)时提供更准确的结果。

这本身就非常具有启示性——但我们稍后会详细讨论。首先,让我们谈谈它实际是如何工作的。我将介绍一些新的概念,但我保证不会深入到太过复杂的细节中。如果你真的想阅读OpenAI的解释,可以在他们官方网站的文章中找到——《Learning to Reason with LLMs》。

当面对一个问题时,o1将其分解成单独的步骤——希望这些步骤能最终得出正确答案,这个过程被称为“思维链”(Chain of Thought)。如果将o1视为同一模型的两个部分,理解起来会更容易。

在每一步中,模型的一部分应用强化学习,另一部分(输出结果的部分)根据其进展的正确性(其“推理”步骤)来“奖励”或“惩罚”,并在受到惩罚时调整策略。这与其他大型语言模型的工作方式不同,因为该模型会生成输出,然后回过头来看,而不是仅仅生成一个答案然后直接给出,而是会忽略或认可‘好的’步骤来得出最终答案。

虽然这听起来像是一个重大的突破,甚至是迈向高度赞誉的人工通用智能(AGI)的又一步——但实际上并不是——这可以从OpenAI选择将o1作为独立产品发布,而不是GPT的更新版本中看出来。OpenAI展示的例子——如数学和科学问题——都是答案可以预先知道的任务,这些任务的解答要么正确,要么错误,从而允许模型在每一步中引导“思维链”。

你会注意到,OpenAI没有展示o1模型如何解决那些解答未知的复杂问题,无论是数学问题还是其他问题。OpenAI自己也承认,已经收到反馈,o1比GPT-4o更容易出现“幻觉”,而且相比之前的模型,o1更不愿承认自己没有答案。这是因为,尽管模型中有一个部分负责检查其输出,但这个“检查”部分同样会出现幻觉(有时候AI会编造似乎让人觉得合理的答案,从而产生幻觉)。

据OpenAI称,由于“思维链”机制,o1对人类用户而言也更具说服力。因为o1提供了更详细的答案,人们更倾向于相信其输出,即使这些答案完全是错误的。

如果你觉得我对OpenAI的批评过于严厉,请考虑公司是如何宣传o1的。它将强化训练过程描述为“思考”和“推理”,但实际上它只是在猜测,并且每一步都是在猜测自己猜对了没有,最终的结果往往是可以预先知道的。

这对人类——真正的思考者——是一种侮辱。人类的思考基于一系列复杂的因素:从个人经验、毕生积累的知识到大脑的化学反应。虽然我们在处理复杂问题时也会“猜测”某些步骤是否正确,但我们的猜测是基于具体的事实,而不是像o1那样笨拙的数学运算。

而且,天哪,这代价真不菲。

o1-preview 的定价为每百万输入 token 收费 15 美元,输出 token 收费 60 美元。也就是说,o1 的输入费用是 GPT-4o 的三倍,输出费用是四倍。然而,这其中还有一个隐藏的成本。数据科学家 Max Woolf 指出,OpenAI 的“推理 token”——即用于得出最终答案的输出内容——在 API 中是不可见的。这意味着,o1 的价格不仅更高,其产品本质还要求用户更频繁地支付费用。所有为了“考虑”答案而生成的内容(需要明确的是,这个模型并不是在“思考”)也会被收费,这使得诸如编程等复杂问题的解答可能极其昂贵。

现在让我们来谈谈准确性。在 Hacker News——一个类似 Reddit 的网站,由 Sam Altman 曾创立的公司 Y Combinator 旗下的网站上,有人抱怨 o1 在处理编程任务时,凭空“编造”了不存在的库和函数,并且在回答网上无法轻易找到答案的问题时出现错误。

在 Twitter 上,初创公司创始人兼前游戏开发者 Henrik Kniberg 让 o1 编写一个 Python 程序来计算两个数字的乘积,并预测程序的输出结果。虽然 o1 正确编写了代码(尽管代码可以更简洁,只需一行即可),但实际输出的结果却完全错误。AI 公司创始人 Karthik Kannan 也进行了编程任务测试,o1 还凭空“编造”了一个 API 中不存在的命令。

另一位用户 Sasha Yanshin 试图与 o1 下棋,结果 o1 在棋盘上凭空“创造”了一颗棋子,随后还输掉了棋局。

因为我有点调皮,我也试着问 o1 列出名字中带有“A”的州。它思考了十八秒后,给出了37个州的名字,其中还包括了密西西比州。而正确答案应该是36个州。

当我问它列出名字中带有“W”的州时,它沉思了十一秒,居然把北卡罗来纳和北达科他也包括在内。

我还问 o1,字母“R”在其代号“草莓”(Strawberry)中出现了几次,它回答了两个。

OpenAI 声称 o1 在物理、化学和生物等复杂基准测试中表现得与博士生相当。但显然,它在地理、基础英语语言测试、数学以及编程方面表现欠佳。

值得注意的是,这正是我在之前的通讯中预测的那个“大而愚蠢的魔术”。OpenAI 推出“草莓”只是为了向投资者和公众证明 AI 革命仍在继续,而实际推出的却是一个笨重、无趣且昂贵的模型。

更糟的是,实在很难解释为什么任何人应该在意 o1。尽管 Sam Altman 可能会吹嘘其“推理能力”,但那些有钱继续资助他的人看到的,是10到20秒的等待时间、基本事实准确性的问题以及缺乏任何令人兴奋的新功能。

没人再关心“更好”的答案——他们想要的是一些全新的东西,而我不认为 OpenAI 知道如何实现这一点。Altman 试图通过让 o1“思考”和“推理”来使其拟人化,这显然是在暗示它是通向通用人工智能(AGI)的某种步骤,但即使是最坚定的 AI 拥护者也难以感到兴奋。

事实上,我认为 o1 表明 OpenAI 既绝望又缺乏创意。

价格没有下降,软件也没有变得更有用,而自去年11月以来我们一直听到的“下一代”模型最终却成了一个失败品。这些模型也迫切需要训练数据,以至于几乎每个大型语言模型都吸收了某种受版权保护的内容。这种迫切性使得作为最大的生成视频公司之一的Runway发起了一项“公司范围的努力”,收集了数千个YouTube视频和盗版内容来训练其模型,而8月份的一起联邦诉讼指控NVIDIA也对许多创作者采取了类似做法,以训练其“Cosmos”AI软件。

目前的法律策略基本上就是凭借意志力在硬撑,寄希望于这些诉讼不会达到设定任何法律先例的地步,而这一先例可能会将训练这些模型定义为侵犯版权的行为——这正是最近由版权倡议发起的一项跨学科研究得出的结论。

这些诉讼正在推进,8月份一名法官批准了原告对Stability AI和DeviantArt的进一步版权侵权指控(它们使用了这些模型),同时还批准了对Midjourney的版权和商标侵权指控。如果任何一起诉讼胜诉,将对OpenAI和Anthropic造成灾难性打击,对使用数百万艺术家作品数据集的谷歌和Meta更是如此,因为AI模型“遗忘”训练数据几乎是不可能的,这意味着它们将需要从头开始重新训练,这将耗费数十亿美元,并大大降低它们在执行任务时的效率,而这些任务本身就不是特别擅长。

我深切担忧这个行业的根基如同沙滩上的堡垒。像ChatGPT、Claude、Gemini和Llama这样规模的大型语言模型是不可持续的,似乎没有盈利的途径,因为生成式AI计算密集型的本质决定了训练它们需要花费数亿甚至数十亿美元,并且需要如此大量的训练数据,以至于这些公司实际上是从数百万艺术家和作家那里偷来了数据,并希望能逃脱法律制裁。

即使我们把这些问题搁置一旁,生成式AI及其相关架构也似乎并没有带来任何革命性的突破,且关于生成式AI的炒作循环根本没有真正符合“人工智能”这个术语的含义。生成式AI在最佳情况下,也只是偶尔能够正确生成一些内容,概括文档,或以某种不确定的“更快”速度进行研究。微软为Microsoft 365推出的Copilot声称拥有“成千上万的技能”,为企业提供“无限的可能性”,但其展示的例子无非是生成或总结邮件、“通过提示启动演示文稿”以及查询Excel表格——这些功能或许有用,但绝称不上革命性。

我们并不处于“早期阶段”。自2022年11月以来,大型科技公司在基础设施建设和新兴AI初创企业上的资本支出和投资已经超过了1500亿美元,同时也投入了自身的模型。OpenAI已筹集了130亿美元,可以雇用任何他们想要的人,Anthropic也同样如此。

然而,这场推动生成式AI腾飞的行业版“马歇尔计划”的结果,只是诞生了四五个几乎相同的大型语言模型、全球最不赚钱的初创公司,以及数千个价格高昂但表现平平的集成应用。

生成式AI正在以多重谎言进行推销:

1.它是人工智能。2. 它会变得更好。3.它将成为真正的人工智能。4. 它是势不可挡的。

抛开“性能”这样的术语——它们通常用于描述生成内容的“准确性”或“速度”,而不是技能水平——大型语言模型实际上已经进入了平台期。所谓“更强大”往往并不意味着“能做更多事”,而是意味着“更昂贵”,这意味着你只是创造了一个成本更高但功能没有增加的东西。

如果每一位风险投资家和大型科技巨头的联合力量仍然没有找到一个真正有意义的用例,很多人愿意为之付费,那就说明不会有新的用例出现。大型语言模型——是的,这就是这些数十亿美元去向——不会因为科技巨头和OpenAI再投入1500亿美元就突然变得更有能力。没有人试图让这些东西更高效,或者至少没有人成功做到这一点。如果有人成功了,他们会大肆宣传的。

我们面临的是一种共同的妄想——一种以版权盗窃为基础的死胡同技术(每个时代的技术的产生都会出现这种问题,无法避免),它需要持续不断的资本来维持运行,而提供的服务充其量只是可有可无的,这些服务被伪装成某种实际上并未提供的自动化功能,成本高达数十亿美元,并将继续如此。生成式AI运行的并非金钱(或云计算积分),而是信心。问题在于,信心——就像投资资本一样——是一种有限资源。

我担心的是,我们可能正处于一个类似次贷危机的AI危机中——成千上万的公司将生成式AI整合到其业务中,但价格却远未稳定,且更远未实现盈利。

几乎每一个标榜“AI驱动”的初创公司都基于某种GPT或Claude的组合。这些模型是由两家深陷亏损的公司开发的(Anthropic预计今年亏损27亿美元),它们的定价策略旨在吸引更多客户,而不是盈利。正如之前提到的,OpenAI依赖于微软的资助——包括它获得的“云计算积分”和微软提供的优惠定价——其定价完全依赖于微软作为投资者和服务提供商的持续支持,Anthropic与亚马逊和谷歌的交易也面临类似的问题。

根据它们的亏损情况,我推测,如果OpenAI或Anthropic的定价接近实际成本,那么API调用的价格可能会增加十倍到一百倍,虽然没有实际数据难以准确说明。但我们可以考虑《信息》报道的数字,OpenAI预计2024年在微软的服务器成本将达到40亿美元——我补充一下,这比微软对其他客户的收费便宜两倍半——再加上OpenAI每年仍亏损超过50亿美元。

OpenAI极有可能仅收取了运行其模型所需费用的一小部分,只有在能够不断筹集到比以往更多的风险资金并继续从微软那里获得优惠定价的情况下才能维持现状,而微软最近表示它将OpenAI视为竞争对手。虽然不能确定,但可以合理地认为,Anthropic也从亚马逊网络服务和谷歌云获得了类似的优惠定价。

假设微软给了OpenAI100亿美元的云计算积分,而OpenAI在服务器成本上花费了40亿美元,再加上假设的20亿美元培训费用——这些成本在新的o1和“Orion”模型推出后肯定还会增加——那么OpenAI到2025年可能需要更多的积分,或者开始用实际现金支付给微软。

虽然微软、亚马逊和谷歌可能会继续提供优惠定价,但问题在于这些交易是否对它们有利可图。正如我们在微软最新季度财报后看到的那样,投资者对构建生成式AI基础设施所需的资本支出(CapEx)表示越来越多的担忧,许多人对这一技术的潜在盈利能力表示怀疑。

而我们真正不知道的是生成式AI对这些大规模科技公司的盈利情况,因为它们将这些成本计算在其他收益中。虽然我们不能确定,但我想如果这些业务有任何盈利的话,它们肯定会谈论从中获得的收入,但它们并没有。

市场对生成式AI的繁荣持极度怀疑态度,而英伟达首席执行官黄仁勋对AI的投资回报没有给出实质性的答案,导致英伟达市值在一天内暴跌了2790亿美元。这是美国市场历史上最大的一次股市崩盘,失去的总价值相当于接近五家雷曼兄弟的高峰值。虽然这种比较到此为止——英伟达甚至没有面临失败的风险,即使它失败,系统性影响也不会如此严重——但这仍然是一个惊人的金额,且显示了AI对市场的扭曲力量。

8月初,微软、亚马逊和谷歌都因其与AI相关的大规模资本支出遭遇市场重创。如果它们在下个季度无法展示从这1500亿美元(甚至更多)投入的新数据中心和NVIDIA GPUs中获得显著的收入增长,它们将面临更多的压力。

需要记住的是,除了AI,大型科技公司已经没有其他创意市场了。当像微软和亚马逊这样的公司开始显示出增长放缓的迹象时,它们也开始急于向市场展示它们仍然具备竞争力。谷歌,一个几乎完全依赖搜索和广告的多重风险垄断公司,也需要一些新的、吸引眼球的东西来吸引投资者的注意——然而,这些产品并没有带来足够的效用,似乎大部分收入来自那些“尝试”AI后发现其实并不值得的公司。

目前,有两种可能性:

1. 大型科技公司意识到自己深陷其中,出于对华尔街的不满恐惧,选择减少与AI相关的资本支出。

2. 大型科技公司为了寻找新的增长点,决定削减成本以维持其破坏性的运营,裁员并将资金从其他业务转移以支撑生成式AI的“死亡竞赛”。

目前尚不清楚哪种情况会发生。如果大型科技公司接受生成式AI不是未来的现实,它们实际上没有其他东西可以向华尔街展示,但可能会采取类似Meta的“效率年”策略,减少资本支出(并裁员),同时承诺“降低投资”一定程度。这是亚马逊和谷歌最可能采取的路径,因为尽管它们渴望让华尔街满意,但至少目前仍有其盈利的垄断业务可依靠。

然而,未来几个季度需要看到AI带来的实际收入增长,并且必须是实质性的,而不是关于AI是“成熟市场”或“年度化增长率”的模糊说法。如果资本支出随之增加,那么这一实际贡献将需要显著提高。

我认为这增长不会出现。无论是在2024年第三季度、第四季度,还是2025年第一季度,华尔街将开始惩罚大型科技公司,因为它们对AI的贪欲,而这种惩罚将比对英伟达的惩罚更加严厉,尽管黄仁勋的空话和无用的口号,英伟达是唯一一家可以实际展示AI如何增加收入的公司。

我有些担心第二种情况的可能性更大:这些公司深信“AI是未来”,它们的文化与解决现实问题的软件开发完全脱节,可能会烧毁整个公司。我深切担忧大规模裁员会被用来资助这个运动,而过去几年的情况让我不认为它们会做出正确的选择,离开AI。

大型科技公司已经被管理顾问彻底毒害——亚马逊、微软和谷歌都由MBA管理——而且还围绕着他们一些相似的怪物,如谷歌的Prabhakar Raghavan,他赶走了真正建设谷歌搜索的人,以便自己掌控。

这些人并不真正面对人类的问题,他们创建了专注于解决软件可以修复的虚构问题的文化。对于那些整个生活都在开会或读邮件的人来说,生成式AI可能显得有些神奇。我想Satya Nadella(微软CEO)的成功心态主要就是“让技术人员解决问题”。Sundar Pichai本可以通过简单地嘲笑微软对OpenAI的投资来结束整个生成式AI热潮——但他没有这样做,因为这些人没有任何实际的想法,这些公司也不是由那些经历过问题的人来管理的,更不用说那些真正知道如何解决问题的人了。

他们也很绝望,这种情况对他们来说从未如此严重,除了Meta在元宇宙上烧掉了数十亿美元。然而,这种情况更加严重和丑陋,因为他们投入了大量资金,并将AI紧密地绑定到他们的公司中,撤掉AI将既尴尬又对股票造成伤害,实际上是对这一切都是浪费的默许。

如果媒体真正对他们负责,这一切本可以早些停止。这种叙事通过与以往的炒作周期相同的骗局进行销售,媒体假设这些公司会“解决问题”,尽管很明显它们不会。觉得我是在悲观吗?那请问,接下来生成式AI有什么计划?它接下来会做什么?如果你的答案是它们会“解决问题”,或者它们“在幕后有惊人的东西”,那么你就是一个不自觉的营销操作参与者(可以思考一下这句话)。

本文作者旁白:我们真的得停止被这种东西愚弄了。当马克·扎克伯格声称我们即将进入元宇宙时,大量媒体——如《纽约时报》、《The Verge》、CBS新闻和CNN等——都配合宣传了一个显然有缺陷的概念,这个概念看起来很糟糕,并且以对未来的彻头彻尾的谎言为卖点。它显然只不过是一个糟糕的虚拟现实世界,但《华尔街日报》仍然在 hype-cycle 已经明显过时的六个月后,把它称作“互联网的未来愿景”。这同样发生在加密货币、Web3 和 NFT 上!《The Verge》、《纽约时报》、CNN、CBS新闻——这些媒体再次参与了推广那些明显无用的技术——我应该特别提到《The Verge》,其实是凯西·纽顿,他在连续三次鼓吹技术后,尽管声誉良好,在七月时还声称“拥有一个最强大的大语言模型可能为公司提供各种赚钱的产品基础”,而实际上,这项技术只会亏钱,尚未提供任何真正有用和持久的产品。

我相信,至少微软将开始减少其他业务领域的成本,以帮助维持AI热潮。在今年早些时候,一位消息来源与我分享的邮件中,微软高级领导团队曾要求(但最终计划被搁置)降低公司内多个领域的电力需求,以便为GPU腾出电力,包括将其他服务的计算转移到其他国家,以释放AI的计算能力。

在匿名社交网络Blind上的微软板块(需要验证公司电子邮件),一位微软员工在2023年12月中旬抱怨“AI占用了他们的钱”,表示“AI的成本太高,吞噬了加薪,情况不会变好”。另一位员工在七月中旬分享了他们的焦虑,称他们明显感觉到微软对“削减成本以资助英伟达股价的操作现金流”有“边际上瘾”,并且这种做法“深深伤害了微软的文化”。

另一位员工补充说,他们相信“Copilot会在2025财年毁掉微软”,并且“2025财年的Copilot重点将大幅度下降”,还透露他们知道“他们国家的大型Copilot交易,在经历了近一年的PoC、裁员和调整后,使用率不到20%”,并表示“公司冒了过多的风险”,微软的“巨大AI投资不会得到回报”。

虽然Blind是匿名的,但很难忽视这样的事实:大量网络帖子讲述了微软雷德蒙德(华盛顿州的城市名称)的文化问题,尤其是高层领导与实际工作脱节,只会为那些附上AI标签的项目提供资金。许多帖子对Satya Nadella微软CEO的“言辞胡言乱语”表示失望,并抱怨在一个专注于追逐可能不存在的AI热潮的组织中,缺乏奖金和晋升机会。

至少,可以看出公司内部存在深深的文化悲伤,许多帖子在“我不喜欢在这里工作”、“大家一方面困惑为什么我们要在AI上投入这么多,另一方面又觉得只能接受,因为Satya Nadella根本不在意。

The Information的文章中提到,微软在其AI功能Office Copilot的实际采用率上隐藏着一个令人担忧的问题:微软为365 Copilot在其数据中心预留了足够的服务器容量,足以应对数百万日常用户。然而,实际使用这一容量的情况尚不明确。

根据估计,微软目前的Office Copilot功能用户可能在40万到400万之间,这意味着微软可能建立了大量闲置的基础设施,未能得到充分利用。

虽然有人可能认为微软是基于该产品类别未来增长的预期进行布局,但另一个值得思考的可能性是:如果这个增长从未出现呢?如果——尽管听起来有点疯狂——微软、谷歌和亚马逊为捕捉可能永远不会到来的需求而建立了这些庞大的数据中心?早在今年三月,我就提出过一个观点:我找不到任何公司能够通过生成式AI实现显著的收益增长。而在将近六个月后,这一问题依然存在。大公司目前的做法似乎是将AI功能附加到现有产品上,期望通过这种方式增加销量,但这种策略并没有在任何地方显现出成功的迹象。就像微软一样,他们推出的“AI升级”似乎并未为企业带来实际的商业价值。

因此,这引发了一个更大的问题:这些AI投资是否可持续?科技巨头们是否高估了对AI工具的需求?

尽管一些公司在“整合AI”时可能推动了微软Azure、亚马逊AWS和谷歌云的部分开支,但我假设这一需求很大程度上是由投资者情绪驱动的。这些公司“投资AI”更多是为了让市场满意,而不是基于成本/效益分析或实际效用。

然而,这些公司已经花费了大量时间和金钱,将生成式AI功能嵌入其产品中,我认为它们可能会面临以下几种情况:

1. 这些公司开发并推出了AI功能,却发现客户并不愿意为其付费,正如微软在其365 Copilot中遇到的情况。如果现在——在AI热潮中——都无法找到让客户付费的方式,当这股热潮过去、老板们不再要求员工“赶上AI潮流”时,情况只会更糟。

2. 这些公司开发并推出了AI功能,但无法找到让用户为这些功能支付额外费用的方法,这意味着他们只能将AI功能内嵌到现有产品中,却无法增加利润空间。最终,AI功能可能会成为一种“寄生虫”,侵蚀公司的收入。

高盛的Jim Covello在关于生成式AI的报告中也提到,如果AI的好处只是提升效率(例如能够更快分析文档),那么竞争对手也能做到这一点。几乎所有的生成式AI整合都是类似的:某种形式的协作助手,用来回答客户或内部问题(如Salesforce、微软、Box),内容创作(Box、IBM),代码生成(Cognizant、Github Copilot),以及即将推出的“智能代理”,这实际上就是“可定制的聊天机器人,能够连接到网站的其他部分”。

这个问题揭示了生成式AI的一个最大挑战:虽然它在某种程度上“强大”,但这种强大更多地体现在 “基于已有数据生成内容”,而不是真正的“智能”。这也是为什么很多公司的网站上关于AI的介绍页面充满了空话,因为他们最大的卖点其实是“呃……你自己来琢磨吧!”

我担心的是一种连锁效应。我相信现在很多企业正在“试用”AI,而一旦这些试验结束(根据Gartner的预测,到2025年底,将有30%的生成式AI项目在概念验证阶段后被放弃),他们很可能会停止为这些额外功能付费,或者停止将生成式AI整合到公司的产品中。

如果这种情况发生,那些为生成式AI应用提供云计算的超级规模企业和像OpenAI、Anthropic这样的大型语言模型供应商的本已低迷的收入将进一步减少。这可能会给这些公司的价格带来更大的压力,因为它们本已亏损的利润率将会进一步恶化。到那时,OpenAI和Anthropic几乎肯定不得不提高价格,如果它们还没有这么做的话。

尽管大型科技公司可以继续为这场热潮提供资金——毕竟,这场热潮几乎完全是它们一手推动的——但这并不能帮助那些已经习惯于折扣价格的小型初创公司,因为它们将无力继续维持运营。尽管有一些较便宜的替代方案,比如运行Meta的LLaMA模型的独立供应商,但很难相信它们不会面临与超级规模企业相同的盈利问题。

还要注意的是,超级规模企业也非常害怕惹恼华尔街。虽然它们理论上可以(正如我担心的那样)通过裁员和其他成本削减措施来改善利润率,但这些只是短期的解决方案,只有在某种程度上能够从这棵贫瘠的生成式AI树上摇出一些钱时,才有可能奏效。

无论如何,是时候接受一个事实:钱并不在这里。我们需要停下来,审视我们正处于科技行业的第三次幻觉时代。然而,与加密货币和元宇宙不同的是,这次每个人都参与了这场烧钱的狂欢,追求着一个不可持续、不可靠、不盈利且对环境有害的项目。这个项目被包装成“人工智能”,被宣传为将“自动化一切”,但实际上从未具备真正实现这一目标的路径。

为什么这种情况会一再发生?为什么我们经历了加密货币、元宇宙、现在又是生成式AI,这些技术似乎并不是为普通人真正设计的?

这实际上是科技行业自然发展的结果,如今的科技行业完全专注于提高在每个客户中提取的价值,而不是为客户提供更多价值。或者说,他们甚至没有真正理解他们的客户是谁,以及客户需要什么。

今天你被推销的产品几乎肯定会试图将你绑定到某个生态系统——至少作为消费者,被微软、苹果、亚马逊、谷歌所掌控。这样一来,离开这个生态系统的成本变得越来越高。即使是加密货币——表面上是一种“去中心化”的技术——也很快放弃了自由放任的理念,转而通过少数几个大平台(如Coinbase、OpenSea、Blur或Uniswap)来聚集用户,而这些平台背后支持的往往是同样的风投公司(例如Andreessen Horowitz)。加密货币并没有成为一个新的、完全独立的在线经济系统的旗手,反而只能通过那些曾资助互联网其他浪潮的人脉和资金来实现扩展。

至于元宇宙,它虽然是个骗局,但也是马克·扎克伯格试图掌控下一代互联网的尝试,他希望将“视界”(Horizon)打造成主要平台。关于生成式AI,我们稍后再讨论。

所有这一切都与进一步的货币化有关——即增加每个客户的平均价值,无论是通过让他们更多地使用平台以展示更多广告,推销“半有用”的新功能,还是创造一个新的垄断或寡头市场,只有那些拥有庞大资金储备的科技巨头才能参与其中,而真正为客户提供的实际价值或实用性则少之又少。

生成式AI之所以令人兴奋(至少对某类人来说)是因为科技巨头将其视为下一个重要的赚钱工具——通过在从消费技术到企业服务的每个产品上增加收费途径。大多数生成式计算都通过OpenAI或Anthropic,再回流到微软、亚马逊或谷歌,产生云计算收入,维持他们的增长表现。这里最大的创新并不在于生成式AI能做什么,而是创造了一个无望摆脱依赖的生态系统,这个生态系统完全依赖于少数几个超大规模的公司。

生成式AI可能并不非常实用,但它非常容易集成到各种产品中,从而让公司能够为这些“新功能”收费。无论是消费类应用还是为企业软件公司提供服务,这类产品通过向尽可能多的客户加价销售,可以赚取数百万甚至数十亿美元的收入。

Sam Altman非常聪明,他意识到科技行业需要一个“新东西”——一个每个人都可以分一杯羹并进行销售的新技术。虽然他可能并不完全理解技术,但他确实明白经济体系对增长的渴望,并将基于Transformer架构的生成式AI产品化,作为一个可以轻松插入大多数产品中的“神奇工具”,能带来一些与众不同的功能。

然而,急于将生成式AI集成到各处的热潮揭示了这些公司与实际消费者需求或有效运营的业务之间的巨大脱节。过去20年里,仅仅“做新东西”似乎就能奏效——推出新功能并让销售团队强行推销,足以维持增长。这让科技行业的领导者们陷入了一种有害且无利可图的商业模式中。

管理这些公司的高层——几乎都是从未从零打造产品或科技公司的MBA和管理顾问——要么不理解,要么不在乎生成式AI没有盈利的路径,可能他们认为它会像亚马逊云服务(AWS)那样自然变得盈利(AWS用了9年才盈利),尽管这两者是截然不同的东西。过去事情都“自然而然地解决了”,那么为什么现在不会呢?

当然,除了利率上升大幅改变了风险投资市场,减少了VC的资金储备并缩小了基金规模这一点之外,还有一点是,如今对科技的态度从未如此负面。再加上其他众多因素——为什么2024与2014截然不同——这些原因太多了,已经超出了这篇8000字的文章的篇幅去一一讨论。

真正令人担忧的是,除了AI之外,许多这些公司似乎没有其他的新产品。他们还有什么?还有什么可以让他们公司继续增长?他们有什么其他的选择?

没有,他们什么都没有。这才是问题所在,因为一旦AI失败,其影响将不可避免地传导到整个科技行业的其他公司。

每个主要的科技玩家——无论是消费领域还是企业领域——都在销售某种AI产品,集成了大型语言模型或他们自己的模型,通常是在大科技公司的系统上运行云计算。在某种程度上,这些公司都依赖于大科技公司愿意补贴整个行业。

我推测,一种次贷式的AI危机正在酝酿,其中几乎整个科技行业都参与了一个以极其低廉的价格出售的技术,该技术高度集中并由大科技公司补贴。到某个时点,生成式AI的惊人而有害的烧钱速度将追上他们,进而导致价格上涨,或公司发布新的产品和功能,收费极其苛刻——比如Salesforce的“Agentforce”产品每对话2美元的费用——这会使得即便是预算充足的企业客户也无法证明这种开支是合理的。

当整个科技行业依赖于一种只会亏钱且本身没有太多实际价值的软件时会发生什么?当压力过大,这些AI产品变得无法调和,而这些公司没有其他东西可以销售时又会发生什么?

我真的不知道,但科技行业正朝着一个可怕的审判迈进,缺乏创造力的现状是由一个奖励增长而非创新、垄断而非忠诚、管理而非实际创造的经济环境所促成。