首页 > 正文

一篇论文“砸翻”一堆牛股 全球存储芯片市场恐慌

2026年03月27日 00:06
来源: 上海证券报
编辑:东方财富网

手机上阅读文章

  • 提示:
  • 微信扫一扫
  • 分享到您的
  • 朋友圈
摘要
【一篇论文“砸翻”一堆存储芯片牛股】3月26日,全球存储芯片市场因一篇学术论文而引发恐慌,存储芯片公司股价全线承压。这场波动的导火索来自一篇由谷歌研究院即将在国际学习表征会议(ICLR 2026)上正式亮相的学术论文。谷歌推出的新型AI内存压缩技术“TurboQuant”,宣称可将大语言模型(LLM)推理中的缓存内存占用压缩至六分之一,并在英伟达H100 GPU上实现最高8倍的性能加速。目前,资本市场将其解读为对存储硬件需求的致命一击,但在恐慌性抛售背后,长期真实影响又会如何?


K图 BK1137_0

  3月26日,全球存储芯片市场因一篇学术论文而引发恐慌。

  存储芯片公司股价全线承压。3月26日A股收盘,恒烁股份跌超6%,兆易创新佰维存储朗科科技跌超5%,江波龙北京君正等个股也纷纷跟跌。3月26日美股开盘,存储芯片板块普跌,截至北京时间22点30分,闪迪跌超6%,美光科技西部数据跌超4%,希捷科技跌超3%。

  这场波动的导火索来自一篇由谷歌研究院即将在国际学习表征会议(ICLR 2026)上正式亮相的学术论文。谷歌推出的新型AI内存压缩技术“TurboQuant”,宣称可将大语言模型(LLM)推理中的缓存内存占用压缩至六分之一,并在英伟达H100 GPU上实现最高8倍的性能加速。

  目前,资本市场将其解读为对存储硬件需求的致命一击,但在恐慌性抛售背后,长期真实影响又会如何?

  “Pied Piper”走进现实

  TurboQuant究竟解决了什么问题?

  当前大模型运行时的核心瓶颈之一在于“键值缓存”(KV Cache)。简单来说,当用户与AI对话时,模型需要记住之前聊过的内容(上下文),这部分临时存储的数据就是KV Cache。随着大模型上下文窗口从几千Token膨胀至百万甚至千万级别,KV Cache对内存的消耗呈指数级增长,成为制约推理成本的关键。

  记者查阅该论文,TurboQuant本质上是一种极致的量化压缩算法。传统量化方法需要在压缩精度和额外存储开销之间妥协,而谷歌团队通过两项创新PolarQuant(极坐标量化)和 QJL(量化JL变换)实现了在“零损失”的前提下将KV Cache压缩至3-bit精度。

  有业内人士将这一突破比作HBO经典美剧《硅谷》中那家凭借“无损压缩算法”颠覆行业的虚构创业公司Pied Piper。Cloudflare首席执行官更是将其称为谷歌的“DeepSeek时刻”,认为其有望像DeepSeek一样,通过极致效率大幅拉低AI的运行成本。

  “条件反射”式抛售

  对于长期沉浸在“算力即权力”“存力即国力”叙事中的资本市场而言,这项技术的问世无疑触动了敏感的神经。

  如果单张显卡的内存吞吐效率被成倍放大,各大云服务商和企业客户未来对DRAM和HBM(高带宽内存)的物理采购量是否会断崖式下滑?这种逻辑推导直接导致了资金的避险行为。

  这并非是存储芯片股的首次技术面恐慌。2025年初,DeepSeek发布低训练成本模型时,也曾引发市场对算力硬件需求的质疑。TurboQuant被视为同一逻辑的延续。“以软代硬”正在从故事变为现实。

  但在科技圈的狂热与二级市场的抛售之间,华尔街投行表现出一定的冷静。

  摩根士丹利在最新研报中明确表示,市场对此存在误读。该技术仅作用于推理阶段的键值缓存,并不影响模型权重所占用的高带宽内存(HBM),也与AI训练任务无关。

  分析师强调,所谓的“6倍压缩”也不是存储总需求的减少,而是通过效率提升增加单GPU的吞吐量。这意味着,相同硬件条件下,可以支持4倍至8倍更长的上下文,或在不触发内存溢出的前提下显著提升批处理规模。

  Lynx Equity Strategies的分析师更进一步表示,媒体报道存在夸大成分。当前的推理模型早已广泛采用4-bit量化数据,谷歌所谓的“8倍性能提升”是建立在与老旧的32位模型对比的基础之上。

  此外,TurboQuant当下的验证范围相对有限。快思慢想研究院院长、特邀评论员田丰向记者表示,该技术目前仅在Gemma、Mistral等开源模型上验证,Gemini等谷歌核心模型的适配效果尚未公开,技术普适性仍需观察。

  值得注意的是,压缩KV cache、进行长上下文优化也并不是全新的技术思路。早在2025年4月,谷歌就曾公开发表过TurboQuant的相关论文。

  在类似技术思路上,国内也有相关布局。如月之暗面KimiLinear,在处理长上下文任务时,相较于传统全注意力模型,KV cache使用可降最多75%;DeepSeek V2提出的MLA方法也可优化KV cache。

  杰文斯悖论:效率越高,需求越大?

  除了技术细节可能被误读外,还应从经济学视角重估TurboQuant的长期影响。

  从供应链视角看,短期内各原厂产能满载。当下,服务器内存需求持续增长,2026年服务器DRAM需求预计增长39%,HBM需求年增58%,TurboQuant的优化效果或将被行业增长浪潮淹没。

  “这会是杰文斯悖论的又一个例证。”无限星辰董事长方海声告诉上证报记者,技术效率的提升往往会降低使用成本,从而激发出更庞大的总需求。蒸汽机效率的提高没有减少煤炭消耗,反而推动了煤炭需求的爆发式增长,这一规律在AI时代同样适用。

  尽管TurboQuant直击AI系统的内存成本曲线,但历史经验表明,压缩算法的存在从未从根本上改变硬件采购的整体规模。通过大幅降低单次查询的服务成本,这类技术能让原本只能在昂贵云端集群上运行的模型迁移至本地,有效降低AI规模化部署的门槛,从而激活更多因成本受限而无法落地的应用场景。

  “推理成本重心将从GPU转向存储优化,推动TCO(总拥有成本)显著下降。这也会使中小厂商可进一步参与AI应用创新,打破大厂技术壁垒,推动AI民主化加速。”田丰表示。

  一篇尚未正式发表的论文,引发全球存储芯片板块的剧烈震荡,这本身就足以说明当前AI基础设施投资逻辑的脆弱与敏感。

  截至发稿时,谷歌尚未公布TurboQuant在Gemini等自研模型中的具体部署时间表。关于该技术的讨论,将在4月的ICLR 2026会议上继续发酵。本报记者将持续关注此事进展。

  东财图解·加点干货

(文章来源:上海证券报)

(原标题:一篇论文,“砸翻”一堆牛股)

(责任编辑:126)

 
 
 
 

网友点击排行

 
  • 基金
  • 财经
  • 股票
  • 基金吧
 
郑重声明:天天基金网发布此信息目的在于传播更多信息,与本网站立场无关。天天基金网不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资决策建议,据此操作,风险自担。数据来源:东方财富Choice数据。

将天天基金网设为上网首页吗?      将天天基金网添加到收藏夹吗?

关于我们|资质证明|研究中心|联系我们|安全指引|免责条款|隐私条款|风险提示函|意见建议|在线客服|诚聘英才

天天基金客服热线:95021 |客服邮箱:vip@1234567.com.cn|人工服务时间:工作日 7:30-21:30 双休日 9:00-21:30
郑重声明:天天基金系证监会批准的基金销售机构[000000303]。天天基金网所载文章、数据仅供参考,使用前请核实,风险自负。
中国证监会上海监管局网址:www.csrc.gov.cn/pub/shanghai
CopyRight  上海天天基金销售有限公司  2011-现在  沪ICP证:沪B2-20130026  网站备案号:沪ICP备11042629号-1

A
安联基金安信基金
B
博道基金渤海汇金北京京管泰富基金百嘉基金贝莱德基金管理博时基金宝盈基金博远基金
C
长安基金长城基金长城证券财达证券淳厚基金创金合信基金长江证券(上海)资管长盛基金财通基金财通资管诚通证券长信基金财信基金财信证券
D
德邦基金德邦证券资管大成基金东财基金达诚基金东方阿尔法基金东方红资产管理东方基金东莞证券东海基金东海证券东吴基金东吴证券东兴基金东兴证券第一创业东证融汇证券资产管理
F
富安达基金蜂巢基金富达基金(中国)富国基金富荣基金方正富邦基金方正证券
G
光大保德信基金国都证券广发基金广发资产管理国海富兰克林基金国海证券国金基金国联安基金国联基金格林基金国联民生国联证券资产管理国融基金国寿安保基金国泰海通资管国泰基金国投瑞银基金国投证券国投证券资产管理国新国证基金国信资管国信证券国新证券股份工银瑞信基金国元证券
H
华安基金汇安基金华安证券华安证券资产管理汇百川基金华宝基金华宸未来基金华创证券泓德基金华富基金汇丰晋信基金海富通基金宏利基金汇泉基金华润元大基金华商基金惠升基金恒生前海基金华泰柏瑞基金华泰保兴基金红土创新基金汇添富基金红塔红土华泰证券(上海)资产管理华夏基金华西基金华鑫证券合煦智远基金华银基金恒越基金弘毅远方基金
J
嘉合基金金融街证券景顺长城基金嘉实基金九泰基金建信基金江信基金金信基金金鹰基金金元顺安基金交银施罗德基金