独家对话!这篇引发全球存储股市崩盘的谷歌论文,已卷入学术争议。中国学者表示,这是一个“重大错误”,他们“即使知道也不会纠正这个错误”,并且他们使用我们的方法,但刻意避免相似之处。

独家对话!这篇引发全球存储股市崩盘的谷歌论文,已卷入学术争议。中国学者表示,这是一个“重大错误”,他们“即使知道也不会纠正这个错误”,并且他们使用我们的方法,但刻意避免相似之处。
日报记者:岳楚鹏编辑:高瀚3月26日,谷歌研究的一篇文章震惊全球存储芯片市场,美国和韩国各大公司市值蒸发超过900亿美元。谷歌的论文声称,一种名为 TurboQuant 的新算法可以将大型 AI 模型的 KV 缓存占用空间压缩到原始大小的六分之一,而不会牺牲准确性。就在一天后,苏黎世联邦理工学院博士后研究员高建阳在社交媒体上发帖表示,他不得不对谷歌文章提出学术问题。高建阳指出,在新加坡国立大学攻读博士期间新加坡科技大学(NTU)表示,谷歌回避了TurboQuant算法与2024年发布的RaBitQ方法的相似之处,错误识别了RaBitQ理论结果的特征,并故意创造了不公平的实验环境。 RaBitQ 是一种矢量量化算法,即使在高压缩下也能确保矢量数据检索的可靠性。高建阳还表示,谷歌TurboQuant团队“已经意识到这个错误,并且无意纠正”。他在2025年4月谷歌文档正式发布之前就已经在一封电子邮件中指出了上述问题,但即使在发现后,谷歌也没有在最终版本中完全修复它们。 3月29日,《每日经济新闻》记者采访了RaBitQ文章作者高建阳和陈龙。 RaBitQ是高建阳在新加坡南洋理工大学读博士期间的主要研究成果,龙成所在的大学的博士生导师。与此同时,每日经济新闻的记者也向谷歌发送了采访邮件,但在撰写本文时,我尚未收到回复。据报道,谷歌研究院将在 2026 年学习表征国际会议 (ICLR 2026) 上发表一篇关于 TurboQuant 的论文,该会议将于 4 月举行。事件时间表“谷歌的文章存在重大错误,并且在沟通后尚未得到纠正。”高建阳 图片来源:图片来源:受访者 NBD:您是什么时候第一次意识到谷歌TurboQuant文档存在问题的?高建阳:截至2025年1月,图尔文章boQuant的第二作者Majid Dalili主动联系我们,告知我们有关RaBitQ C++的信息。我请求帮助根据代码转换调试我自己的Python版本,并提供了详细的重现步骤和错误消息。这表明TurboQuant团队充分理解了技术细节拉比特Q。 2025 年 4 月 TurboQuant 文章发表后,我们注意到文章中对 RaBitQ 的描述极其不准确。他们将 RaBitQ 描述为基于网格的 PQ(基于网格的乘积量化),完全忽略了其随机旋转的核心步骤,同时保证 RaBitQ 的理论是定性的,无需任何推导或证据。由于“次优”,该实验比较还包括明显不公平的设计。我们的第一反应是困惑和遗憾。尽管 TurboQuant 和 RaBitQ 之间的相似性在技术上是显而易见的,但交易对手方对 RaBitQ 的理解远远超出了普通读者的理解。在这种情况下,很难用疏忽来解释这种系统性错误。邮件截图 NBD:在公开发言之前,双方团队进行了怎样的沟通?高建阳:一年多来,我们进行了多次沟通。 2025年5月,我通过电子邮件进行了详细的技术讨论与 Majid Dalili 讨论实验条件的差异以及理论结果的优化。我们对TurboQuant团队的错误解读一一进行了澄清。 Majid Dalili 透露,所有合著者均已获悉讨论结果。然而,在我们要求他纠正文章中的事实错误后,他不再回应。 2025年11月,TurboQuant提交给ICLR 2026(International Conference on Learning Representations 2026),发现内容不正确仍然有效。我们立即联系了ICLR 2026 PC Chair(会议主席),但没有得到回复。这篇文章于 2026 年 3 月通过 Google 官方渠道广泛推广后,我们再次正式向所有作者发送电子邮件。我收到的回复是:主要作者 Amir Zandier 承诺审查理论描述和实验条件,但明确拒绝审查方法论相似性的讨论,坚持认为只有在 ICLR 2026 正式会议之后才能完成。这个回应让我们感到失望,但并不让我们感到惊讶。对方明明知道问题所在,却选择做出最小程度的让步。 “核心机制非常一致,但没有解释。一位审稿人指出了问题。” NBD:TurboQuant 和 RaBitQ 之间最重要的相似之处是什么?高建阳:两者的主要相似之处在于,它们在量化之前都对向量进行了随机旋转(Johnson-Lindenstrauss变换)。关键设计在于它利用旋转坐标分布的统计特性来构造距离估计器。值得注意的是,TurboQuant 论文的作者在 ICLR OpenReview(学术界常用的公共文章评论平台)的评论回复中描述了他们的方法:“我们实现它的方式是首先使用 L2 范数对向量进行归一化,然后应用随机旋转,以便这些向量的每个分量都遵循这与 RaBitQ 的核心机制非常一致,但这种关系在文章正文中并没有直接表述。我们可以用一个类比来理解这一点。有一个假设,假设 Fehu 首先发布了一道菜肴的完整菜谱,然后另一位厨师使用大致相同的基本步骤发布了一道菜肴,但在前言中将第一道描述为“另一道效果较差的菜肴,以不同的方式制作”,并且从未提及两者之间的关系。读者不知道,当然无法做出公正的判断。 来源:受访者提供 照片 NBD:按照学术标准,应该如何看待这种关系? 程龙:学术标准要求,如果新的研究与现有的研究在方法论上有实质性的联系,就必须积极讨论这种联系,包括明确地引用和解释这种联系。新研究的哪些方面取得了进展,哪些方面遵循了现有框架。这在这种情况下尤其重要。这是因为 ICLR 审稿人也在审稿意见中独立指出,“RaBitQ 及其 va 的审稿人也意识到了这种联系,但文章的作者不仅没有在最终版本中加入任何额外的讨论,还将原文中不完整的 RaBitQ 描述移至附录中。这种做法违反了学术标准的基本要求。网友评论:“小型科研团队很难与 Google 竞争。” NBD:为什么?你决定现在发表什么?程龙:我们没有跳过学术渠道,而是选择在学术渠道基本完善的情况下才发表。向 ICLR 主席(总主席)和准则与道德主席(准则与道德委员会主席)提出申诉。我们还在 ICLR OpenReview 平台上发布公众意见。但我们也必须认清现实。我们是一个小型大学研究团队,我们的合作伙伴是谷歌研究中心。两国在资源、影响力和话语权方面本质上是不平等的。确实如此。 TurboQuant的文章在短时间内在社交网络上获得了数千万的浏览量,这是任何大学实验室都不具备的传播能力。在这种不平等的情况下,如果我们保持沉默,等待内部进程发生,只会加速虚假话语、凝聚共识。当官方渠道反应缓慢时,公开演讲是一个弱势政党可以采取的捍卫基本学术事实的少数步骤之一。高建阳NBD发文截图:如果相关问题不解决,可能的后果是什么?程龙:首先,它系统性地歪曲了学术历史记录,使后来的研究者误判了方法论演变的来源,并在错误的基础上建立了新的研究。其次,原创性研究的激励可能会受到削弱。如果一种严格从理论推导出来、具有渐近最优误差界的方法可以被重新包装、发表数千万次并向公众提供,但原作者却没有得到应有的认可,这将对学术生态造成广泛而长期的损害。第三,矢量量化是一个快速发展阶段、业界高度关注的领域,方法归属不准确直接影响专业人士和研究人员对技术路线的判断,导致资源错配。 NBD:您认为这是学术分歧吗?陈龙:这超出了学术范畴。学术分歧当双方对技术内容的理解存在真正差异时,通常会发生冲突。然而,在这种情况下,TurboQuant 团队对 RaBitQ 技术细节的理解是完整记录的。我们在 2025 年 5 月的一封电子邮件中逐点阐明了我们理论保证的优化,Majid Dalili 明确表示已通知所有作者。作者本人在一封电子邮件中承认实验条件是不平等的。上述情况,在投稿、审稿、录用、发表和大规模推广的整个过程中,相关错误均未得到更正。虽然我们并不打算轻易定性这一系列行动,但学术界和相关机构必须是相互独立的。我们认为,作出这一决定有充分的事实依据。高建阳社交媒体账号截图“我们计划发布技术报告,继续看NBD:像Google Research这样的大型研究机构的责任是什么? 龙成:大型机构的支持会放大它的效果。当你通过Google官方渠道推广你的文章时,你收到的速度和覆盖率会与正常的学术文章不同。在这种规模下,一旦文章中的错误广泛存在,纠正它的成本就会成倍增加。我认为大型研究机构有责任确保其他人的职位描述在文章发布之前经过基本的验证事实。同时,大型研究机构应该有正式的内部机制来解决来自外部研究人员的有据可查的反对意见,而不是保持沉默。这既是对学术界的责任,也是对自己的保护。可信度。 NBD:接下来您还计划采取哪些其他措施?程龙:接下来我们计划在arXiv上发布详细的技术报告。本报告系统梳理了RaBitQ和TurboQuant之间的方法论关系,并一一详细阐述了三个问题的技术层面,供学术界参考。我们还在考虑通过其他渠道向相关组织(例如 Google 研究升级委员会)报告。我们的目标始终是创建一个快捷的公共学术机构,准确反映方法之间的真实关系,而不是制造冲突。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
请注意:以上内容(包括图像和视频,如果适用)是社交媒体和信息存储平台。已上传并发布仅由网易号用户提供服务。

文章已创建 289

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

相关文章

开始在上面输入您的搜索词,然后按回车进行搜索。按ESC取消。

返回顶部