教授“ 吵架” 全程高能! 人大高瓴大模型思辨会Round 2, 现场火花闪电
信息来源: 人大高瓴人工智能学院 发布日期:2025年10月17日
点燃思辨之火,凝聚AI智慧!
感受技术与哲思的双重盛宴
前言:第二届大模型前沿技术论坛分为上午场与下午场,上午场包含三个引导发言和两场思辨研讨,下午场为大模型前沿进展报告会。继首届AI思辨会后人大高瓴教授集体“掐架”,这场Sora思辨会太炸裂!,本届思辨会再次上演“神仙打架”名场面,校内外专家观点交锋、酣畅激辩,既揭示大模型的理性架构与灵感火花,也引领我们窥见AI思想的“星辰大海”,寻找答案,更点亮问题!
2025年10月15日,中国人民大学高瓴人工智能学院主办的第二届大模型前沿技术论坛在立德楼1826报告厅顺利举办。明理书院院长杜小勇出席讲座,高瓴人工智能学院执行院长文继荣等校内外十余位教师参加思辨研讨,150余名师生现场参会,会议由刘勇副教授主持。
文继荣在开场致辞中回顾了学院举办第二届大模型前沿技术论坛的背景,他指出,当前人工智能与大模型技术发展迅速,对终极目标的不同思考和技术路径的多元见解,正是学术研究的活力所在。期望本次论坛能够汇聚行业智慧,凝聚发展共识,并促进大模型前沿技术的知识普及与交流。
Part 1:引导发言
在第一个引导发言环节中,魏哲巍教授作了题为“大模型可能是通向AGI的路径”的报告。他从四个维度展开探讨:首先通过回顾人工智能“三起两落”的发展历程,其次深入剖析了大模型“幻觉”问题的本质与不可避免性,接着基于最新研究成果,展示了探索模型内部工作机制的可能性,对“黑箱”传统认知提出新见解,最后探讨了大模型与符号主义、行为主义等学派的融合潜力。魏哲巍总结指出,虽然AGI发展路径尚不明确,但学界应保持积极探索的态度,在持续思辨与技术创新中推动人工智能发展,正所谓“悲观者永远正确,但乐观者永远前行”。
在第二个引导发言环节中,许洪腾副教授作了题为“大模型头上的几朵‘乌云’”的报告。他指出,尽管大模型技术发展迅猛,但其迈向AGI之路仍面临多重挑战。许洪腾系统梳理了当前学界对大模型的主要质疑:在技术层面,自主演化能力尚未突破,合成数据与强化学习效果存疑;在应用层面,跨模态生成的可控性不足与“幻觉”现象难以避免;在基础架构方面,Transformer架构尚未出现革命性替代,现有优化器也面临性能瓶颈。他还指出,当前AI研究存在概念泛化而数学基础弱化的倾向,为此他呼吁,学界的未来工作应转向对大模型深层次瓶颈的攻坚。提到大模型是否有真正的创新能力,许洪腾用了一个有趣的比喻:“大模型目前还只有内插的能力,但是因为知识就像《猫和老鼠》中的奶酪一样,充满了小洞,内插的生成结果看起来好像是外插(真正的创新)。”
在第三个引导发言环节中,宋睿华副教授作了题为“AI的跃升——用进化的方式看AI”的报告。她指出,正如视觉系统的出现推动了寒武纪生命大爆发,当前AI技术的每次突破都如同进化中的“关键突变”,推动着系统能力的跃升。她进一步强调,AI系统可被视为具有生命周期和进化动力的“新型生命形态”,其发展轨迹可能超越人类的既有想象,呼吁学界以更宏观的进化视角重新审视AI的发展路径,思考“AI是否必须模仿人类”这一根本问题,并指出未来通用人工智能的形态或将远超当前预期。
Part 2:思辨环节
议题一:基于数据驱动的大模型技术路线,能否实现AGI?
正方 李崇轩
我方认为,基于数据的大模型技术路线能实现 AGI,关键得用发展的眼光看它。大模型已经显露出跨任务的通用性苗头了,它的核心问题不是要推翻数据驱动,而是得靠注入新范式来把它做得更深。模型是会犯错,但这只是概率问题,可以一直优化。再者,大模型具备强大的模式匹配和演化能力,已经说明正在走向通往 AGI 的道路上了。
反方 孙浩
感谢对方辩友对这个辩题的乐观的误解。不过我得说,基于数据大模型技术路线要实现 AGI,有两大缺陷:一是概率学习范式缺失常识和因果观念,也不懂真实世界,这是先天不足,根本克服不了;二是数据都快枯竭了,而且就算数据量再涨,也变不出意识、创造力这些 AGI 的核心能力,量变到不了质变。
正方 毛佳昕
我认为考虑这个问题需要从定义出发。AGI的核心是得有通用的问题解决能力,不是说要万能才行。从 AlphaGo、AlphaZero 到现在的 DeepseekR1大模型,发展过程很清楚——靠不断升级的数据驱动范式,人工智能在很多领域里,要达到甚至超过人类的通用能力,已经不远了。
反方 曹朝
AGI 的定义是随着技术进步而变化的,人类也不断发展出不同的能力,因此AGI的目标是一个移动靶,就像求极限一样只能无限靠近,也代表着人们对技术未来的无限期待。大模型技术突破的速度有变慢的趋势,GPT-1/2/3和o1有明确的能力突破点,后续很多更新是渐进式增强,数据驱动能否达到AGI关键还得看有哪些新的突破。
正方 朱余韬
首先,人类正在通过不断调整AGI的定义来延缓AGI的到来。其次,现在几乎所有AI系统都是基于数据驱动的,这本身就说明这条路径是可行的。人类智能不就是靠吸收、处理海量数据才出现的吗?大模型走的也是一样的路。再说“数据枯竭”,这就是个伪命题,是因为还有很多数据没有采集到,或者没找到合适的存储方式。最后,现在的模型已经能够进行一些创作性的任务,这怎么不是一种创造力?
反方 黄文炳
基于数据驱动的方法,大模型跟人是有很大区别的。比如自动驾驶、医疗这些关键领域,数据模型靠不住,必须得用规则来补齐。而更深层的问题是数据源有根本瓶颈,再加上统计方法本身有缺陷,确定不了开放的创新目标,没法实现真正的科学突破。
正方 刘超
我得说,人类智能本身就有缺陷,它的核心是为了生存繁衍,不是为了找最优解。所以AGI不能跟人类进化比,AI的“幻觉”其实是人类宝贵的想象力,“黑箱”也不是大问题——人类的大脑本身就是个黑箱。我们讨论 AGI 的时候,真得跳出把人类当完美范本的误区。
反方 许洪腾
我认为刘老师的观点正好印证了我方的观点。要搞出AGI,应该靠经验驱动,不是数据驱动。大模型架构本身就有毛病,它没有像人脑那样的可塑性,这就限制了记忆、泛化等能力,现在的技术路线也没看到突破的迹象。另外,AI 技术本身已经有神经网络“死亡”和“繁衍”的进化现象了。
之前反方的很多观点把大模型的技术当成静态的是不对的,我觉得 AGI 的发展不是线性的,是机械式的,现在的平台期不是终点,未来肯定会有突破。我们该看重 AGI 的实际表现而非运作机理——就像靠高考评判一个人一样。反过来,大模型有两个比人类强的地方:一是能无缝学海量跨领域知识,二是没有死亡限制,能一直迭代进化。
反方 徐君
AGI 连明确的定义都没有,我们没法通过外部行为判断系统到底有没有意识和智能。现在数据驱动的路径有根本缺陷,好多伟大的科学发现,都来自人类反直觉的智能和想象。未来我们或许只能搞出一个比现在AI强一点的系统,为了实用就叫它“AGI”,真正的 AGI可能永远都做不出来。
反方总结 许洪腾
我来总结一下我们反方的观点。我认为 AGI是个动态目标,现在依赖的数据驱动和大模型路线存在疑问,它只能被动接收数据,满足不了AGI需要的主动探索能力,也很难转变成经验驱动的模式。同时大模型架构有局限,没有像人脑那样的可塑性,撑不起AGI需要的学习和泛化能力。最后,前沿科学领域经常数据缺失,现有的数据路线用不了,也没法实现主动探索。
正方总结 王希廷
我来总结一下正方的观点。反方也就敢说实现AGI“存疑”,压根不敢说 “不可能”,这正好证明了我们正方说的 “技术有潜力” 是对的。其次,反方说的“经验驱动”,本质上还是数据驱动,【在背后的技术路线还是梯度回传,并不属于全新的路线】。最后,反方只是列出现有技术的不足,没证明这些挑战靠未来的数据驱动解决不了。历史上那些曾被认为大模型解决不了的问题,最后不还是靠数据驱动搞定了?所以反方的逻辑少了关键一环,没法证明这条路走不通。
嘉宾 杜小勇教授:作为一名教师,我比较关心当前人工智能呈现的智能形态,会对人类智力发展产生怎样的影响。我们已形成了从幼儿园到博士生阶段、适配人类智力成长规律的成熟教育体系。但如果在教育中使用 AI,可能存在隐患。所以我觉得,下次可以把心理学专家和教育学专家也请来辩论,好好分析这个问题。
议题二:数据表示与知识表示在底层逻辑上存在显著差异,在可预计的未来5年内您认为二者能否有效融合?
反方 毛佳昕
什么叫“有效融合”?就拿现在的大模型来说,它能回答很多问题,看起来好像懂了,但这能算有效融合吗?显然不是,因为它有“幻觉”,准确率不够。这恰恰证明了当前方法缺陷很大。所以我认为,正是由于知识和数据底层存在难以调和的冲突,未来五年我看不到完美的解决方案。
正方 孙浩
我不同意你的悲观看法。在科学计算领域,比如Alphafold、气象预报,已经成功地把物理定律这些先验知识嵌入到神经网络的设计里,让它和实验数据一起工作,解决了重大问题。这不就是有效的融合吗?虽然在所有领域全面融合有挑战,但现有成果已经指明了道路。在AI生成领域,通过巧妙的设计也能保证物理一致性。所以我认为,五年内完全可以实现有效融合。
孙浩老师,我可能比较悲观。您说的融合,我承认存在,但那是人类研究者手动、费力地把知识“强加”到模型里的。这离我心目中“有效融合”的标准差得远——我认为的理想状态,应该是AI能自主地完成这个融合过程。如果只是靠人硬凑,那不算真正的底层融合。
您这有点偷换概念了。我们的辩题是问“二者能否有效融合”,并没有限定必须是AI自主完成。我们通过设计模型架构和算法,最终实现了知识和数据的融合,得到了能解决问题的强大模型,这本身就是辩题所说的“有效融合”。不能因为现在需要人为设计,就否定融合本身的可能性。
反方 宋睿华
我想强调一个根本点:知识表示是为我们人类存在和服务的,是为了让我们能理解和传承。但机器不一定需要这个。就像机器翻译,以前我们总想加入语法知识,后来发现纯粹数据驱动的大模型反而做得更好。所以我觉得,可能没必要非要把知识表示融合进去,数据表示很可能就会“吃掉”知识表示。
正方 汪云海
宋老师,从人机交互和可视化的角度看,这个问题已经解决了呀,例如学校的决策系统,不就是把学校的规章制度知识和学生的具体数据融合在一起吗?如果你不把主语限定在大模型,融合已经无处不在。即使是在大模型场景下,像物理神经网络这样的领域,也成功地把物理知识融合进去了。
汪老师,我觉得关键问题在于“什么是知识”。您说规章制度是知识,但我认为对计算机来说,那只是一串字符,是数据。知识应该是那种能被系统理解、应用并用于推理的稳定规则。问题不在于表示层能不能融合,而在于融合后的系统能不能真正“懂”并用好这些知识。我认为这很难,五年内看不到突破。
正方 曹朝
表示的融合得看发生在哪个层面:输入层天然有差异,实属正常;在神经网络内部,一切都被表示成向量,其实已经在底层融合了,这和人类感官信息在脑中的融合很像,一个最好的例子就是编程,编程本质上也是基于规则或编程知识进行的,目前基于大模型已有成功应用,它就是把高级规则-知识-数据完美融合的“规则引擎”;大模型能力这么强,在上下文这层做融合是完全可行的。
如果知识只是埋在数据里,那不算融合。我认为真正的有效融合,需要系统能主动运用知识。按照这个高标准,目前的技术范式惯性很大,五年内恐怕难以出现能实现这种自主融合的突破性方法。
辩题中的“知识表示”应该是指已有的、成体系的知识,例如物理定律,而不是让模型从数据里自己学。我们的任务是如何让这些现有知识和数据融合。几位老师对“知识”本身的理解就有分歧,这反而说明你们的反对观点站不住脚。融合是可行且正在发生的。
人类抽象出物理定律,是因为我们大脑算力有限,需要简化模型。但机器没有这个限制,它可以直接从海量数据里学习整个世界复杂的相互作用,比如Sora生成的视频,比我们基于物理定律规则构建的游戏引擎更逼真、更连续。所以我们到底是不舍得上千年积累的人类知识,还是真的需要它?可能让机器用数据驱动的方式自己学,才是更好的路径。
反方总结 毛佳昕
我最后总结一下反方立场。回到辩题本质,这就像是AI发展中的“两条路线”:一条是利用人类知识——短期见效快但天花板低,一条是纯数据驱动——起步慢但潜力大。bitter lesson的启示就是,长远看后者会赢。现在辩题问我们能不能把两条路线的优点结合起来,得到一个“鱼与熊掌兼得”的完美曲线?我认为这极其困难,五年内不可能。目前看来还没有一个有效的方法,因此在五年内实现知识和数据驱动方法的有效融合会很困难。
正方总结 黄文炳
我来总结正方。反方观点其实分两种:一种说“不需要”融合,一种说“很难”融合。我认为这两种观点都不对。知识是客观存在的,不因人类而转移。现在的生成模型例如Sora远未达到真正的“世界模型”,它们生成的内容还有瑕疵,这正是因为缺乏物理规则等知识的深层约束。所以,融合是必要的。通过将知识作为引导或约束,我们完全可以在五年内实现更强大的、能真正理解物理世界的模型。融合不仅是可能的,也是必须的。
嘉宾 刘超教授:从认知科学角度补充如下,通过先天盲人对红色概念的抽象理解案例,说明人脑能有效分离物理信息感知(如光谱)与抽象知识表征(如“红色”的语义),两者在大脑中由不同区域处理。这一发现启示AI研究,未来五年虽难完全复现人脑机制,但需探索如何实现类似的多层次、分离式表征融合,以突破当前模型瓶颈。
文继荣院长在总结中指出,关于AGI的定义应被视为一个动态演进的过程,而非僵化界定,并强调人类不断提升的期望会持续推动其标准的变化。他认为,当前以数据驱动为主的技术路径能否实现AGI仍需深入思辨,高瓴人工智能学院将在追寻AGI的道路上继续勠力前行。
Part 3:大模型前沿进展报告会
马彦彪讲师分享了题为“多模态大模型图文交互理解研究进展与发展”的报告。他首先从“感知和认知”两个角度分析了多模态大模型在进行图文交互理解时面临的挑战和难题,然后系统的介绍了当前从感知和认知两个角度解决问题的方法。接着,他展示了多模态大模型在科学问题求解、医学影像解读等领域的应用和进展。最后,他介绍了未来的六个发展方向,例如图像理解与生成统一范式,隐空间推理等方向,展望了未来的研究趋势。
李崇轩副教授分享了题为“LLaDA:大语言模型新范式”的报告。他首先回顾了生成式大模型的发展,并提出大语言模型的良好性质主要来自于生成式建模而非扩散模型的洞察。随后,介绍了构建扩散大语言模型 LLaDA 的技术路线、训练策略,以及 LLaDA 的影响力。最后介绍了扩散大语言模型对齐、多模态、混合专家架构等领域的前沿进展。
胡迪副教授介绍了其团队在多模态交互大模型方面的近期探索成果。他首先介绍了不同主体间的多种信息交互形式,并在信息论框架下概要讲解了如何对模态数据间的不同交互形式进行刻画与准确度量。进一步地,他对其中广泛关注的“冗余性”交互下的模态竞争,及其在泛化性和鲁棒性方面的恶化影响进行了介绍,并讲述了相应的解决方案。最后,他介绍了团队近期在面向高质量交互提出的全新多模态大模型微调范式MokA,并讨论和展望了未来多模态交互大模型的若干问题与期待。
许洪腾副教授分享了题为“抗遗忘、抗冲突的大模型高效适配技术”的报告。他首先回顾了课题组在弥合低秩适配(LoRA)和正交微调(OFT)两种技术路线上的探索,介绍了基于Householder变换的适配方法HRA,进而引发了对保持模型列空间的重要性的思考。在HRA的基础之上,他进一步介绍了以矩阵SVD分解为核心的大模型“MoE化”方法MoORE。该方法通过保持模型列空间不变和保持专家网络正交性,增强大模型在多任务适配场景下的抗冲突、抗遗忘特性。最后,他介绍了对多任务场景下模型微调和可塑性方面的思考。
刘勇副教授分享了题为“大模型机制分析”的报告。首先介绍了大模型机制分析中存在的问题,然后从信息令牌的角度阐明了大模型推理中存在的信息峰值的现象。最后从能量优化的角度分析了Transformer前向学习过程。
结语:论坛结束后,与会专家们意犹未尽,关于大模型前沿技术的研讨仍在继续。期待下一次AI思辨会的精彩呈现。
Copyright ©2016 中国人民大学科学技术发展部 版权所有
地址:北京市海淀区中关村大街59号中国人民大学明德主楼1121B 邮编:100872
电话:010-62513381 传真:010-62514955 电子邮箱: ligongchu@ruc.edu.cn
京公网安备110402430004号