论坛上,中国人民大学高瓴人工智能学院陈旭准聘副教授分享了题为“When Large Language Model based Agents meet User Behavior Simulation”的报告。报告首先分析了人工智能领域两种不同的学习范式:从真实世界数据中学习和环境模拟。目前的科学研究大都基于少量的公开数据集,但很多和人相关的问题(可解释推荐算法、算法公平性研究等)难以得到解决,以此引出了基于模拟的研究在用户行为分析领域的重要性。随后,陈旭介绍了大模型在用户行为模拟中的优势和潜在挑战,以及他们在Agent和System层面的设计和实验结果,并对未来的相关方向和挑战进行了总结和展望。
北京智源人工智能研究院王业全分享的主题为:“FLM-101B: An Open LLM and How to Train It with $100K Budget如何使用70万预算从头训练千亿语言大模型”。王老师首先从项目的概况入手,介绍了FLM-101B项目的主要目标和成果。他强调了项目在成本效益、评测效果、社区反响以及模型架构与规划等方面的重大突破。FLM-101B是首个利用生长技术训练出的千亿级模型。接着,王老师详细介绍了FLM-101B的技术细节,包括其独特的模型架构、数据获取和处理流程,以及创新的训练方法。他特别提到了Mu-Scaling技术和生长技术在模型训练中的应用,从而显著提高了训练效率,降低了训练成本。此外,王老师还分享了FLM-101B在实际应用中的表现,包括在多语言处理、自然语言理解等方面的应用前景。他指出,FLM-101B不仅在技术上取得了突破,也在实际应用中展现了巨大潜力。
北京大学助理教授王奕森带来了一场题为“Theoretical Understanding of Self-Supervised Learning”的精彩报告。王老师的报告重点关注自监督学习领域,尤其是在理论上的深层次理解。他首先介绍了自监督学习的基本概念和其在机器学习领域中的重要性。接着详细阐述了自监督学习中的主要挑战和问题,比如模型的泛化能力,以及如何通过无监督的方式有效地训练模型。接下来,王老师深入讲解了自监督学习的几种主要方法,包括对比学习和掩码自编码器(MAE)等,并且通过具体的实验数据和案例,展示了这些方法的效果和潜力。他强调,理解这些方法的理论基础对于推动自监督学习的发展至关重要。最后,王老师对自监督学习的未来趋势进行了展望,指出了该领域面临的新的机遇和挑战,以及如何结合其他学习范式,比如多模态学习,以进一步提升模型的性能和应用范围。