中国新闻网-上海新闻
上海分社正文
FAIC 2026人工智能基础大会在沪举办:AI研究进入“深水区”,能力提升与基础追问并进
2026年04月21日 18:30   来源:中新网上海  

  中新网上海新闻4月21日电(记者 许婧)当大模型的性能竞赛持续加速,人工智能研究的下一步该怎么走?18日至19日,FAIC 2026(人工智能基础大会)在上海财经大学举行。会议传递出一个清晰信号:在持续提升模型能力的同时,人工智能研究正在进一步走向基础问题,围绕机理、效率、稳健性与长期创新展开更深入的探索。

  来自北京大学、清华大学、上海财经大学、中国人民大学、上海交通大学、复旦大学、南京大学、浙江大学、香港大学、香港科技大学(广州)等高校、科研机构及企业的400余位不同学科的学者与从业人员围绕“大模型为何有效”“能力如何形成”“训练怎样更高效、更稳健”“如何以扎实研究支撑下一阶段创新”等关键问题展开集中讨论。

 

 

  在开场的主旨报告中,北京大学林宙辰教授做了题为《Towards Affine and Projective Equivariant Networks – A Differential Invariant Approach》的报告,聚焦深度网络中的等变性问题。针对现有等变网络大多集中于旋转、平移等相对简单变换,而难以有效处理仿射与投影变换的难点,他介绍了团队利用微分不变量设计实用的仿射与投影等变网络的最新工作。相关研究表明,将更强的几何等变性引入深度网络设计,有助于提升模型在图像识别等任务中的参数效率与鲁棒性,也为复杂视觉场景下的模型结构创新提供了新的思路。

  在《AI for Mathematics:数学的数字化与智能化》报告中,北京大学董彬教授则从人工智能与数学交叉的角度,讨论了AI如何更深度地赋能数学研究。他指出,提升人工智能数学推理能力的关键之一,在于推进数学知识的形式化,即推动数学进一步“数字化”。报告系统梳理了AI4M(AI for Mathematics)领域近年来的发展脉络,并介绍了北京大学AI4M团队在形式化模型与工具设计、自动推理系统构建以及高质量评测集开发等方面的阶段性成果,展现了人工智能服务基础科学研究的广阔空间。

  在题为《大模型机理初探》的报告中,上海财经大学陆品燕教授则将关注点进一步落在“大模型为何有效”这一基础问题上。他指出,尽管大模型能力近年来快速提升,不断刷新学界和业界对人工智能能力边界的认识,但相比之下,人们对于大模型内在机理的理解仍然相对有限。结合自己从理论计算机研究转向关注大模型算法与机理的研究经历,陆品燕分享了其近一年来对大模型机理问题的学习与思考,强调人工智能发展不仅需要持续推进能力提升,也需要加强对模型行为、能力来源和复杂性机制的基础研究。

  从主旨报告可以看出,当前人工智能研究正从更强调经验驱动的阶段,逐步走向理论探索、方法创新与系统能力协同推进的新阶段。本次大会所关注的,已不只是“模型做得多大、性能提得多高”,而是进一步追问模型能力形成的内在机制,以及人工智能如何在更扎实的理论与方法支撑下实现可持续发展。

  平行论坛则进一步呈现了当前研究议题的纵深与交叉。论坛覆盖大模型训练与对齐、机器学习理论、优化方法、图机器学习、模型加速、数据优化等多个方向。与会者不仅关注如何让大模型训练得更高效、更稳定,也关注模型行为背后的内在规律,以及人工智能与科学研究、复杂场景应用深度结合的可能性。多场讨论传递出一个共识:面对模型规模扩大、训练成本上升和应用需求提升等现实挑战,单靠某一类方法已经难以支撑下一阶段发展,需要在基础理论、方法创新和系统优化等多个层面同时寻找突破。

  其中,平行论坛“大模型训练与数据优化”受到广泛关注。该论坛由清华大学吕凯风助理教授主持,围绕大模型从预训练到后训练、再到对齐优化的关键环节展开讨论,形成了较为完整的技术链条。

  FAIC 2026的召开,恰逢人工智能研究更加重视基础、重视规律、重视长期积累的关键阶段。无论是模型结构设计、训练方法改进,还是数据质量提升与交叉应用拓展,最终都离不开扎实的基础研究支撑。大会释放出一个鲜明信号:面对人工智能进入“深水区”的现实挑战,学界与业界正在更系统地回到那些绕不开的基础问题,并尝试一步步给出答案。(完)

注:请在转载文章内容时务必注明出处!   

编辑:李秋莹  

本网站所刊载信息,不代表中新社和中新网观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
常年法律顾问:上海金茂律师事务所