近日,由中国计算机学会(CCF)推荐的A类学术会议、人工智能领域顶级国际会议之一“NeurIPS 2025”(神经信息处理系统大会)公布论文录用结果。中国电信人工智能研究院(TeleAI)共有7项成果被收录,重点聚焦正激励噪声(Pi/π-Noise, Positive-incentive Noise)、具身智能,以及大模型推理加速、图像生成、多模态理解,进一步推动人工智能技术创新并迈向产业落地应用。
作为机器学习和计算神经科学领域历史最悠久、声望最高的顶级国际会议之一,NeurIPS 涵盖从深度学习、强化学习、计算机视觉、自然语言处理,到理论基础、算法优化、伦理公平性等广泛议题,是观察 AI领域最新研究进展和未来趋势的重要窗口。今年会议共收到 21575篇有效论文投稿,接收率为24.52%,五年来最低,竞争激烈。
在正激励噪声(Pi/π-Noise, Positive-incentive Noise)研究方向,TeleAI 提出 MIN(Mixture of Noise,噪声混合)方法,通过引入有益噪声和噪声混合,解决基于预训练模型(PTM)的类别增量学习(CIL)中的参数漂移(有害噪声)问题,让模型能够持续学习新类别知识,但不遗忘旧类别知识,保持预训练模型的泛化能力。
为了让人形机器人能够像人类一样保持对身体的控制稳定性,并学习多种多样的高动态人类技能,TeleAI推出具身不确定性规划框架 CURE、高动态全身运动框架 KungfuBot、上下肢对抗训练与协同框架 ALMI 三项创新成果。这些成果将提升机器人的稳定性和协调性,让它们具备更灵活的运动能力及应对复杂高动态行为的模仿能力。
在进一步推动大模型落地的“最后一公里”方面,TeleAI 提出 CAS-Spec 算法和 NFIG 算法,分别针对文本生成和图像生成,实现大模型的推理效率提升及成本节约。为打通数字智能与物理智能的连接,TeleAI 还推出面板理解与操作基准 PUO-Bench,并创新设计隐私保护框架 PPF,为物理设备的智能交互提供全面解决方案。
NeurIPS 与 ICML(国际机器学习大会)、ICLR(国际表征学习大会)并称为机器学习领域内难度最大、水平最高的三大会议。作为央企新型研发机构,TeleAI 始终活跃在科学研究的最前线,在包括 NeurIPS、ICML、ICLR,及 ACM、ACL、AAAI 等人工智能领域的顶级学术会议屡创佳绩。
TeleAI 构建了以AI治理、智传网(AI Flow)、智能光电(包括具身智能)、智能体为核心的“一治+三智”战略科研布局。结合智传网(AI Flow),大模型、具身智能等前沿技术创新将得到加速发展。同时,本次入选 NeurIPS 2025 的研究成果,也将为TeleAI在智传网(AI Flow)的研发提供基础支撑,助力人工智能从理论前沿走向产业应用。
NeurIPS 2025 入选论文:
K. Jiang et al., "MiN: Mixture of Noise for Pre-Trained Model-Based Class-Incremental Learning", NeurIPS 2025.
S. Yin et al., "Towards Reliable LLM-based Robots Planning via Combined Uncertainty Estimation", NeurIPS 2025.
W. Xie et al., "KungfuBot: Physics-Based Humanoid Whole-Body Control for Learning Highly-Dynamic Skills", NeurIPS 2025, arXiv:2506.12851.
J. Shi et al., "Adversarial Locomotion and Motion Imitation for Humanoid Policy Learning", NeurIPS 2025, arXiv:2504.14305.
Z. Ning et al., "CAS-Spec: Cascade Adaptive Self-Speculative Decoding for On-the-Fly Lossless Inference Acceleration of LLMs", NeurIPS 2025.
Z. Huang et al., "NFIG: Multi-Scale Autoregressive Image Generation via Frequency Ordering", NeurIPS 2025.
W. Lin et al., "PUO-Bench: A Panel Understanding and Operation Benchmark with A Privacy-Preserving Framework", NeurIPS 2025.