传动网 > 新闻频道 > 行业资讯 > 资讯详情

北京人形机器人创新中心开源 Pelican-VL 1.0 模型,号称“全球最强”

时间:2025-11-17

来源:IT之家

导语:11 月 14 日消息,北京人形机器人创新中心昨晚宣布全面开源具身智能 VLM 模型 ——Pelican-VL 1.0。

  从官方介绍获悉,该模型覆盖 7B、72B 参数规模,是迄今为止“最大规模的开源具身多模态大模型”,同时,也是迄今为止全球性能最强大的具身智能 VLM 模型。根据测试,其性能超越 GPT-5 同类模型 15.79% ,与 Google gemini 系列模型相比提升 19.25%,同时也超越通义千问、书生万象等国内模型,成为了目前最强的开源具身多模态大模型。

  文章称,该团队还提出了一套全新的 DPPO(刻意训练)训练范式,是全球首创的具身多模态大模型后训练自进化算法框架。凭借 DPPO,Pelican-VL 实现‘性能最强’这一目标使用的数据量为 200K,仅仅是其他大模型的 1/10 甚至 1/50,是名副其实的开源 VLM 性价比之王。

  Pelican-VL 1.0 的开源,能够大幅提升具身智能在商业服务、工业泛工业、高危特种作业、家庭服务等多种真实场景中,通过视觉-语言感知辅助多步任务规划的能力。而 VLM 作为目前实现机器人全自主的核心,Pelican 的开源也将推动我国具身智能全自主发展。

  本次开源的 Pelican-VL 1.0 的核心优势在于深度整合海量数据与自适应学习机制,在由 1000+ A800 GPU 组成的集群上训练,单次检查点训练耗费超过 50,000 A800 GPU-小时;团队从原始数据中蒸馏出的包含数亿 token 的高质量元数据以做训练基石。基于上述优势,Pelican-VL 1.0 实现了在基线基础上性能提升 20.3%,平均超过 Qwen3-VL 系列、InternVL3.5 系列等同级别开源模型 10.6%。

  得益于“刻意练习”DPPO(Deliberate Practice Policy Optimization)训练范式,Pelican-VL 就像一名刻苦钻研的学生:每次训练循环都会“看视频 — 自主练习 — 发现错误 — 纠正提升”。通过 DPPO 模仿人类元认知的学习方式,通过强化学习(RL)探索弱点、生成失败样本,再进行有针对性地监督微调(SFT),让模型不断自我纠错和迭代进步。

  就像学生做错题后总结经验一样,Pelican-VL 能在训练中发现“薄弱知识点”并补齐,从而持续提高在视觉-语言和具身任务上的能力。通过这种机制,Pelican-VL 能够更准确地理解图像内容、语言指令和物理常识,最终在决策和操作执行环节中,实现了具身智能在空间-时间推理和动作规划方面的大幅突破。

传动网版权与免责声明:

凡本网注明[来源:传动网]的所有文字、图片、音视和视频文件,版权均为传动网(www.chuandong.com)独家所有。如需转载请与0755-82949061联系。任何媒体、网站或个人转载使用时须注明来源“传动网”,违反者本网将追究其法律责任。

本网转载并注明其他来源的稿件,均来自互联网或业内投稿人士,版权属于原版权人。转载请保留稿件来源及作者,禁止擅自篡改,违者自负版权法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

关注伺服与运动控制公众号获取更多资讯

关注直驱与传动公众号获取更多资讯

关注中国传动网公众号获取更多资讯

最新新闻
查看更多资讯

热搜词
  • 运动控制
  • 伺服系统
  • 机器视觉
  • 机械传动
  • 编码器
  • 直驱系统
  • 工业电源
  • 电力电子
  • 工业互联
  • 高压变频器
  • 中低压变频器
  • 传感器
  • 人机界面
  • PLC
  • 电气联接
  • 工业机器人
  • 低压电器
  • 机柜
回顶部
点赞 0
取消 0