魔法原子发布“原子万象大模型” 打造快慢双模协同架构

3月26日,在魔法原子「原子双生」2025场景战略发布会上,魔法原子正式发布“原子万象大模型”。基于“场景定义价值,需求驱动创新”的核心理念,魔法原子聚焦人形机器人在工业、商业等核心场景的落地需求,打造出行业领先的人形机器人垂直场景大模型,与通用人形机器人实现了深度耦合,让人形机器人真正从“能动”进化到“能用”,最终走向“通用”。

魔法原子发布“原子万象大模型” 打造快慢双模协同架构

魔法原子总裁吴长征表示:“大模型是人形机器人实现能力进化的‘智能引擎’,我们坚持研发原子万象大模型,打造具备环境适应能力的人形机器人,利用真实数据不断完善与优化模型,增强机器人与环境的动态交互能力。”

作为人形机器人的大脑,大模型能提升人形机器人复杂场景理解和长序列任务自主规划等方面的能力。魔法原子创新性地融合动作专家系统与多模态大模型,构建“原子万象大模型”快慢双模协同架构。基于动作专家模型的“快系统”能够快速响应环境变化,保障机器人各个部位快速适应环境;基于多模态大模型的“慢系统”负责理解复杂环境,并规划长期任务。快慢双模协同架构实现人形机器人在空间智能、语言智能和行为智能的有机统一,并率先在场景中落地应用。

基于以上技术架构,原子万象大模型将多模态感知、自主导航、操作抓取与运动控制等功能融合到一起,并与场景深度绑定,让人形机器人在各种垂直场景中实现自主规划和自主作业。以商业服务场景为例,魔法原子利用商业垂直大模型,赋能人形机器人小麦结合商业产品知识库、衣着信息等消费者显性特征数据进行分析,通过语音、动作等行为主动问候、招揽顾客,推荐合适的产品给顾客,完成商业场景的应用闭环。

魔法原子发布“原子万象大模型” 打造快慢双模协同架构

“高质量的真机数据是具身大模型技术突破的关键,互联网视频和仿真数据无法还原真实物理交互,真实数据的质量也决定着具身大模型的质量”,魔法原子副总裁陈春玉介绍到。通过与战略合作伙伴合作,借助熟练工人持续采集生产环境中的真实数据,魔法原子已经累计形成数百万条高价值训练样本,这些数据真正让人形机器人从“能理解”进化到“能行动”。未来,魔法原子将向合作伙伴开放部分数据集,加速全行业技术迭代。

免责声明:本文章由会员“极目新闻”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系