当前具身智能行业的核心痛点是“视觉感知”与“动作执行”割裂,机器人难适应环境变化。北京人形自主研发的XR-1模型具备“知行合一”能力,以跨数据源学习、跨模态对齐、跨本体控制为技术内核,其首创的UVMC(多模态视动统一表征)技术可搭建视觉与动作的映射桥梁, 让机器人像人一样“条件反射”,将看到的画面瞬间转化为身体相应动作的本能反应。
CES ...
北京人形首创的UVMC(多模态视动统一表征)技术是关键,它能够搭建起视觉与动作的映射桥梁,让机器人将看到的画面瞬间转化为身体的本能反应,像人类条件反射般自然做出正确的应对动作。XR-1的多构型预训练能力,使具身天工2.0具备全身多关节丝滑拟人控制,可实现大幅弯腰下蹲并精准抓取随机摆放的物料箱,完成复杂倒料任务 ...
北京人形机器人创新中心近日宣布,正式开源其自主研发的具身小脑能力模型XR-1,以及配套的数据训练工具RoboMIND 2.0和高保真数字资产数据集ArtVIP。这一系列成果标志着国内具身智能领域向“全自主、更实用”方向迈出关键一步,为机器人落地工业、商业及家庭场景提供了技术支撑。 XR-1模型作为国内首个通过具身智能国家标准测试的视觉-语言-动作(VLA)大模型,核心突破在于解决了行业长期存在的“ ...
伴随着全球人工智能技术飞速进步,具身智能产业迅猛发展,赋予机器人类人化的泛化能力是具身智能机器人技术的核心目标之一,实现这一目标的关键在于如何使各类机器人本体在面对多样化的环境和任务时,能够展现出卓越的性能。 正如ChatGPT需要海量文本 ...
IT之家 12 月 19 日消息,12 月 18 日,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身 VLA 大模型 XR-1,以及配套的数据基础 RoboMIND 2.0、ArtVIP 最新版。 围绕“具身天工”平台,北京人形已发布具身天工 2.0、天轶 2.0 等多类型通用本体 ...
36氪获悉,近日,国家地方共建具身智能机器人创新中心与北京大学计算机学院联合推出了一个大规模多构型智能机器人数据集和Benchmark——RoboMIND,捕捉机器人面对复杂环境、长程任务时的各种交互和经验,从而促进能够掌握不同操作策略的通用模型的训练。
国家地方共建具身智能机器人创新中心与北京大学计算机学院合作推出RoboMIND数据集,包含55,000条机器人轨迹数据,覆盖279项任务和61种物体,旨在提升机器人在复杂环境中的适应性和灵活性。 观点网讯:12月27日,国家地方共建具身智能机器人创新中心与北京 ...
新浪科技讯 12月19日下午消息,北京人形机器人创新中心正式开源国内首个且唯一通过具身智能国标测试的具身VLA大模型XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用场景 ...
导语:解决了目前全球开源数据集,量大但数据质量参差不齐、通用性复用性差、部分数据实测效果不理想等问题。 雷峰网(公众号:雷峰网)消息 2024年12月27日,国家地方共建具身智能机器人创新中心(以下简称“创新中心”)与北京大学计算机学院联合推出了 ...
12月18日,北京人形机器人创新中心(以下简称“北京人形”)开源国内首个且唯一通过具身智能国标测试的具身VLA大模型XR-1,以及配套的数据基础RoboMIND 2.0、ArtVIP最新版。基于上述开源成果,能够推动具身智能行业追寻最本质需求,让机器人真正在各类应用 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果