Home
Product
Embodied
Embodied Tien Kung2.0
Tian Yi 2.0
Intelligent
HuiSi KaiWu
Wow
Embodied World Model
PelicanVLM
A Visual Language Model for Robots
Data
Embodied AI Data
Application Scenarios
Video
Open-Source Community
News
About Us
简体中文
English
语言
简体中文
English
Home
Product
具身
具身天工2.0
天轶2.0
智能
慧思开物
Wu1.0(天悟)
PelicanVLM
数据
Application Scenarios
Video
Open-Source Community
News
关于我们
通用具身智能平台
N
应用场景
200
w+
机器人轨迹数据
20
+
机器人本体
-
90
%
开发人力与时间
具身大脑:Wow(天悟)——具备想象能力的具身世界模型
了解更多
Wow具身世界模型
能够深度理解 “机器人与环境交互” 物理规律,基于图像,加上动作指令,实现可控的交互生成,面对不同任务、不同场景具备通用泛化能力,可以生成多步骤、长时间、具备复杂逻辑的任务。
具身大脑:PelicanVLM——为机器人时代打造的视觉语言大模型
了解更多
PelicanVLM视觉语言大模型
超长视频理解和推理,72B文本、图像、视频混合推理增强,具备长程任务规划、空间方位理解以及物理感知能力。
世界模型
VLM
具身小脑:跨本体VLA基座模型XR-1
了解更多
XR-1——跨本体VLA基座模型
多模态视动统一表征,利用机器人操作数据和互联网视频数据,实现跨构型通用操作知识积累和特定场景任务快速学习,真机部署测试,实证具备多本体、多技能、多任务泛化能力。
具身小脑:全身控制自主导航系统
了解更多
全身控制自主导航系统
实现高准确率的人形机器人实时感知与避障,克服足式运控精度难题,实现导航轨迹跟随,提出不透明度引导的自编码器, 解决物体堆叠带来的问题,提出几何感知的编码器,实现了对场景的细粒度描述和精细分类。
VLA基座模型
全身控制自主导航
Top
©️2024 北京人形机器人创新中心有限公司版权所有|
京ICP备2024078606号
|
京公网安备11011202100775号