Large Motion Model(LMM)是由新加坡南洋理工大学S-Lab与商汤科技联合开发的一种统一的多模态运动生成模型。该模型能够处理多种任务,例如从文本生成运动、从音乐生成舞蹈等,并在多项基准测试中表现出与专家模型相当的能力。LMM通过构建名为MotionVerse的综合数据集,整合了不同模态、格式和任务的运动数据,采用创新的ArtAttention机制和预训练策略,实现了对身体部位的精准控制及广泛的泛化能力。此外,LMM在面对未知任务时展现了卓越的适应性,为未来大型运动模型的研究提供了新的方向。

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部