虚拟

Playmate

Playmate是由广州趣丸科技开发的人脸动画生成框架,基于3D隐式空间引导扩散模型和双阶段训练框架,能够根据音频和指令精准控制人物表情和头部姿态,生成高质量动态肖像视频。其支持情感控制、姿态控制和独立控制,可生成多种风格的动态肖像,适用于影视制作、游戏开发、虚拟现实、互动媒体及教育等多个领域。

Neural4D

Neural4D是一款由DreamTech团队开发的AI驱动型3D模型生成平台,利用Direct3D-5B大模型实现从文字或图片到高精度3D模型的自动化生成。其主要功能包括文本生成3D、图片生成3D、CuteMe Q版化身转换以及高精度模型输出。平台支持多种应用场景,如游戏开发、动画制作、虚拟现实设计、产品可视化及3D打印等,推动了3D内容创作领域的快速发展。

OmniSync

OmniSync是由中国人民大学、快手科技和清华大学联合开发的通用对口型框架,基于扩散变换器实现视频中人物口型与语音的精准同步。它采用无掩码训练范式,直接编辑视频帧,支持无限时长推理,保持自然面部动态和身份一致性。通过渐进噪声初始化和动态时空分类器自由引导(DS-CFG)机制,提升音频条件下的口型同步效果。OmniSync适用于影视配音、虚拟现实、AI内容生成等多个场景。

GaussianAnything

GaussianAnything 是一款基于多模态输入的 3D 内容生成框架,支持点云、文本和图像等多种输入方式,能够生成高精度且可编辑的 3D 模型。其核心技术包括点云结构化潜空间和级联扩散模型,具备几何与纹理解耦特性,适用于游戏开发、影视制作、VR/AR、工业设计等多个场景。该工具在生成质量和一致性方面表现优异,为 3D 内容创作提供了高效解决方案。

AniTalker

AniTalker是一款先进的AI工具,能将单张静态人像与音频同步转化为生动的动画对话视频。它通过自监督学习捕捉面部动态,采用通用运动表示和身份解耦技术减少对标记数据的依赖,同时结合扩散模型和方差适配器生成多样且可控的面部动画。AniTalker支持视频驱动和语音驱动两种方式,并具备实时控制动画生成的能力。

Optimus

Optimus-1是一款由哈尔滨工业大学(深圳)和鹏城实验室联合开发的智能体框架,专为开放世界环境中的长期任务设计。它结合结构化知识与多模态经验,通过混合多模态记忆模块(HDKG与AMEP)提升任务规划与执行能力。主要功能包括知识引导规划、经验驱动反思、行动控制及自我进化,已在游戏、虚拟助理、工业自动化等领域得到验证。

FacePoke

FacePoke是一款基于AI的开源实时面部编辑工具,支持通过简单拖拽操作调整人物头部姿态和面部表情,使静态图像更加生动。其采用深度学习技术,具备高分辨率输出和精确控制能力,适用于数字艺术、内容创作及影视制作等领域。工具基于LivePortrait技术开发,支持本地和Docker部署,便于用户灵活使用。

DreamFit

DreamFit是由字节跳动与高校联合研发的虚拟试衣框架,专注于轻量级服装图像生成。通过优化文本提示与特征融合技术,提升图像质量与一致性,降低模型复杂度和训练成本。支持姿势控制、多主题服装迁移等功能,适用于虚拟试穿、服装设计、广告制作等多个场景,具备良好的泛化能力和易用性。

Crypko

Crypko是一款基于AI的动漫角色生成工具,利用生成对抗网络(GAN)技术实现高质量角色立绘的自动化创作。用户可通过简单操作生成并个性化定制角色,支持动画效果添加及社交分享。此外,Crypko还提供商业用途插图生成功能,并支持虚拟世界角色“旅行”体验。

AI Reality

AI Reality 是一个网站,它提供了一个使用人工智能 (AI) 学习和创建增强现实 (AR) 的平台。