虚拟

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

给麦

给麦是一款集成了AI技术的音乐创作平台,主要面向音乐创作者、歌手及普通用户。它提供音色克隆、快速歌曲合成、AI翻唱、AI写歌等功能,同时拥有线上K歌、虚拟人声、语聊派对和破冰游戏等社交娱乐功能,旨在帮助用户轻松创作音乐并享受互动体验。

有言

是一个一站式AIGC视频创作平台,它提供了一个无需拍摄、剪辑和后期处理的解决方案,能够一键生成3D视频。

OmniBooth

OmniBooth是一款由华为诺亚方舟实验室与香港科技大学联合开发的图像生成框架,支持基于文本或图像的多模态指令控制及实例级定制。它通过高维潜在控制信号实现对图像中对象位置和属性的精准操控,具备多模态嵌入提取、空间变形技术以及特征对齐网络等功能,广泛应用于数据集生成、内容创作、游戏开发、虚拟现实及广告营销等领域。

EDTalk

EDTalk是一款基于音频驱动的唇部同步模型,支持嘴型、头部姿态及情感表情的独立操控。用户可通过上传图片、音频和参考视频生成具有唇形同步和情感表达的动态人脸视频,广泛应用于教育、影视后期、虚拟现实等领域。其高效解耦机制和轻量化设计使其易于操作且资源友好。

Lookie

Lookie是一款基于AI技术的穿搭应用,用户可上传照片创建数字分身,试穿各类潮流服饰,并获取穿搭建议。它拥有丰富的服饰库,支持场景模拟及电商跳转功能,旨在提升用户日常与特殊场合的穿搭体验。

TANGOFLUX

TANGOFLUX是一款高效文本到音频生成模型,具备约5.15亿参数量,能够在3.7秒内生成30秒高质量音频。它采用CLAP-Ranked Preference Optimization框架优化音频输出,支持多种应用场景,包括多媒体内容创作、音频制作、播客、教育及虚拟助手开发。其开源特性推动了相关领域的技术进步。

Deep Agency

一家利用先进的人工智能技术提供虚拟摄影工作室服务的AI模特机构。Deep Agency允许用户在家里也可以雇佣虚拟模特进行专业照片拍摄,从而革新了传统的拍摄方式。

Q

以OpenAI的ChatGPT API为基础的完全自适应式人工智能导师体验。Q-Chat旨在让学习变得有趣和有效,它不仅仅是一个基本的聊天机器人,还可以帮助您理解材料、指引您学习语言,以及在您不知从何处开始时提供学习指导。

Yodayo AI | 文本生成动漫图片

Yodayo是一个AI文本生成动漫图片工具,是一款先进的人工智能系统,它可以根据你输入的文字或图片,自动生成出免费、高质量的动漫风格的画面。