模型

TRELLIS

TRELLIS是一款由清华大学、中国科学技术大学及微软研究院共同开发的3D生成模型,利用Structured LATent(SLAT)表示法,通过文本或图像提示生成高质量、多样化的3D资产。它融合了稀疏的3D网格结构与密集视觉特征,支持多格式输出及局部编辑,无需拟合训练即可生成细节丰富的模型。此外,TRELLIS具备两阶段生成流程,可灵活适应不同需求。

OpenAI o1模型

OpenAI的最新推理系列AI大模型“Strawberry”,包括“o1-preview”和成本较低的“o1 mini”版本。该模型通过强化学习训练,具备复杂的推理能力和多模态理解能力。它采用了“思维链”机制,增强推理透明度,具备自我纠错功能。在国际数学奥林匹克等基准测试中表现出色,展现出强大的性能。设计时考虑了安全性、可靠性和成本效率。 ---

文心大模型歌词生成器

文心大模型「歌词生成」器,是百度旗下的AI智能处理“文心大模型”提供的服务出品的 AI 自动生成歌词网站,

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

MiniMax开放平台

MiniMax开放平台是国内领先的拥有文本、语音、视觉三模态融合的千亿参数语言大模型。这个平台由创业公司MiniMax构建,致力于通过搭建超大规模实验平台与推理平台,实现技术与产品...

DreamO

DreamO是由字节跳动与北京大学联合开发的图像定制生成框架,基于扩散变换器(DiT)模型实现多条件图像生成。支持身份、风格、背景等条件的灵活集成,具备高质量生成、条件解耦和精准控制能力。适用于虚拟试穿、风格迁移、主体驱动生成等多种场景,具备广泛的适用性和技术先进性。

TANGOFLUX

TANGOFLUX是一款高效文本到音频生成模型,具备约5.15亿参数量,能够在3.7秒内生成30秒高质量音频。它采用CLAP-Ranked Preference Optimization框架优化音频输出,支持多种应用场景,包括多媒体内容创作、音频制作、播客、教育及虚拟助手开发。其开源特性推动了相关领域的技术进步。

Flex3D

Flex3D是一款由Meta和牛津大学联合研发的两阶段3D生成框架,通过多视图扩散模型和视图筛选机制生成高质量3D模型,支持从文本、单张图片或稀疏视图生成逼真的3D内容。其核心在于基于Transformer架构的灵活重建模型(FlexRM),结合三平面表示与3D高斯绘制技术,实现高效且详细的三维重建,广泛应用于游戏开发、AR/VR、影视制作等领域。

Cerebellum

Cerebellum是一款结合Claude 3.5 Sonnet与Selenium WebDriver的智能化浏览器助手,通过构建网页浏览的有向图模型,利用LLM技术分析页面内容和交互元素,智能规划操作路径并动态调整策略。它支持多浏览器操作,可精确模拟用户行为,广泛应用于网页自动化测试、数据抓取、内容管理及电子商务等多个领域。