模型

SynthLight

SynthLight是由耶鲁大学与Adobe Research联合开发的基于扩散模型的人像重照明工具,通过物理渲染引擎生成合成数据并结合多任务训练策略,实现高质量的光照效果生成。它能够根据环境光照图重新渲染人像,生成自然的高光、阴影和漫反射效果,并适用于摄影后期、虚拟场景、游戏开发及广告设计等多个领域,具备良好的泛化能力和实用性。

SimpleAR

SimpleAR是一款由复旦大学与字节跳动联合研发的纯自回归图像生成模型,采用简洁架构实现高质量图像生成。其通过“预训练-有监督微调-强化学习”三阶段训练方法,提升文本跟随能力与生成效果。支持文本到图像及多模态融合生成,兼容加速技术,推理速度快。适用于创意设计、虚拟场景构建、多模态翻译、AR/VR等多个领域。

eeChat

简洁易用的大模型本地部署工具,支持开源模型 DeepSeek-R1, DLlama 3, Phi-4, Mistral, Gemma 3 等模型的本地化部署,专注于数据安全、隐私保护和高效的AI对话体验。

Migician

Migician是一款由多所高校联合开发的多模态大语言模型,专为多图像定位任务设计。它基于大规模数据集MGrounding-630k,采用端到端架构和两阶段训练方法,支持跨图像精准定位与多任务处理。Migician适用于自动驾驶、安防监控、医疗影像等多个领域,具有高效的推理能力和灵活的输入方式。

Pix2Gif

Pix2Gif是一个由微软研究院开发的基于运动引导的扩散模型,能够将静态图像转换成动态的GIF动画或视频。该模型通过运动引导的扩散过程实现图像到GIF的生成,并利用文本描述和运动幅度作为输入。Pix2Gif还引入了感知损失机制,确保生成的GIF帧在视觉上与原始图像保持一致性和连贯性。

MotionGen

MotionGen是一款由元象科技开发的3D动作生成模型,它结合了大模型、物理仿真和强化学习算法,使得用户通过简单的文本指令就能生成逼真且流畅的3D动作。该工具简化了3D动画的制作过程,提升了创作效率。其主要功能包括文本到动作的转换、高度逼真和流畅的动作生成、个性化定制、高效的制作流程和技术融合。

Magic Data

Magic Data专注于为不同行业的AI模型提供高质量的训练和测试数据,以提升模型的性能和智能。

混元图生视频

混元图生视频是腾讯混元推出的开源图生视频模型,支持用户上传图片并输入描述生成5秒短视频,具备对口型、动作驱动和背景音效自动生成等功能。模型适用于多种风格与场景,参数量达130亿,已在腾讯云上线并开源,支持本地部署与定制开发,适用于创意视频、特效制作及动画开发等多个领域。

OpenBioMed

OpenBioMed是由清华大学智能产业研究院与水木分子联合开发的开源平台,专注于AI在生物医学中的应用。它支持多模态数据处理,涵盖分子、蛋白质、单细胞等多种类型,并提供20多个深度学习模型和计算工具,适用于药物研发、精准医疗、知识图谱构建等领域。平台具备统一的数据处理框架和预训练模型,支持快速迁移和智能体设计,助力科研人员提升研究效率。

Jan.ai

ChatGPT 的开源、托管替代品,jan.ai可在您的计算机上100%离线运行。