模型

DiffusionGPT

DiffusionGPT是一款基于大型语言模型的开源文本到图像生成系统,由字节跳动与中山大学联合开发。它采用思维树和优势数据库技术,能够解析和处理多样化的文本提示,生成高质量图像。系统通过多模型的选择与集成、基于人类反馈的优化以及高效的图像生成执行,实现了从文本到图像的无缝转换。DiffusionGPT适用于多种应用场景,具有广泛适用性和灵活性。

WhisperKeyboard

WhisperKeyboard 是一款基于 OpenAI Whisper 技术的 AI 语音输入工具,支持多语言实时语音转文字,适用于写作、编程、会议记录等场景。具备离线识别、文本润色、多语言翻译和隐私保护等功能,兼容多平台,提升输入效率与文本质量。

SUPIR

SUPIR是一种创新的图像修复和画质增强方法,基于大规模生成模型StableDiffusion-XL(SDXL)和模型扩展技术。它通过深度学习和多模态方法实现低质量图像的高质量恢复,支持通过文本提示进行图像恢复的精细控制。SUPIR适用于多种应用场景,如老照片修复、模糊图像增强、噪点去除和色彩校正与增强。

CogVideo

目前最大的通用领域文本生成视频预训练模型,含94亿参数。CogVideo将预训练文本到图像生成模型(CogView2)有效地利用到文本到视频生成模型,并使用了多帧率分层训练策略。

OOTDiffusion

OOTDiffusion是一款开源AI虚拟试衣工具,支持根据用户上传的模特和服装图片生成自然贴合的试穿效果,具有智能适配、多种试穿模式及快速生成等特点。它通过预训练扩散模型、Outfitting UNet、Outfitting Fusion等技术实现高质量服装图像生成,适用于电商、设计、定制服务等多个领域。

MMaDA

MMaDA(Multimodal Large Diffusion Language Models)是由普林斯顿大学、清华大学、北京大学和字节跳动联合开发的多模态扩散模型,支持跨文本推理、多模态理解和文本到图像生成等多种功能。其采用统一的扩散架构和模态不可知设计,结合混合长链推理微调策略与UniGRPO强化学习算法,提升跨模态任务性能。MMaDA在多项任务中表现优异,适用于内容创作、教育辅助、智能客

奇智孔明AInnoGC工业大模型

奇智孔明AInnoGC工业大模型是创新奇智在工业智能制造领域的重要成果,它通过其强大的参数量和专业的工业领域适应性,为制造业提供了全面的AI解决方案。

Pixel3DMM

Pixel3DMM是由慕尼黑工业大学、伦敦大学学院和Synthesia联合开发的单图像3D人脸重建框架,基于DINOv2模型,能从单张RGB图像中准确重建出3D人脸的几何结构。该工具擅长处理复杂表情和姿态,支持身份和表情的解耦,并通过FLAME模型优化实现高精度重建。其应用场景涵盖影视游戏、VR/AR、社交视频、医疗美容和学术研究。

Yi

Yi-Coder是一款由零一万物开发的开源AI编程助手,支持52种主流编程语言,能够处理长达128K tokens的上下文。它在多个代码生成基准测试中表现优异,尤其在LiveCodeBench平台上的表现尤为突出。Yi-Coder在代码编辑和补全方面也有卓越的表现,适用于各种开发项目,帮助开发者提高工作效率。 ---

Trae 插件

Trae 插件是一款基于 AI 的编程辅助工具,支持多种编程语言和主流 IDE,提供代码补全、生成、解释、注释、单测生成及智能问答等功能,提升开发效率与代码质量。支持多模型切换,具备高度可定制性,适用于快速开发、代码优化与团队协作等场景。