模型

TigerBot

TigerBot是一个功能丰富、持续进化的大型语言模型,它通过不断的技术创新和社区贡献,为用户提供了一个强大的多语言多任务处理能力。

Quickchat AI

Quickchat AI是一个经过实战考验、业务就绪的技术,自2020年以来一直在开发基于大型语言模型的对话AI助手。它提供了详细的设计和对AI解决方案的严格控制,帮助企业将AI置于核心位置。

牛小影

原牛学长视频修复工具,视频画质增强器,模糊视频修复高清。

AnimateDiff

AnimateDiff是一款由上海人工智能实验室、香港中文大学和斯坦福大学的研究人员共同开发的框架,旨在将文本到图像模型扩展为动画生成器。该框架利用大规模视频数据集中的运动先验知识,允许用户通过文本描述生成动画序列,无需进行特定的模型调优。AnimateDiff支持多种领域的个性化模型,包括动漫、2D卡通、3D动画和现实摄影等,并且易于与现有模型集成,降低使用门槛。

AutoVFX

AutoVFX是一款由伊利诺伊大学香槟分校研发的先进物理特效框架,通过神经场景建模、大型语言模型(LLM)代码生成及物理模拟技术,实现自然语言指令驱动的视频特效编辑与创作。其主要功能涵盖3D场景建模、程序生成、VFX模块、物理模拟、渲染与合成等,适用于电影制作、广告营销、游戏开发、虚拟现实及教育等多个领域。

AbletonMCP

AbletonMCP 是一个开源工具,通过模型上下文协议(MCP)将 Ableton Live 与 Claude AI 连接,实现音乐制作过程中的 AI 辅助。支持双向通信,允许用户通过 AI 创建和编辑 MIDI 与音频轨道、选择乐器和效果、控制播放等。技术上采用 JSON 协议和套接字通信,适用于音乐创作、实时制作、教学及音频后期处理等多种场景。

MewX AI

MewX AI是一款集文生图、图生图、艺术二维码生成及室内设计于一体的生成式AI平台,支持多种风格的艺术创作与设计任务。主要功能包括MX绘画、MX Cute、MJ绘画、边缘检测和室内设计,广泛应用于艺术创作、平面设计、插画制作等领域。用户可以通过简洁的操作流程快速生成高质量图像,并灵活调整参数以满足个性化需求。

CustomVideoX

CustomVideoX是一种基于视频扩散变换器的个性化视频生成框架,能够根据参考图像和文本描述生成高质量视频。其核心技术包括3D参考注意力机制、时间感知注意力偏差(TAB)和实体区域感知增强(ERAE),有效提升视频的时间连贯性和语义一致性。支持多种应用场景,如艺术设计、广告营销、影视制作等,具备高效、精准和可扩展的特点。

Transfusion

Transfusion是由Meta公司开发的多模态AI模型,能够同时生成文本和图像,并支持图像编辑功能。该模型通过结合语言模型的下一个token预测和扩散模型,在单一变换器架构上处理混合模态数据。Transfusion在预训练阶段利用了大量的文本和图像数据,表现出强大的扩展性和优异的性能。其主要功能包括多模态生成、混合模态序列训练、高效的注意力机制、模态特定编码、图像压缩、高质量图像生成、文本生成

Vision Parse

Vision Parse 是一款开源工具,旨在通过视觉语言模型将 PDF 文件转换为 Markdown 格式。它具备智能识别和提取 PDF 内容的能力,包括文本和表格,并能保持原有格式与结构。此外,Vision Parse 支持多种视觉语言模型,确保解析的高精度与高速度。其应用场景广泛,涵盖学术研究、法律文件处理、技术支持文档以及电子书制作等领域。