模型

MCP

MCP(Model Context Protocol)是一项由Anthropic开源的协议,专注于实现大型语言模型(LLM)与外部数据源和工具的无缝集成。其核心功能包括数据集成、工具集成、模板化交互、安全性、开发者支持及上下文维护,支持双向数据流并内置安全机制。MCP适用于AI驱动的集成开发环境、增强聊天界面、自定义AI工作流、ERP系统集成及CRM系统增强等场景。

Jan.ai

ChatGPT 的开源、托管替代品,jan.ai可在您的计算机上100%离线运行。

EVI 3

EVI 3是Hume AI推出的全新语音语言模型,能够同时处理文本和语音标记,实现自然、富有表现力的语音交互。它支持高度个性化,根据用户提示生成任何声音和个性,并实时调节情感和说话风格。在与GPT-4o等模型的对比中,EVI 3在情感理解、表现力、自然度和响应速度等方面表现更优,具备低延迟响应能力,可在300毫秒内生成语音回答。EVI 3适用于智能客服、语音助手、教育辅导、情感支持和内容创作等多个

Embodied Reasoner

Embodied Reasoner是由多家科研机构联合开发的具身交互推理模型,通过视觉搜索、推理与行动协同完成复杂任务。采用模仿学习、自我探索和自我修正三阶段训练方法,生成多样化思考过程,提升任务规划效率。在长时序任务中表现优异,减少重复搜索和逻辑错误。适用于智能家居、仓储物流、医疗辅助等多个场景,具备多模态交互和强推理能力。

网易云课堂AI大模型产品经理孵化营

《AI大模型产品经理孵化营》是网易云课堂推出的专业课程,旨在帮助学员掌握AI产品经理的核心知识和技能,理解AI大模型的商业应用,并掌握无需编程即可开发AI应用的技术。课程内容涵盖从基础理论到实际操作的全过程,提供丰富的实战训练模块,帮助学员在AI领域迅速成长。

Pix2Gif

Pix2Gif是一个由微软研究院开发的基于运动引导的扩散模型,能够将静态图像转换成动态的GIF动画或视频。该模型通过运动引导的扩散过程实现图像到GIF的生成,并利用文本描述和运动幅度作为输入。Pix2Gif还引入了感知损失机制,确保生成的GIF帧在视觉上与原始图像保持一致性和连贯性。

Venturekit AI

可为企业家和企业主生成全面且量身定制的商业计划的AI工具,只需回答几个关于您的业务的问题,Venturekit 就会为您制定一份全面的商业计划。

Index

Index-AniSora是由哔哩哔哩开发的动漫视频生成模型,支持多种动画风格的生成,涵盖番剧、国创、VTuber等内容。其核心技术包括扩散模型、时空掩码模块和Transformer架构,具备图像到视频生成、帧插值、局部引导等能力。模型提供高质量数据集,适用于动画制作、创意验证、教育及营销等多个领域。

Flex.2

Flex.2-preview是Ostris开发的开源文本到图像生成模型,具备80亿参数规模。支持长文本输入、图像修复和多模态控制输入,适用于创意设计、图像修复和内容生成等多种场景。模型基于扩散框架,采用多通道输入处理和高效推理算法,可通过ComfyUI或Diffusers库集成使用,适合实验性开发和个性化定制。

I2VEdit

I2VEdit是一款基于图像到视频扩散模型的先进视频编辑框架,通过首帧编辑实现全视频效果传播。它能够保持视频的时间和运动一致性,支持局部与全局编辑任务,包括更换对象、风格转换等,并广泛应用于社交媒体内容创作、视频后期制作、虚拟试穿等领域。