模型

SocraticLM

SocraticLM 是一款基于苏格拉底教学法的人工智能模型,由中科大与科大讯飞联合开发。它通过提问引导学生主动思考,具备多轮对话能力和个性化教学功能。模型在 SocraTeach 数据集上训练,教学性能优于 GPT-4,整体质量提升 12%。其综合评估系统涵盖五项教学维度,适用于数学教学、个性化辅导及在线教育平台,为教育技术发展提供了新思路。

DreamVideo

DreamVideo-2是一款由复旦大学和阿里巴巴集团等机构共同开发的零样本视频生成框架,能够利用单一图像及界定框序列生成包含特定主题且具备精确运动轨迹的视频内容。其核心特性包括参考注意力机制、混合掩码参考注意力、重加权扩散损失以及基于二值掩码的运动控制模块,这些技术共同提升了主题表现力和运动控制精度。DreamVideo-2已在多个领域如娱乐、影视制作、广告营销、教育及新闻报道中展现出广泛应用前

Show

Show-o 是一款基于统一 Transformer 架构的多模态 AI 工具,集成了自回归和离散扩散建模技术,可高效处理视觉问答、文本到图像生成、图像修复与扩展以及混合模态生成等多种任务。其创新性技术显著提高了生成效率,减少了采样步骤,适用于社交媒体内容创作、虚拟助手、教育与培训、广告营销、游戏开发及影视制作等多个领域。

Insert Anything

Insert Anything是由多所高校联合开发的图像插入框架,支持多种场景下的对象无缝融合,如艺术创作、虚拟试穿和影视特效等。基于大规模数据集训练,具备高分辨率输出与语义一致性保障。用户可通过掩码或文本指令实现精准控制,适用于创意设计与数字内容生成领域。

ViVa AI

Sora同架构视频生成模型,支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。

VMix

VMix是一款提升文本到图像生成美学质量的工具,通过解耦文本内容与美学描述,并引入细粒度美学标签,增强图像在色彩、光线、构图等方面的视觉表现。其核心技术为交叉注意力混合控制模块,可在不改变原有模型结构的情况下注入美学条件,保持图文一致性。VMix兼容多种扩散模型及社区模块,支持多源输入、高质量视频处理、实时直播与远程协作,广泛应用于电视直播、网络直播、现场活动及虚拟演播室等场景。

MindLLM

MindLLM是由多所高校联合开发的AI模型,可将功能性磁共振成像(fMRI)信号解码为自然语言文本。其采用主体无关的fMRI编码器与大型语言模型结合,并引入脑指令调优技术,实现跨个体的高精度解码。该模型在多项任务中表现优异,具备广泛的应用潜力,包括医疗康复、脑机接口、神经科学研究及人机交互等领域。

ELLA

ELLA(Efficient Large Language Model Adapter)是一种由腾讯研究人员开发的方法,旨在提升文本到图像生成模型的语义对齐能力。它通过引入时序感知语义连接器(TSC),动态提取预训练大型语言模型(LLM)中的时序依赖条件,从而提高模型对复杂文本提示的理解能力。ELLA无需重新训练,可以直接应用于预训练的LLM和U-Net模型,且能与现有模型和工具无缝集成,显著提升

明犀AI

明犀AI是一款基于大模型技术的图像增强工具,能够通过文本提示引导实现图像修复与优化,有效提升图像清晰度、细节表现和整体质感。其功能包括图像清晰度增强、细节优化、老照片修复等,适用于摄影、设计、印刷、文化遗产保护及医疗影像等多个领域。用户可通过网站注册后上传图片并进行处理,支持不同分辨率输出,满足多样化的图像处理需求。

Claude2

Claude是Anthropic公司开发的一系列人工智能模型。这些模型使用了Transformer架构,并通过无监督学习、人类反馈强化学习(RLHF)进行训练。Claude模型可以理解和生成人类语言,用于各种任务,如回答问题、写作、编辑和编程。