注意力机制

PersonaTalk

PersonaTalk是一种基于注意力机制的两阶段框架,用于实现高保真度和个性化的视觉配音。其核心技术包括风格感知音频编码、唇形同步几何生成、双注意力面部渲染等,能够确保视频中人物的嘴型动作与输入音频精准匹配,同时保留说话者的独特风格和面部特征。相比现有技术,PersonaTalk在视觉质量和唇形同步方面表现更优,适用于电影、游戏、虚拟助手等多个领域。

StoryWeaver

StoryWeaver是一款基于AI的故事可视化工具,利用知识图谱Character Graph和创新技术如CCG及KE-SG,实现高质量的角色定制和故事图像生成。它支持单角色与多角色场景,确保图像与文本语义的一致性,并适用于教育、漫画创作、游戏设计等多个领域。

ColorFlow

ColorFlow是一款由清华大学与腾讯ARC实验室联合研发的图像序列着色模型,具备检索增强、上下文学习及超分辨率技术,能够精准保持个体身份并实现高质量着色。该工具在漫画、动画制作、老照片修复及艺术创作等领域具有广泛应用价值,同时支持学术研究和技术探索。

EliGen

EliGen是由浙江大学与阿里巴巴集团联合开发的实体级可控图像生成框架,采用区域注意力机制实现对图像中实体的精确控制,支持多实体修复、风格化生成及交互式编辑。基于50万高质量注释样本训练,具备强大泛化能力,适用于虚拟场景、角色设计、数据合成及产品展示等场景。

360Zhinao2

360Zhinao2-7B是一款由360公司开发的大规模AI语言模型,具备强大的语言理解和生成能力,支持多语言交流和复杂的数学逻辑推理。其核心特性包括灵活的上下文处理、高效的训练技术和广泛的适用性,可应用于智能客服、教育辅助、内容创作和信息检索等多个领域。

LinFusion

LinFusion 是一种创新的图像生成模型,基于线性注意力机制高效处理高分辨率图像生成任务。它在处理大量像素时保持计算复杂度线性增长,显著提高生成效率。LinFusion 支持零样本跨分辨率生成,并与预训练模型组件如 ControlNet 和 IP-Adapter 兼容。在单个 GPU 上,LinFusion 能够生成高达 16K 分辨率的图像,广泛应用于艺术创作、游戏设计、虚拟现实等领域。

Boow

Boow-VTON是一种基于先进图像生成技术和数据增强方法的虚拟试衣技术,无需精确遮罩即可实现高质量试穿效果。该工具通过试穿定位损失和注意力机制,精准识别试穿区域并确保服装自然贴合人体,支持多服装试穿且操作简便。其应用场景包括在线购物、时尚零售、个性化推荐、社交媒体互动及服装设计等多个领域,具有广泛的商业应用价值。

TableGPT2

TableGPT2是一种由浙江大学开发的多模态人工智能模型,专注于结构化数据的处理与分析。它具备强大的表格数据理解能力,支持SQL查询执行、数据分析以及数据增删改查等功能。通过创新的表格编码器和双维注意力机制,TableGPT2在处理不规则表格和模糊查询方面表现优异。其应用场景广泛,涵盖商业智能、财务分析、市场研究及供应链管理等领域。

AMD

AMD-135M是一款由AMD开发的小型语言模型,基于LLaMA2架构,具有文本生成、代码生成、自然语言理解和多平台兼容性等特点。该模型通过推测解码技术提高了推理速度,降低了内存占用,并在多项自然语言处理任务中表现出色。适用于聊天机器人、内容创作、编程辅助、语言翻译和文本摘要等多种应用场景。

SigStyle

SigStyle是一款由多所高校与Adobe合作开发的签名风格迁移框架,能将单张风格图像的视觉特征(如几何结构、色彩和笔触)精准迁移到目标图像,同时保持内容的语义和结构。其核心技术基于个性化文本到图像扩散模型,结合超网络和时间感知注意力交换技术,实现高效且高质量的风格迁移。支持多种应用场景,如艺术创作、时尚设计、影视制作等,具备灵活性和广泛适用性。