模型

WebLI

WebLI-100B是由Google DeepMind推出的超大规模视觉语言数据集,包含1000亿个图像与文本配对数据,是目前最大的视觉语言数据集之一。其设计旨在提升模型对长尾概念、文化多样性和多语言内容的理解能力。数据集通过网络爬取构建,保留了丰富的语言和文化多样性,支持多模态任务如图像分类、图像描述生成和视觉问答,广泛应用于人工智能研究、工程开发及教育领域。

StableAnimator

StableAnimator是一款由复旦大学、微软亚洲研究院、虎牙公司及卡内基梅隆大学联合开发的高质量身份保持视频生成框架。它能够根据参考图像和姿态序列,直接生成高保真度、身份一致的视频内容,无需后处理工具。框架集成了图像与面部嵌入计算、全局内容感知面部编码器、分布感知ID适配器以及Hamilton-Jacobi-Bellman方程优化技术,确保生成视频的流畅性和真实性。StableAnimato

Dreamlike.Art

Dreamlike.Art是一个免费的人工智能艺术生成器和创作工具,利用人工智能的力量,用户可以在几秒钟内创建令人惊叹的原创艺术。它提供图像升级、创建变化、修复面部等功能。

协和·太初

协和·太初是北京协和医院与中国科学院自动化研究所联合开发的国内首个罕见病AI大模型,基于中国人群基因数据和罕见病知识库构建。该模型采用极小样本冷启动技术,支持多轮交互问诊、辅助医生决策、病历书写与基因解读等功能,具备深度推理能力和可溯源知识库,有效抑制AI“幻觉”。通过临床使用与数据反馈形成闭环优化,持续提升诊疗能力,助力罕见病诊疗体系建设。

SANA 1.5

SANA 1.5是由英伟达联合多所高校研发的高效线性扩散变换器,专用于文本到图像生成任务。其核心优势包括高效的训练扩展、模型深度剪枝、推理时扩展等技术,能够在不同计算预算下灵活调整模型性能。支持多语言输入,并具备开源特性,适用于创意设计、影视制作、教育等多个领域。实验表明,其生成质量接近行业领先水平,同时显著降低计算成本。

Vidu 1.5

Vidu 1.5是一款基于多模态视频大模型的AI生成工具,支持参考生视频、图生视频和文生视频生成,通过精准的语义理解能力,在30秒内完成高质量视频创作,适用于影视、动漫、广告等多行业场景,助力创作者高效产出多样化内容。

AutoConsis

AutoConsis是一款基于深度学习和大型语言模型的UI内容一致性智能检测工具,能够自动识别和提取界面中的关键数据,并对数据一致性进行高效校验。它支持多业务场景适配,具备高泛化性和高置信度,广泛应用于电商、金融、旅游等多个领域,助力提升用户体验和系统可靠性。

Vidu Q1

Vidu Q1是清华大学朱军教授团队研发的高可控视频生成模型,支持1080p高清视频生成,具备精准音效控制、多主体一致性调节、局部超分重建等功能。在多项国际评测中表现优异,包括VBench和SuperCLUE榜单均获第一。模型基于扩散模型与U-ViT架构,融合文本、图像和视频信息,适用于影视制作、广告宣传及动画创作等领域。

MMBench

MMBench-Video是一个由多家高校和机构联合开发的长视频多题问答基准测试平台,旨在全面评估大型视觉语言模型(LVLMs)在视频理解方面的能力。平台包含约600个YouTube视频片段,覆盖16个类别,并配备高质量的人工标注问答对。通过自动化评估机制,MMBench-Video能够有效提升评估的精度和效率,为模型优化和学术研究提供重要支持。

Explorer

Explorer是一款由Odyssey公司研发的生成性世界模型,主要功能包括将图像转换为高质量的3D场景,并支持动态效果生成。它利用高斯溅射技术和先进的图像识别算法,实现逼真的视觉效果。Explorer生成的场景可无缝集成到主流创作软件中,广泛应用于电影、游戏开发、虚拟现实等领域,显著提升内容创作效率。