高分辨率

LongLLaVA

LongLLaVA是由香港中文大学(深圳)研究团队开发的多模态大型语言模型,结合Mamba和Transformer模块,利用2D池化技术压缩图像token,大幅提升处理大规模图像数据的效率。该模型在视频理解、高分辨率图像分析及多模态代理任务中表现优异,特别擅长检索、计数和排序任务。其技术亮点包括渐进式训练策略和混合架构优化,支持多种多模态输入处理,广泛应用于视频分析、医学影像诊断、环境监测等领域。

GeneMAN

GeneMAN是一个基于多源数据训练的3D人形创建框架,能够从单张图像生成高保真度的3D人体模型。它无需依赖传统参数化模型,支持多样化的身体比例、服装和姿势,广泛应用于虚拟试衣、游戏开发、AR/VR、时尚设计及健身管理等领域。

GenCast

GenCast是一款基于扩散模型的AI气象预测工具,可提供长达15天的高精度全球天气预报,尤其擅长预测极端天气事件。它采用0.25°纬度-经度分辨率生成高精度集合预报,并通过并行计算在8分钟内完成预测。GenCast已开源,支持学术界和行业用户进一步研究与应用。

PaliGemma 2

PaliGemma 2是一款由Google DeepMind研发的视觉语言模型(VLM),结合了SigLIP-So400m视觉编码器与Gemma 2语言模型,支持多种分辨率的图像处理。该模型具备强大的知识迁移能力和出色的学术任务表现,在OCR、音乐乐谱识别以及医学图像报告生成等方面实现了技术突破。它能够处理多模态任务,包括图像字幕生成、视觉推理等,并支持量化和CPU推理以提高计算效率。

NVILA

NVILA是一款由NVIDIA开发的视觉语言模型,通过“扩展-压缩”策略优化处理高分辨率图像和长视频,兼具效率与准确性。它在图像和视频基准测试中表现优异,支持时间定位、机器人导航和医疗成像等应用场景,并通过参数高效微调和量化技术提升模型性能。未来将在GitHub和HuggingFace平台上开源。

SnapGen

SnapGen是一款由Snap Inc、香港科技大学和墨尔本大学联合开发的文本到图像扩散模型,专为移动设备设计,支持在1.4秒内生成1024×1024像素的高分辨率图像。它通过优化网络架构、跨架构知识蒸馏和对抗性训练等技术,在保持小模型规模的同时,提供了高质量的图像生成能力,适用于社交媒体、移动应用、教育、新闻等多个领域。

Veo 2

Veo 2 是一款由 Google DeepMind 开发的 AI 视频生成工具,支持高达 4K 分辨率,可生成高质量视频并模拟物理现象及人类表情。它具备修复、外扩、插值等功能,广泛应用于电影制作、虚拟旅游、教育视频等领域,具有高精度和安全性。

MV

MV-Adapter是一款基于文本到图像扩散模型的多视图一致图像生成工具,通过创新的注意力机制和条件编码器,实现了高分辨率多视角图像生成。其核心功能包括多视图图像生成、适配定制模型、3D模型重建以及高质量3D贴图生成,适用于2D/3D内容创作、虚拟现实、自动驾驶等多个领域。

CLEAR

CLEAR是一种由新加坡国立大学推出的新型线性注意力机制,能够有效提升预训练扩散变换器生成高分辨率图像的效率。该机制通过局部注意力窗口和知识蒸馏技术,实现了线性复杂度,显著减少了计算量和时间延迟,同时保持了高质量的图像生成效果。CLEAR还支持跨模型泛化、多GPU并行推理以及稀疏注意力优化,广泛适用于数字媒体创作、虚拟现实、游戏开发等多个领域。

Seaweed APT

Seaweed APT是字节跳动研发的对抗性后训练模型,支持图像和视频的一站式生成。其通过在真实数据上进行对抗性训练,实现单步高质量输出,包括1024px图像和1280×720、24fps视频。该模型采用先进的生成器和判别器设计,结合近似R1正则化技术,提升训练稳定性和生成质量。适用于视频广告、影视创作、社交媒体等内容生产场景。