Transformer架构

OpenCity

OpenCity是一个由香港大学联合华南理工大学和百度共同研发的交通预测模型。该模型采用了Transformer架构和图神经网络,通过大规模预训练学习交通数据中的时空依赖关系,具有卓越的零样本预测能力和快速情境适应能力。OpenCity能够有效处理不同空间区域和时间的城市交通模式,并具备良好的可扩展性。其应用场景包括交通流量预测、交通拥堵分析、公共交通优化以及智能交通信号控制等。

DINO

DINO-X是一款由IDEA研究院开发的通用视觉大模型,具备开放世界对象检测与理解的能力。它支持多种提示类型,无需用户额外输入即可识别图像中的任意对象,并在多个基准测试中刷新了性能记录。DINO-X拥有Pro和Edge两个版本,分别针对高性能需求和边缘设备优化。其应用范围涵盖自动驾驶、智能安防、工业检测及机器人视觉等领域,助力行业创新与发展。

豆包AI视频模型

豆包AI视频模型包括PixelDance和Seaweed两款工具,分别基于DiT和Transformer架构。PixelDance擅长处理复杂指令和多主体互动,适合制作情节丰富的短片;Seaweed支持多分辨率输出,生成高质量、高逼真的视频,适用于商业领域。两者均提供多样化的风格选择和输出格式,满足不同场景需求。 ---

FLOAT

FLOAT是一款基于音频驱动的虚拟人像生成模型,利用运动潜在空间和流匹配技术,实现时间一致性视频生成。它支持情感增强,生成自然且富有表现力的虚拟人物,广泛应用于虚拟主播、视频会议、社交媒体、游戏以及电影制作等多个领域,同时具备高效的采样和生成能力。

Flux.1 Lite

Flux.1 Lite是一款轻量级AI图像生成模型,基于Transformer架构,通过参数优化和精度保持技术,在减少内存占用的同时提升运行速度。其主要功能包括高质量图像生成、资源优化、快速部署及广泛适用性,适用于个人创作、教育、游戏开发、数字艺术以及广告营销等多个领域。

VideoPoet

VideoPoet是一款基于大模型的AI视频生成工具,支持从文本、图像或视频输入中合成高质量的视频内容及匹配的音频。其核心优势在于多模态大模型设计,能够处理和转换不同类型的输入信号,无需特定数据集或扩散模型即可实现多种风格和动作的视频输出。主要功能包括文本到视频转换、图像到视频动画、视频风格化、视频编辑和扩展、视频到音频转换以及多模态学习等。技术原理涉及多模态输入处理、解码器架构、预训练与任务适应

xLAM

xLAM 是 Salesforce 开源的一款大型语言模型,专为功能调用任务设计。该模型具备多语言支持、预训练模型、迁移学习、自然语言处理等主要功能,并基于 Transformer 架构实现。它在多个基准测试中表现出色,适用于自动化任务、模板共享、插件开发和教育等多个应用场景。

Veo

Veo是Google DeepMind开发的一款视频生成模型,用户可以通过文本、图像或视频提示来指导其生成所需的视频内容。Veo具备深入的自然语言理解能力,能够准确解析用户的文本提示,生成高质量、高分辨率的视频。其主要功能包括高分辨率视频输出、自然语言处理、风格适应性、创意控制与定制、遮罩编辑功能、参考图像与风格应用、视频片段的剪辑与扩展以及视觉连贯性。Veo技术目前仍处于实验阶段,但已在电影制作

Granite 3.1

Granite 3.1是IBM推出的一款先进语言模型,具备强大的上下文处理能力和多语言支持功能。其核心特性包括扩展至128K tokens的上下文窗口、全新嵌入模型以及功能调用幻觉检测能力。该模型适用于客户服务自动化、内容创作、企业搜索、语言翻译及合规性检查等多种应用场景。

OpenCoder

OpenCoder是一个开源代码大型语言模型(LLM),具备代码生成、审查、补全、错误调试等功能,支持多种编程语言,通过预训练、指令微调及优化策略提升性能,推动代码AI研究的透明化与可重复性,广泛应用于开发效率提升、代码质量保障及编程教育等领域。