Transformer

Veo 2

Veo 2 是一款由 Google DeepMind 开发的 AI 视频生成工具,支持高达 4K 分辨率,可生成高质量视频并模拟物理现象及人类表情。它具备修复、外扩、插值等功能,广泛应用于电影制作、虚拟旅游、教育视频等领域,具有高精度和安全性。

Bocha Semantic Reranker

Bocha Semantic Reranker是一款基于语义的排序模型,用于提升搜索和问答系统的准确性。它通过二次优化初步排序结果,评估查询与文档的语义相关性,并为文档分配语义得分。该工具支持多种语言模型,适用于搜索引擎优化、问答系统、推荐系统和智能客服等领域,旨在改善用户体验并提高系统效率。

LatentLM

LatentLM是一款由微软与清华大学合作开发的多模态生成模型,能够统一处理文本、图像、音频等多种数据类型。它基于变分自编码器(VAE)和因果Transformer架构,支持自回归生成与跨模态信息共享,特别擅长图像生成、多模态语言模型及文本到语音合成等任务,其提出的σ-VAE进一步提升了模型的鲁棒性。

Granite 3.1

Granite 3.1是IBM推出的一款先进语言模型,具备强大的上下文处理能力和多语言支持功能。其核心特性包括扩展至128K tokens的上下文窗口、全新嵌入模型以及功能调用幻觉检测能力。该模型适用于客户服务自动化、内容创作、企业搜索、语言翻译及合规性检查等多种应用场景。

Diff

Diff-Instruct是一种基于积分Kullback-Leibler散度的知识迁移方法,用于从预训练扩散模型中提取知识并指导生成模型的训练。它能够在无需额外数据的情况下,通过最小化IKL散度提升生成模型的性能。Diff-Instruct适用于多种场景,包括预训练扩散模型的蒸馏、现有GAN模型的优化以及视频生成等。

ModernBERT

ModernBERT是一种基于Transformer架构的新型编码器-only模型,是对经典BERT模型的深度优化版本。它通过在大规模数据集上的训练,提升了对长上下文的理解能力,并在信息检索、文本分类、实体识别等多个自然语言处理任务中展现出卓越性能。此外,ModernBERT在速度和资源效率方面均有显著改进,适合应用于多个领域。

Large Motion Model

Large Motion Model(LMM)是一款由新加坡南洋理工大学S-Lab和商汤科技合作研发的多模态运动生成框架。它支持从文本、音乐等多种模态生成逼真运动序列,具备高度精准的身体部位控制能力和强大的泛化能力。通过整合多样化的MotionVerse数据集以及创新性的ArtAttention机制和预训练策略,LMM在多个领域展现出高效的应用潜力,包括动画、虚拟现实、影视特效及运动分析等。

Memory Layers

Memory Layers是一种由Meta研发的技术,通过引入可训练的键值查找机制,为模型增加了额外参数而不增加计算负担。它通过稀疏激活模式补充计算密集型前馈层,显著提升了模型在事实性任务中的表现,同时增强了模型的记忆与知识获取能力。Memory Layers的核心优势在于其高效的信息存储与检索机制,并且在问答、语言模型、推荐系统、知识图谱及对话系统等场景中具有广泛应用前景。

PsycoLLM

PsycoLLM是由合肥工业大学研发的中文心理大模型,基于高质量心理数据集训练,具备精准理解心理问题、多轮对话交互、情绪识别与支持、心理健康评估等功能。其技术融合了多步数据优化、监督微调和Transformer架构,适用于个人心理支持、心理咨询、教育及社区服务等场景,为心理健康领域提供专业、高效的技术解决方案。

Seer

Seer是一款由多家科研机构联合开发的端到端机器人操作模型,基于Transformer架构实现视觉预测与动作执行的高度协同。它能够融合多模态信息,具备强大的泛化能力和数据效率,在真实机器人任务中表现优异。Seer适用于工业自动化、服务机器人、医疗健康等多个领域,支持精准动作预测和未来状态预判,显著提升了机器人系统的智能化水平。