多任务学习

Seed1.5

Seed1.5-Embedding 是由字节跳动推出的高性能向量模型,基于 Seed1.5 训练优化,具有强大的语义编码和检索能力。模型采用 Siamese 双塔结构,支持多种向量维度,并通过两阶段训练提升表征能力。它适用于信息检索、文本分类、推荐系统、聚类分析等多种任务,尤其在复杂查询和推理任务中表现突出,具备良好的灵活性和可扩展性。

VPP

VPP(Video Prediction Policy)是清华大学与星动纪元联合开发的AIGC机器人模型,基于视频扩散模型实现未来场景预测与动作生成。支持高频预测与跨机器人本体学习,显著降低对真实数据的依赖。在复杂任务中表现出色,适用于家庭、工业、医疗、教育等多个领域。其开源特性推动了具身智能机器人技术的发展。

Aether

Aether是由上海AI Lab开发的生成式世界模型,基于合成数据训练,具备4D动态重建、动作条件视频预测和目标导向视觉规划等核心功能。它通过三维时空建模和多任务协同优化,实现对环境的精准感知与智能决策,具有出色的零样本泛化能力,适用于机器人导航、自动驾驶、虚拟现实等多个领域。

ObjectMover

ObjectMover是由香港大学与Adobe Research联合开发的图像编辑模型,专注于解决物体移动、插入和移除过程中的光影协调问题。通过视频先验迁移和序列到序列建模技术,实现对光照、阴影和遮挡关系的精准控制。支持多任务学习,提升模型在真实场景中的适应性。广泛应用于特效制作、虚拟场景编辑、游戏开发等领域,具备高效、真实的图像编辑能力。

TxGemma

TxGemma 是由谷歌开发的药物发现人工智能模型,基于 Gemma 框架构建,支持化学结构解析、药物特性预测及多任务处理。具备对话功能,可解释预测逻辑,并支持多种参数版本以适配不同需求。适用于靶点识别、药物设计、治疗优化等多个场景,助力药物研发效率提升。

OSUM

OSUM是一款由西北工业大学研发的开源语音理解模型,结合Whisper编码器与Qwen2 LLM,支持语音识别、情感分析、说话者性别分类等多种任务。采用“ASR+X”多任务训练策略,提升模型泛化能力和稳定性。基于约5万小时语音数据训练,性能优异,适用于智能客服、教育、心理健康监测等多个领域。

SynthLight

SynthLight是由耶鲁大学与Adobe Research联合开发的基于扩散模型的人像重照明工具,通过物理渲染引擎生成合成数据并结合多任务训练策略,实现高质量的光照效果生成。它能够根据环境光照图重新渲染人像,生成自然的高光、阴影和漫反射效果,并适用于摄影后期、虚拟场景、游戏开发及广告设计等多个领域,具备良好的泛化能力和实用性。

NMT

NMT是一种由UC Berkeley和阿里巴巴联合开发的多任务学习框架,通过将多任务优化问题转化为约束优化问题,实现高优先级任务性能的保障。它基于拉格朗日乘数法,结合梯度下降与上升算法,简化了超参数调整流程,提高了模型训练效率和稳定性。NMT适用于推荐系统、搜索引擎、自然语言处理和金融风控等多个领域,具有良好的兼容性和扩展性。

DreamOmni

DreamOmni是一款由香港中文大学、字节跳动与香港科技大学联合研发的统一图像生成与编辑模型。它集成了文本到图像生成(T2I)及多种编辑功能,包括指令式编辑、修复、拖拽编辑和参考图像生成。DreamOmni利用合成数据管道高效生成高质量编辑数据,并通过联合训练提升图像生成与编辑质量。该模型在多任务处理、复杂提示兼容性及训练效率优化上表现优异,适用于数字艺术、影视特效、广告设计等多个领域。

Time

Time-MoE是一种基于混合专家架构的时间序列预测模型,通过稀疏激活机制提高计算效率并降低成本。该模型支持任意长度的输入和输出,能够在多个领域实现高精度的时序预测。经过大规模数据集Time-300B的预训练,Time-MoE展现出卓越的泛化能力和多任务适应性,广泛应用于能源管理、金融预测、电商销量分析、气象预报以及交通规划等领域。