模型

ChatTS

ChatTS-14B 是一款由字节跳动开发的大型语言模型,专为时间序列数据的理解与推理设计,具备 140 亿参数规模。通过合成数据对齐技术提升任务表现,支持自然语言交互,可应用于金融、气象、工业、医疗和运维等多个场景,提供数据分析、预测与诊断功能。模型已开源,便于开发者使用和扩展。

MedRAG

MedRAG是由南洋理工大学研发的医学诊断模型,结合知识图谱与大语言模型(LLM),提升医学诊断的精准度与效率。该模型构建了四层细粒度知识图谱,支持多模态输入,具备主动补问机制,能有效补充患者信息,提升诊断准确性。在真实数据集上,其诊断准确率提升了11.32%。MedRAG可应用于急诊、慢病管理、医学教育等多个领域,为医疗决策提供科学依据。

Motion Prompting

Motion Prompting 是一种利用点轨迹表示的视频生成技术,支持对象控制、相机控制及物理现象模拟等功能。它通过将用户输入转化为详细的运动轨迹,结合预训练的视频扩散模型与控制网络,在保持灵活性的同时提高生成质量。这项技术广泛应用于电影制作、游戏开发、虚拟现实等领域,为用户提供了强大的交互式视频生成工具。 ---

TransPixar

TransPixar是由多所高校及研究机构联合开发的开源文本到视频生成工具,基于扩散变换器(DiT)架构,支持生成包含透明度信息的RGBA视频。该技术通过alpha通道生成、LoRA微调和注意力机制优化,实现高质量、多样化的视频内容生成。适用于影视特效、广告制作、教育演示及虚拟现实等多个领域,为视觉内容创作提供高效解决方案。

紫东太初 – 多模态大模型

“紫东太初”平台展现了中国科学院自动化研究所在人工智能领域的深厚实力。它不仅具备强大的多模态处理能力,还通过自监督学习和跨模态语义关联技术,为广泛的AI应用提供了坚实的模...

Google AI Edge Gallery

Google AI Edge Gallery 是谷歌推出的实验性应用,支持在 Android 设备上本地运行机器学习和生成式人工智能模型,无需联网。用户可切换不同模型,进行图像问答、文本生成、多轮对话等操作,并实时查看性能指标。应用支持自带模型测试,提供丰富的开发者资源,助力探索设备端 AI 的强大功能。

EliGen

EliGen是由浙江大学与阿里巴巴集团联合开发的实体级可控图像生成框架,采用区域注意力机制实现对图像中实体的精确控制,支持多实体修复、风格化生成及交互式编辑。基于50万高质量注释样本训练,具备强大泛化能力,适用于虚拟场景、角色设计、数据合成及产品展示等场景。

SigLIP 2

SigLIP 2 是 Google DeepMind 开发的多语言视觉-语言模型,具有强大的图像与文本对齐能力。它支持多种语言输入,具备零样本分类、图像-文本检索等功能,并通过 Sigmoid 损失函数和自监督学习技术提升训练效率与模型性能。其支持多种分辨率的变体,适用于文档理解、视觉问答及开放词汇任务。该模型基于 Vision Transformer 架构,具备良好的兼容性。

元象大模型XChat

元象大模型XChat是元象XVERSE推出的高性能AI产品,它通过自研技术,能够满足不同复杂度任务的需求,并在中文领域表现突出。