训练

Tarsier2

Tarsier2是字节跳动研发的大规模视觉语言模型,擅长生成高精度视频描述并在多项视频理解任务中表现优异。其核心技术包括大规模数据预训练、细粒度时间对齐微调以及直接偏好优化(DPO)。该模型在视频问答、定位、幻觉检测及具身问答等任务中均取得领先成绩,支持多语言处理,具有广泛的应用潜力。

Sync Labs

Sync Labs是一款基于AI技术的视频配音工具,其主要功能是实现实时唇形同步,支持多种语言。该工具无需用户进行额外的训练,通过简单的界面操作即可实现音频与视频的完美匹配。它适用于电影、播客、游戏和广告等多种视频内容制作,同时提供了开放API,方便集成到各类应用和服务中。

Liquid

Liquid是由华中科技大学、字节跳动和香港大学联合开发的多模态生成框架,通过VQGAN将图像编码为离散视觉token并与文本共享词汇空间,使大型语言模型无需修改结构即可处理视觉任务。该框架降低训练成本,提升视觉生成与理解性能,并在多模态任务中表现出色。支持图像生成、视觉问答、多模态融合等应用,适用于创意设计、内容创作及智能交互等领域。

VideoVAE+

VideoVAE+是一种由香港科技大学研发的跨模态视频变分自编码器,具备时空分离压缩和文本指导功能。它通过分离空间与时间信息处理,有效减少运动伪影,同时利用文本嵌入增强细节重建能力。VideoVAE+在视频重建质量上超越现有模型,支持高保真与跨模态重建,适用于视频压缩、影视后期制作及在线教育等多个领域。

AReaL

AReaL-boba 是由蚂蚁技术研究院与清华大学联合推出的开源强化学习训练框架,具备高效训练、推理能力提升、低资源训练等核心功能。其 7B 模型在数学推理任务中表现突出,且支持大规模模型的低成本复现。框架集成 SGLang 推理系统,采用数据蒸馏与工程优化技术,提升训练效率。适用于教育、自然语言处理、智能体开发等领域,具有高度可复现性和开源特性。

ModelEngine

ModelEngine 是华为开源的全流程 AI 开发工具链,涵盖数据处理、模型训练与应用开发三大核心模块。支持多模态数据清洗、知识向量化及模型推理,提供低代码编排和 RAG 框架,适用于医疗、金融、制造等领域的 AI 应用开发与行业化落地。

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

smoltalk

Smoltalk-Chinese 是 OpenCSG 开发的中文大型语言模型专用合成数据集,包含 70 多万条高质量数据,涵盖多种任务类型,如信息查询、编程、数学、创意写作等。数据通过先进模型生成并经过严格筛选和去重,确保多样性与质量,适用于模型微调和多场景应用,提升语言理解和生成能力。

悟道·天鹰(Aquila)

悟道·天鹰(Aquila)是智源研究院开源的中英双语语言大模型,具备强大的语言理解和生成能力。模型在设计上注重商用和数据合规性,同时提供持续的开源更新和技术支持。