AI项目与工具

JoyGen

JoyGen是由京东科技与香港大学联合开发的音频驱动型3D说话人脸视频生成框架,能够实现唇部动作与音频信号的精准同步,并提供高质量的视觉效果。该工具采用单步UNet架构进行高效视频编辑,基于130小时中文视频数据集训练,在唇音同步和视觉质量方面表现优异。适用于虚拟主播、动画制作、在线教育及多语言视频生成等多个领域,为视频内容创作提供了创新解决方案。

Seede.ai

Seede.ai 是一款AI驱动的图像设计工具,支持通过文字描述或参考图片生成设计,提供智能压缩、背景移除、图像放大等免费图像处理功能,并结合AI辅助优化,帮助用户快速制作专业级设计作品,适用于社交媒体、广告、电商、艺术创作等多个场景。

EMAGE

EMAGE是一款基于音频输入生成全身手势的AI框架,可同步生成面部表情、肢体动作及整体运动。通过掩蔽音频手势变换器和多模块VQ-VAE建模,实现高质量、多样化的手势生成。适用于虚拟现实、动画制作、数字人交互等领域,提升虚拟角色表现力与交互自然度。

LIMO

LIMO是由上海交通大学研发的一种高效推理方法,通过少量高质量训练样本激活大语言模型的复杂推理能力。其核心假设是“少即是多推理假设”,即在预训练阶段已具备丰富知识的模型中,复杂推理能力可通过精心设计的样本被有效激发。LIMO在多个数学推理基准测试中表现优异,且数据使用效率极高,仅需1%的数据即可达到显著效果。适用于教育、科研、工业和医疗等多个领域。

SANA 1.5

SANA 1.5是由英伟达联合多所高校研发的高效线性扩散变换器,专用于文本到图像生成任务。其核心优势包括高效的训练扩展、模型深度剪枝、推理时扩展等技术,能够在不同计算预算下灵活调整模型性能。支持多语言输入,并具备开源特性,适用于创意设计、影视制作、教育等多个领域。实验表明,其生成质量接近行业领先水平,同时显著降低计算成本。

ASAP

ASAP是一种由卡内基梅隆大学与英伟达联合开发的两阶段框架,用于解决仿人机器人在模拟与现实之间动力学不匹配的问题。它通过预训练阶段在模拟环境中学习运动策略,并在后训练阶段利用真实数据训练Delta动作模型,补偿动力学差异。该框架提高了机器人在复杂任务中的敏捷性、协调性和运动精度,支持多种应用场景,如体育、救援、工业、家庭服务及虚拟现实等,为仿人机器人的实际应用提供了高效的技术方案。

MAETok

MAETok是一种基于掩码建模的图像标记化方法,通过自编码器结构学习更具语义丰富性的潜在空间,提升图像生成质量与训练效率。它支持高分辨率图像生成,具备多特征预测能力和灵活的潜在空间设计,适用于娱乐、数字营销、计算机视觉等多个领域。实验表明其在ImageNet数据集上表现优异。

ArcaNotes

ArcaNotes是一款AI驱动的笔记管理工具,支持快速输入、智能分类与自然语言交互。通过实时主题推荐、自动标签生成和智能问答功能,提升信息整理与检索效率。支持多平台使用,具备本地加密存储与知识图谱构建能力,适用于个人知识管理、研究项目及创意工作场景。

Eino

Eino是由字节跳动开源的大模型应用开发框架,采用Go语言构建,具备组件化设计、图编排引擎、流式处理和回调机制等功能,支持高效构建复杂AI应用。其可视化开发工具EinoDev降低了开发门槛,适用于智能客服、知识管理、内容创作等多种场景,具备高扩展性和良好的性能表现。

NutWorld

NutWorld是由新加坡国立大学、南洋理工大学与Skywork AI联合开发的视频处理框架,能够高效地将单目视频转换为动态3D高斯表示(Gaussian Splatting)。它基于时空对齐高斯(STAG)表示法,实现视频的时空连贯建模,支持高保真视频重建和多种下游任务,如新视图合成、视频编辑、帧插值和深度预测。该工具具备实时处理能力,适用于视频创作、AR/VR、自动驾驶等多个领域。