场景

GenAI_Agents

一个专注于生成式AI Agents技术的开源项目,GenAI_Agents提供从基础到高级的教程与实现代码,帮助开发者学习并构建智能、交互式的AI系统。

T2I

T2I-R1是由香港中文大学与上海AI Lab联合开发的文本到图像生成模型,采用双层推理机制(语义级和 Token 级 CoT),实现高质量图像生成与复杂场景理解。其基于 BiCoT-GRPO 强化学习框架,结合多专家奖励模型,提升生成图像的多样性和稳定性。适用于创意设计、内容制作、教育辅助等多个领域,具有广泛的应用潜力。

悟道大模型

北京智源研究院开发的一系列超大规模智能模型系统,悟道大模型旨在在语言处理领域达到或超越国际先进水平。

咕噜口语SpeakGuru

SpeakGuru是一款由清华团队开发的AI口语练习工具,通过与虚拟人物对话提升英语口语能力。支持中文辅助、语法优化、发音评估等功能,涵盖100+真实场景,适配不同英语水平用户。内置错题本、词汇统计、个性化学习计划等模块,帮助用户全面掌握学习进度。已接入DeepSeek R1模型,提升智能化学习体验。

KaChiKa

KaChiKa是一款基于AI图像识别的日语学习工具,用户可通过拍照或上传图片获取相关日语词汇和句子,并配有标准发音功能。支持本地存储学习卡片,方便复习,适用于日常生活、旅行、复习及语言实践等多种场景,提升学习效率与实用性。

viable

在不影响质量的情况下,使你...

LucidDreamer

LucidDreamer,可以从单个图像的单个文本提示中生成可导航的3D场景。 单击并拖动(导航)/移动和滚动(缩放)以感受3D。

Emotion

Emotion-LLaMA是一款基于多模态输入的情绪识别与推理模型,结合音频、视觉和文本信息,提升情感理解的准确性与可解释性。模型采用改进版LLaMA架构,通过指令调整增强情感处理能力,并依托自建的MERR数据集进行训练与验证。在多个挑战赛中表现优异,适用于人机交互、教育、心理健康、客户服务等领域,具有广泛的应用前景。

VideoPhy

VideoPhy是一款由UCLA和谷歌研究院联合开发的基准测试工具,旨在评估视频生成模型的物理常识能力。它包含688条描述性字幕,通过人类和自动评估方式,衡量生成视频是否符合物理规则。VideoPhy不仅揭示了现有模型的不足,还推出了自动评估工具VideoCon-Physics,以推动模型性能的提升。其应用场景广泛,包括视频生成模型开发、计算机视觉研究、教育与培训以及娱乐产业等。