机器学习

FunGPT

FunGPT 是一款基于 InternLM2.5 大模型开发的开源工具,专注于情感互动与情绪调节。它包含“甜言蜜语模式”和“犀利怼语模式”,分别用于提升用户情绪和释放压力。项目采用轻量化模型与 AWQ 量化技术,兼顾性能与效率。适用于创意启发、娱乐互动等多种场景,适合对情感交互感兴趣的开发者和用户。

FlowGram

FlowGram是字节跳动推出的可视化工作流搭建引擎,支持固定与自由布局,适用于流程管理、算法设计、教学演示等多种场景。具备智能建议、风险预测、文档生成等AI功能,支持导出图片或代码。技术上采用ECS架构、Web Worker优化与智能缓存,确保高效稳定运行,适合开发者进行流程构建与扩展。

Scenethesis

Scenethesis是NVIDIA推出的AI框架,可通过文本生成高质量的3D场景。它结合LLM与视觉技术,经过布局规划、视觉细化、物理优化和场景验证四个阶段,确保生成结果具备物理合理性和空间连贯性。支持用户交互与多样化场景构建,广泛应用于VR/AR、游戏开发、具身智能及虚拟内容创作等领域。

LegoGPT

LegoGPT是一款由卡内基梅隆大学开发的AI工具,可根据文本描述生成稳定、可组装的乐高积木模型。它结合自回归语言模型与大规模数据集,支持自动纹理上色、物理稳定性验证及手动或机器人组装。该工具能有效提升创意设计效率,适用于教育、玩具开发及自动化生产等多个场景。

Seed1.5

Seed1.5-Embedding 是由字节跳动推出的高性能向量模型,基于 Seed1.5 训练优化,具有强大的语义编码和检索能力。模型采用 Siamese 双塔结构,支持多种向量维度,并通过两阶段训练提升表征能力。它适用于信息检索、文本分类、推荐系统、聚类分析等多种任务,尤其在复杂查询和推理任务中表现突出,具备良好的灵活性和可扩展性。

ViLAMP

ViLAMP是由蚂蚁集团与中国人民大学联合开发的视觉语言模型,专为高效处理长视频设计。采用混合精度策略,支持在单张A100 GPU上处理长达3小时的视频,提升处理效率并降低计算成本。具备长视频理解、关键信息提取、多任务处理等功能,适用于教育、监控、直播、影视制作及智能客服等场景。技术上通过差分关键帧选择与特征合并优化性能,实现精准且高效的视频分析。

StreamBridge

StreamBridge是一款由苹果与复旦大学联合开发的端侧视频大语言模型框架,支持实时视频流的理解与交互。通过内存缓冲区和轮次衰减压缩策略,实现长上下文处理与主动响应。项目配套发布Stream-IT数据集,包含60万样本,适用于多种视频理解任务,展现出在视频交互、自动驾驶、智能监控等领域的应用前景。

DanceGRPO

DanceGRPO 是由字节跳动与香港大学联合开发的视觉生成强化学习框架,支持文本到图像、文本到视频、图像到视频等多种任务,兼容多种生成模型与奖励机制。其通过强化学习优化生成过程,提升视觉内容质量与一致性,降低显存压力,提高训练效率与稳定性,适用于视频生成和多模态内容创作。

MCP Course

MCP Course是Hugging Face推出的免费开源课程,专注于教授如何利用模型上下文协议(MCP)构建具有上下文感知能力的AI应用。课程涵盖理论学习、实践操作、用例训练和行业合作等内容,适合不同层次的开发者。学员可获得认证,提升在AI系统集成方面的专业能力。课程内容结构清晰,注重实际应用,助力开发者掌握MCP技术并应用于真实场景。

Jodi

Jodi是由中国科学院计算技术研究所和中国科学院大学推出的扩散模型框架,基于联合建模图像域和多个标签域,实现视觉生成与理解的统一。它支持联合生成、可控生成和图像感知三种任务,利用线性扩散Transformer和角色切换机制,提升生成效率和跨领域一致性。Jodi使用Joint-1.6M数据集进行训练,包含20万张高质量图像和7个视觉域标签,适用于创意内容生成、多模态数据增强、图像编辑与修复等场景。