自然语言

Transformer Debugger

Transformer Debugger (TDB) 是一款由OpenAI的对齐团队开发的工具,用于帮助研究人员和开发者理解和分析Transformer模型的内部结构和行为。它提供了无需编程即可探索模型结构的能力,并具备前向传递干预、组件级分析、自动生成解释、可视化界面及后端支持等功能。TDB 支持多种模型和数据集,包括GPT-2模型及其自动编码器。

乾元BigBangTransformer

BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

MemoryScope

MemoryScope 是一款面向大型语言模型的长期记忆系统,通过向量数据库存储记忆片段,支持记忆检索、巩固及反思等核心功能。它具备时间感知能力,能提供个性化的交互体验,广泛应用于个人助理、情感陪伴、客户服务、教育辅导和健康咨询等领域。

Claude Computer Use

Claude Computer Use 是 Anthropic 公司推出的 AI 辅助工具,利用自然语言指令驱动 AI 模型执行计算机操作,包括屏幕阅读、文本输入、文件管理、网页浏览及软件操作等功能。该工具支持自动化脚本执行和代码编写调试,广泛适用于软件开发、数据处理、客户服务、教育等领域,具有高度智能化和灵活性的特点。

Aria

Aria是首个开源多模态原生混合专家(MoE)模型,支持文本、代码、图像和视频的综合处理,具有强大的多模态任务处理能力和长上下文窗口,可高效应对复杂长数据。模型开源且可扩展,适用于多模态AI领域的研究与应用。

ChildMandarin

ChildMandarin是由智源研究院与南开大学合作开发的3-5岁儿童普通话语音数据集,包含41.25小时高质量语音,覆盖全国22个省市。数据通过家长引导式对话采集,保证自然真实。该数据集支持语音识别、说话人验证和语言研究,适用于儿童语言学习、教育系统、智能玩具和语音助手优化等领域,为儿童语音技术研究提供重要资源。

DuoAttention

DuoAttention是由MIT韩松团队提出的新型框架,通过区分“检索头”和“流式头”两种注意力机制,显著提升了大型语言模型在处理长上下文时的推理效率。该框架有效减少了内存占用,加速了解码和预填充过程,并保持了模型的准确性。它适用于多轮对话、长文档处理、学术研究以及内容推荐等多个领域。

Adobe Firefly

Adobe Firefly 是 Adobe 开发的一系列生成式 AI 工具,支持图像生成、编辑、视频生成及编辑等功能。它通过深度学习算法和自然语言处理技术,实现从文本到图像或视频的快速转化,同时支持多语言操作,适用于创意设计、视频制作、企业内容生产等多个场景,助力用户提升工作效率与创意表达能力。