解释性

LOKI

LOKI是一个由中山大学与上海AI实验室联合推出的合成数据检测基准,用于评估大型多模态模型在识别视频、图像、3D模型、文本及音频等多模态合成数据方面的性能。它包含超过18,000个问题,涵盖26个子类别,支持多层次标注和细粒度异常注释,并通过自然语言解释增强模型的可解释性。LOKI还通过对比多种开源和闭源模型的表现,揭示了这些模型在合成数据检测任务中的优势与不足。

FakeShield

FakeShield是一款由北京大学研发的多模态大型语言模型框架,主要用于检测和定位图像篡改。它通过结合视觉与文本信息,生成篡改区域掩码并提供详细的判断依据。其核心模块包括领域标签引导的检测模块和多模态定位模块,支持多种篡改技术的分析,具有较高的准确性与可解释性。FakeShield广泛应用于社交媒体内容审核、法律取证、新闻媒体真实性验证以及版权保护等领域。

Fast GraphRAG

Fast GraphRAG是微软推出的一款高效知识图谱检索框架,结合了RAG技术和知识图谱,用于提升大型语言模型在处理私有数据和复杂数据集时的表现。它具备可解释性、高精度、动态数据支持及实时更新能力,适用于多种应用场景如智能问答、企业知识管理、个性化推荐、医疗健康信息检索以及金融分析等领域。

Gemini 2.0 Flash Thinking

Gemini 2.0 Flash Thinking 是谷歌发布的一款推理增强型AI模型,具有高达百万tokens的长上下文窗口、可解释的推理过程、代码执行功能及多模态处理能力。它能够有效减少推理矛盾,提升输出结果的可靠性和一致性,广泛适用于教育、科研、内容创作、客户服务以及数据分析等多个领域。

DRT

DRT-o1是一套由腾讯研究院开发的基于长链思考推理(CoT)技术的AI翻译模型,专门针对文学作品翻译设计,尤其擅长处理比喻和隐喻等复杂修辞手法。模型通过多智能体框架和迭代优化机制,显著提升了翻译质量和效率,同时具备强大的复杂语言结构处理能力。DRT-o1已在多个应用场景中展现出广泛潜力,包括文学翻译、跨文化交流、教育辅助以及多语言内容创作等领域。

AutoRAG

AutoRAG是一款由中科院相关机构研发的自主迭代检索模型,专为大型语言模型设计,通过多轮对话实现检索规划与查询细化,具备动态调整迭代次数、增强可解释性的特点。它在复杂任务处理方面表现出色,支持智能问答、学术研究、市场分析、在线教育及客户服务等多样化应用场景。 ---

MVoT

MVoT是一种多模态推理框架,通过生成图像形式的推理痕迹,增强多模态大语言模型在复杂空间推理任务中的表现。其核心技术包括多模态推理范式、token discrepancy loss以及递归生成机制,有效提升推理准确性和可解释性。该工具适用于机器人导航、自动驾驶、智能教育、医疗影像分析及VR/AR交互等多个领域,具有广泛的应用潜力。

AxBench

AxBench是斯坦福大学推出的语言模型可解释性评估框架,支持概念检测与模型转向任务。它通过合成数据生成训练集,评估模型对特定概念的识别能力和干预后的表现。提供统一的评估平台,支持多种控制方法,如提示、微调和稀疏自编码器,并采用多维评分机制,适用于AI安全、伦理及内容生成等场景。

Claude2

Claude是Anthropic公司开发的一系列人工智能模型。这些模型使用了Transformer架构,并通过无监督学习、人类反馈强化学习(RLHF)进行训练。Claude模型可以理解和生成人类语言,用于各种任务,如回答问题、写作、编辑和编程。

Transformer Debugger

Transformer Debugger (TDB) 是一款由OpenAI的对齐团队开发的工具,用于帮助研究人员和开发者理解和分析Transformer模型的内部结构和行为。它提供了无需编程即可探索模型结构的能力,并具备前向传递干预、组件级分析、自动生成解释、可视化界面及后端支持等功能。TDB 支持多种模型和数据集,包括GPT-2模型及其自动编码器。