评估

咕噜口语SpeakGuru

SpeakGuru是一款由清华团队开发的AI口语练习工具,通过与虚拟人物对话提升英语口语能力。支持中文辅助、语法优化、发音评估等功能,涵盖100+真实场景,适配不同英语水平用户。内置错题本、词汇统计、个性化学习计划等模块,帮助用户全面掌握学习进度。已接入DeepSeek R1模型,提升智能化学习体验。

MMSearch

MMSearch 是一款用于评估大型多模态模型(LMMs)搜索能力的基准测试工具,包含 MMSearch-Engine 框架和 MMSearch 测试集。其核心功能包括问题重构、网页排序和答案总结,通过多模态搜索能力评估提升 LMMs 的性能。实验结果显示 GPT-4o 在该测试中表现优异,且增加计算量比扩大模型规模更具优势。

VSI

VSI-Bench是一种用于评估多模态大型语言模型(MLLMs)视觉空间智能的基准测试工具,包含超过5000个问题-答案对,覆盖多种真实室内场景视频。其任务类型包括配置型任务、测量估计和时空任务,可全面评估模型的空间认知、理解和记忆能力,并提供标准化的测试集用于模型性能对比。 ---

沃研Turbo大模型

沃恩智慧公司专为大学生设计的科研大模型,有期刊推荐、文献摘要、论文精读、翻译润色、创新点评估、个性化论文推荐以及AI降重等功能。

微点智能考试系统

高效有趣的智能考试系统,用人工智能将任何内容变成有趣的考试,让企业组织的信息传递和培训学习更高效。

MMBench

MMBench-Video是一个由多家高校和机构联合开发的长视频多题问答基准测试平台,旨在全面评估大型视觉语言模型(LVLMs)在视频理解方面的能力。平台包含约600个YouTube视频片段,覆盖16个类别,并配备高质量的人工标注问答对。通过自动化评估机制,MMBench-Video能够有效提升评估的精度和效率,为模型优化和学术研究提供重要支持。

WiS

WiS是一个基于“谁是卧底”游戏规则的在线AI竞赛平台,专为评估和分析大型语言模型(LLMs)在多智能体系统中的行为而设计。平台提供统一的模型评估接口、实时排行榜、全面的行为评估功能以及详尽的数据可视化支持,旨在为研究人员和开发者提供一个直观且高效的工具,用于测试和优化智能体在复杂交互环境中的表现。

Crawl4LLM

Crawl4LLM是由清华与CMU联合开发的智能爬虫系统,通过评估网页对大语言模型预训练的价值,提升数据获取效率。支持多种爬取模式,具备状态保存、数据可视化功能,并与DCLM框架兼容。采用多维度评分机制优化爬取策略,减少低价值内容抓取,降低对网站负担,适用于LLM预训练、数据集构建等场景。

天目

天目是一款由人民网开发的AI内容检测工具,能够准确识别文本中由人工智能生成的内容,准确率达到93%。该工具支持DOC和TXT格式文件,能够处理高达10万字的文本。它通过高亮显示AI生成的句段,并生成PDF格式的检测报告,方便用户查阅和分享。同时,天目承诺不保存任何用户数据,确保用户数据的安全与隐私。

Screenify

Screenify是一款AI驱动的面试工具,帮助企业优化招聘流程。通过自动化面试创建、智能评估和远程面试功能,提升筛选效率与公平性。支持多语言、个性化配置及与ATS系统集成,提供详细反馈和分析,助力企业精准选才。