CodeElo CodeElo 是一款基于 Elo 评级系统的编程能力评估工具,用于衡量大型语言模型在编程竞赛中的表现。它从 CodeForces 平台选取题目,按难度和算法分类,并通过直接提交代码进行测试,确保评估的准确性。该工具可比较模型与人类程序员的水平,适用于模型优化、教学辅助及开发应用,为 LLMs 编程能力研究提供可靠参考。 AI项目与工具 2025年06月12日 71 点赞 0 评论 141 浏览
LalaEval LalaEval是由香港中文大学与货拉拉数据科学团队联合开发的针对特定领域大语言模型的人类评估框架。它提供了一套完整的端到端评估流程,涵盖领域界定、能力指标构建、评测集生成、标准制定及结果分析。通过争议度与评分波动分析,有效减少主观误差,提升评估质量。该工具已在物流领域成功应用,并具备良好的跨领域扩展性,适用于企业内部模型优化与多场景评测。 AI项目与工具 2025年06月12日 29 点赞 0 评论 420 浏览
PromptBench 一个基于 Pytorch 的 Python 包,用于评估和理解大型语言模型的统一库。它为研究人员提供了用户友好的 API,以便对 LLM 进行评估。 Ai提示指令 2025年06月05日 72 点赞 0 评论 288 浏览