一个全面评估大模型中文能力的基准应用,涵盖多项专业领域测试,详见《CMMLU》。
例:2023 年评测显示,GPT-4 在 CMMLU 的法律类目准确率为 78%,而 ChatGLM-6B 为 62%。
某在线教育平台使用 CMMLU 筛选出在数学题解析准确率最高的开源模型(如 Aquila2-34B)。
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
智源研究院发布的FlagEval(天秤)大模型评测平台,致力于提供全面、公正的模型评估服务。
复旦大学NLP实验室推出的【LLMEval3】是针对大型语言模型的全面评测基准
一个全面的中文基础模型评估套件,旨在提供多维度、系统化的模型性能测评,确保技术应用的准确性和可靠性
斯坦福大学推出的大模型评测体系《HELM》旨在全面评估AI模型的性能和可靠性
众包匿名随机对战的LLM基准平台《Chatbot Arena》