上海人工智能实验室推出的大模型开放评测体系《OpenCompass》旨在为大模型提供全面、公正、透明的评估标准和工具。
opencompass run --models baichuan2-13b chatglm6b --datasets finance_qa
opencompass eval --config math_benchmark.yaml
AGI-Eval:全面评测AI大模型性能的专业平台
众包匿名随机对战的LLM基准平台《Chatbot Arena》
《MMBench》:全面评估多模态大模型能力的权威评测体系
一个全面评估大模型中文能力的基准应用,涵盖多项专业领域测试,详见《CMMLU》。
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
H2O.ai推出的H2O EvalGPT基于Elo评级方法评估大模型性能确保公正性和准确性