H2O.ai推出的H2O EvalGPT基于Elo评级方法评估大模型性能确保公正性和准确性
《MMBench》:全面评估多模态大模型能力的权威评测体系
上海人工智能实验室推出的大模型开放评测体系《OpenCompass》旨在为大模型提供全面、公正、透明的评估标准和工具。
一个全面的中文基础模型评估套件,旨在提供多维度、系统化的模型性能测评,确保技术应用的准确性和可靠性
中文通用大模型综合性测评基准《SuperCLUE》旨在全面评估和优化大模型的性能和应用效果
Hugging Face推出的开源大模型排行榜,展示最新最全的模型性能对比。
斯坦福大学推出的大模型评测体系《HELM》旨在全面评估AI模型的性能和可靠性