AI模型评测

MMLU

MMLU是一种针对大模型的语言理解能力的测评,涵盖57项任务,包括初等数学、美国历史、计算机科学、法律等,用以评测大模型基本的知识覆盖范围和理解能力。该测试的语言是英文。

MMBench

MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学的研究人员推出。该体系开发了一个综合评估流程,从感知到认知能力逐级细分评估,覆盖20项细粒度能力,从互联网与权威基准数据集采集约3000道单项选择题。打破常规一问一答基于规则匹配提取选项进行评测,循环打乱选项验证输出结果的一致性,基于ChatGPT精准匹配模型回复至选项。MMBench的特点和优势包括基于感知与推理的评估维度逐级细分、更具鲁棒性的评估方式、更可靠的模型输出提取方法等。

Chatbot Arena

Chatbot Arena是一个大型语言模型的基准平台,采用众包方式进行匿名随机对战。用户可以通过demo体验地址进入对战平台,输入自己感兴趣的问题,提交问题后,匿名模型会两两对战,分别生成相关答案,需要用户对答案做出评判。支持多轮对话,最终使用Elo评分系统对大模型的能力进行综合评估。