
MMBench
MMBench是一个多模态基准测试,由上海人工智能实验室、南洋理工大学、香港中文大学、新加坡国立大学和浙江大学的研究人员推出。该体系开发了一个综合评估流程,从感知到认知能力逐级细分评估,覆盖20项细粒度能力,从互联网与权威基准数据集采集约3000道单项选择题。打破常规一问一答基于规则匹配提取选项进行评测,循环打乱选项验证输出结果的一致性,基于ChatGPT精准匹配模型回复至选项。
主要功能:
相关性:H2O EvalGPT 根据行业特定数据评估流行的大语言模型,从而了解其在实际场景中的表现。
透明度:H2O EvalGPT 通过开放的排行榜显示顶级模型评级和详细的评估指标,确保完全可重复性。
速度和更新:全自动和响应式平台每周更新排行榜,显着减少评估模型提交所需的时间。
范围:评估各种任务的模型,并随着时间的推移添加新的指标和基准,以全面了解模型的功能。
交互性和人工一致性:H2O EvalGPT 提供手动运行 A/B 测试的能力,提供对模型评估的进一步见解,并确保自动评估和人工评估之间的一致性。