论文速读|MIA-Bench: Towards Better Instruction Following Evaluation of Multimodal LLMs
论文信息:
简介:
本文的背景是多模态大型语言模型(MLLMs)的快速发展,这些模型在理解和响应视觉输入方面展现出了增强的能力,通常被称为多模态“指令遵循”。随着这些模型的进步,需要有相应的基准测试来衡量它们在遵循复杂指令方面的能力。现有的基准测试主要分为固定形式的视觉问答(VQA)和自由形式的对话,但这些测试通常只粗略评估模型对指令的遵循能力,对于精确遵循复杂指令的能力评估较少。本文的动机是创建一个新的基准测试MIA-Bench,以推动MLLMs在实际应用中的精确性和