ms-swift 集成#

能力介绍#

ms-swift框架支的eval能力使用了魔搭社区评测框架EvalScope,并进行了高级封装以支持各类模型的评测需求。目前我们支持了标准评测集的评测流程,以及用户自定义评测集的评测流程。其中标准评测集包含:

纯文本评测:数据集具体介绍

'obqa', 'AX_b', 'siqa', 'nq', 'mbpp', 'winogrande', 'mmlu', 'BoolQ', 'cluewsc', 'ocnli', 'lambada',
'CMRC', 'ceval', 'csl', 'cmnli', 'bbh', 'ReCoRD', 'math', 'humaneval', 'eprstmt', 'WSC', 'storycloze',
'MultiRC', 'RTE', 'chid', 'gsm8k', 'AX_g', 'bustm', 'afqmc', 'piqa', 'lcsts', 'strategyqa', 'Xsum', 'agieval',
'ocnli_fc', 'C3', 'tnews', 'race', 'triviaqa', 'CB', 'WiC', 'hellaswag', 'summedits', 'GaokaoBench',
'ARC_e', 'COPA', 'ARC_c', 'DRCD'

多模态评测:数据集具体介绍

'COCO_VAL', 'MME', 'HallusionBench', 'POPE', 'MMBench_DEV_EN', 'MMBench_TEST_EN', 'MMBench_DEV_CN', 'MMBench_TEST_CN',
'MMBench', 'MMBench_CN', 'MMBench_DEV_EN_V11', 'MMBench_TEST_EN_V11', 'MMBench_DEV_CN_V11',
'MMBench_TEST_CN_V11', 'MMBench_V11', 'MMBench_CN_V11', 'SEEDBench_IMG', 'SEEDBench2',
'SEEDBench2_Plus', 'ScienceQA_VAL', 'ScienceQA_TEST', 'MMT-Bench_ALL_MI', 'MMT-Bench_ALL',
'MMT-Bench_VAL_MI', 'MMT-Bench_VAL', 'AesBench_VAL', 'AesBench_TEST', 'CCBench', 'AI2D_TEST', 'MMStar',
'RealWorldQA', 'MLLMGuard_DS', 'BLINK', 'OCRVQA_TEST', 'OCRVQA_TESTCORE', 'TextVQA_VAL', 'DocVQA_VAL',
'DocVQA_TEST', 'InfoVQA_VAL', 'InfoVQA_TEST', 'ChartQA_TEST', 'MathVision', 'MathVision_MINI',
'MMMU_DEV_VAL', 'MMMU_TEST', 'OCRBench', 'MathVista_MINI', 'LLaVABench', 'MMVet', 'MTVQA_TEST',
'MMLongBench_DOC', 'VCR_EN_EASY_500', 'VCR_EN_EASY_100', 'VCR_EN_EASY_ALL', 'VCR_EN_HARD_500',
'VCR_EN_HARD_100', 'VCR_EN_HARD_ALL', 'VCR_ZH_EASY_500', 'VCR_ZH_EASY_100', 'VCR_ZH_EASY_ALL',
'VCR_ZH_HARD_500', 'VCR_ZH_HARD_100', 'VCR_ZH_HARD_ALL', 'MMDU', 'MMBench-Video', 'Video-MME',
'MMBench_DEV_EN', 'MMBench_TEST_EN', 'MMBench_DEV_CN', 'MMBench_TEST_CN', 'MMBench', 'MMBench_CN',
'MMBench_DEV_EN_V11', 'MMBench_TEST_EN_V11', 'MMBench_DEV_CN_V11', 'MMBench_TEST_CN_V11', 'MMBench_V11',
'MMBench_CN_V11', 'SEEDBench_IMG', 'SEEDBench2', 'SEEDBench2_Plus', 'ScienceQA_VAL', 'ScienceQA_TEST',
'MMT-Bench_ALL_MI', 'MMT-Bench_ALL', 'MMT-Bench_VAL_MI', 'MMT-Bench_VAL', 'AesBench_VAL',
'AesBench_TEST', 'CCBench', 'AI2D_TEST', 'MMStar', 'RealWorldQA', 'MLLMGuard_DS', 'BLINK'

小技巧

首次评测时会自动下载数据集文件 下载链接

如果下载失败可以手动下载放置本地路径, 具体可以查看eval的日志输出.

环境准备#

pip install ms-swift[eval] -U

或从源代码安装:

git clone https://github.com/modelscope/swift.git
cd swift
pip install -e '.[eval]'

评测#

这里展示对原始模型和LoRA微调后的qwen2-7b-instruct进行评测,评测支持使用vLLM加速。

原始模型评测

CUDA_VISIBLE_DEVCIES=0 swift eval \
  --model_type qwen2-7b-instruct \
  --model_id_or_path /path/to/qwen2-7b-instruct \
  --eval_dataset ARC_e \
  --infer_backend vllm \ # 可选项 [pt, vllm, lmdeploy]
  --eval_backend Native  # 可选项 [Native, OpenCompass]

LoRA微调模型评测

CUDA_VISIBLE_DEVICES=0 swift eval \
  --ckpt_dir qwen2-7b-instruct/vx-xxx/checkpoint-xxx \ # LoRA 权重路径
  --eval_dataset ARC_e \
  --infer_backend vllm \
  --eval_backend Native \
  --merge_lora true 

备注

评测的参数列表可以参考eval参数

评测结果会存储在{--eval_output_dir}/{--name}/{时间戳}下, 如果用户没有改变存储配置,则默认路径在:

{当前目录(`pwd`路径)}/eval_outputs/default/20240628_190000/xxx

使用部署的方式评测#

备注

eval_backend指定为OpenCompass将自动使用部署的方式进行评测;以下评测方式适用原始模型及LoRA微调后的模型。

ms-swift启动启动部署:

CUDA_VISIBLE_DEVICES=0 swift deploy --model_type qwen2-7b-instruct

ms-swift启动评测评测:

swift eval --eval_url http://127.0.0.1:8000/v1 --eval_dataset ARC_e

小技巧

使用API进行评测如果是非swift部署, 则需要额外传入--eval_is_chat_model--model_type参数

例如:

swift eval \
  --eval_url http://127.0.0.1:8000/v1 \
  --eval_dataset ARC_e \
  --eval_is_chat_model true \
  --model_type qwen2-7b-instruct

自定义评测集#

除此之外,我们支持了用户自定义自己的评测集。自定义评测集必须和某个官方评测集数据格式(pattern)保持一致。下面我们按步骤讲解如何使用自己的评测集进行评测。

写好自己的评测集#

目前我们支持两种pattern的评测集:选择题格式的CEval和问答题格式的General-QA

选择题:CEval格式#

CEval格式适合用户是选择题的场景。即从四个选项中选择一个正确的答案,评测指标是accuracy。建议直接修改CEval脚手架目录。该目录包含了两个文件:

default_dev.csv # 用于fewshot评测,至少要具有入参的eval_few_shot条数据,即如果是0-shot评测,该csv可以为空
default_val.csv # 用于实际评测的数据

CEval的csv文件需要为下面的格式:

id,question,A,B,C,D,answer,explanation
1,通常来说,组成动物蛋白质的氨基酸有____,4种,22种,20种,19种,C,1. 目前已知构成动物蛋白质的的氨基酸有20种。
2,血液内存在的下列物质中,不属于代谢终产物的是____。,尿素,尿酸,丙酮酸,二氧化碳,C,"代谢终产物是指在生物体内代谢过程中产生的无法再被利用的物质,需要通过排泄等方式从体内排出。丙酮酸是糖类代谢的产物,可以被进一步代谢为能量或者合成其他物质,并非代谢终产物。"

其中,id是评测序号,question是问题,ABCD是可选项(如果选项少于四个则对应留空),answer是正确选项,explanation是解释。

其中的default文件名是CEval评测的子数据集名称,可更换,下面的配置中会用到。

问答题:General-QA#

General-QA适合用户是问答题的场景,评测指标是rougebleu。建议直接修改General-QA脚手架目录。该目录包含了一个文件:

default.jsonl

该jsonline文件需要为下面的格式:

{"history": [], "query": "中国的首都是哪里?", "response": "中国的首都是北京"}
{"history": [], "query": "世界上最高的山是哪座山?", "response": "是珠穆朗玛峰"}
{"history": [], "query": "为什么北极见不到企鹅?", "response": "因为企鹅大多生活在南极"}

注意history目前为保留字段,尚不支持。

定义一个配置文件传入eval命令#

定义好上面的文件后,需要写一个json文件传入eval命令中。建议直接修改官方配置脚手架文件。该文件内容如下:

[
    {
        "name": "custom_general_qa", // 评测项名称,可以随意指定
        "pattern": "general_qa", // 该评测集的pattern
        "dataset": "eval_example/custom_general_qa", // 该评测集的目录,强烈建议使用绝对路径防止读取失败
        "subset_list": ["default"] // 需要评测的子数据集,即上面的`default_x`文件名
    },
    {
        "name": "custom_ceval",
        "pattern": "ceval",
        "dataset": "eval_example/custom_ceval", // 该评测集的目录,强烈建议使用绝对路径防止读取失败
        "subset_list": ["default"]
    }
]

下面就可以传入这个配置文件进行评测了:

swift eval \
    --model_type "qwen-7b-chat" \
    --eval_dataset no \ # eval_dataset也可以设置值,官方数据集和自定义数据集一起跑
    --infer_backend pt \
    --custom_eval_config eval_example/custom_config.json

运行结果如下:

2024-04-10 17:21:33,275 - llmuses - INFO - *** Report table ***
+------------------------------+----------------+---------------------------------+
| Model                        | custom_ceval   | custom_general_qa               |
+==============================+================+=================================+
| qa-custom_ceval_qwen-7b-chat | 1.0 (acc)      | 0.8888888888888888 (rouge-1-r)  |
|                              |                | 0.33607503607503614 (rouge-1-p) |
|                              |                | 0.40616618868713145 (rouge-1-f) |
|                              |                | 0.39999999999999997 (rouge-2-r) |
|                              |                | 0.27261904761904765 (rouge-2-p) |
|                              |                | 0.30722525589718247 (rouge-2-f) |
|                              |                | 0.8333333333333334 (rouge-l-r)  |
|                              |                | 0.30742204655248134 (rouge-l-p) |
|                              |                | 0.3586824745225346 (rouge-l-f)  |
|                              |                | 0.3122529644268775 (bleu-1)     |
|                              |                | 0.27156862745098037 (bleu-2)    |
|                              |                | 0.25 (bleu-3)                   |
|                              |                | 0.2222222222222222 (bleu-4)     |
+------------------------------+----------------+---------------------------------+