成功了。。。
(personal_assistant) root@intern-studio:~/personal_assistant/config# xtuner convert merge \
$NAME_OR_PATH_TO_LLM \\ $NAME_OR_PATH_TO_ADAPTER \\ $SAVE_PATH \\ --max-shard-size 2GB
[2024-01-17 05:43:24,624] [INFO] [real_accelerator.py:161:get_accelerator] Setting ds_accelerator to cuda (auto detect) Loading checkpoint shards: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 8/8 [00:07<00:00, 1.08it/s] Saving to /root/personal_assistant/config/work_dirs/hf_merge... All done!
最后一次调整
ssh -CNg -L 6007:127.0.0.1:6007 [email protected] -p 35187
微调前
改下参数增加 --deepspeed deepspeed_zero2
内存报错,满了,重开一下时间2个多小时