|
|
@ -23,7 +23,7 @@ python finetune.py \
|
|
|
|
--save_strategy "steps" \
|
|
|
|
--save_strategy "steps" \
|
|
|
|
--save_steps 1000 \
|
|
|
|
--save_steps 1000 \
|
|
|
|
--save_total_limit 10 \
|
|
|
|
--save_total_limit 10 \
|
|
|
|
--learning_rate 1e-5 \
|
|
|
|
--learning_rate 3e-4 \
|
|
|
|
--weight_decay 0.1 \
|
|
|
|
--weight_decay 0.1 \
|
|
|
|
--adam_beta2 0.95 \
|
|
|
|
--adam_beta2 0.95 \
|
|
|
|
--warmup_ratio 0.01 \
|
|
|
|
--warmup_ratio 0.01 \
|
|
|
@ -35,4 +35,4 @@ python finetune.py \
|
|
|
|
--gradient_checkpointing \
|
|
|
|
--gradient_checkpointing \
|
|
|
|
--use_lora \
|
|
|
|
--use_lora \
|
|
|
|
--q_lora \
|
|
|
|
--q_lora \
|
|
|
|
--deepspeed finetune/ds_config_zero2.json
|
|
|
|
--deepspeed finetune/ds_config_zero2.json
|
|
|
|