openvla_path="tttonyalpha/openvla-7b-warmup-checkpoint_merged_002000_lora_002000"
torchrun --standalone --nnodes 1 --nproc-per-node 1 vla-scripts/finetune.py \
--vla_path "$openvla_path" \
--data_root_dir "datasets" \
--dataset_name "sft" \
--run_root_dir "runs" \
--lora_rank 32 \
--batch_size 8 \
--max_steps 60000 \
--eval_steps 200 \
--save_steps "0,5000,10000,20000,30000,40000,50000,60000" \
--grad_accumulation_steps 1 \
--learning_rate 5e-4 \
--image_aug True
*--data_root_dir "datasets"
--dataset_name "sft" *
请问这两个参数我具体应该如何传递,我是直接把https://huggingface.co/datasets/tttonyalpha/openvla_1k-dataset 这个数据下载下来,然后 放到/xxx/openvla_1k-dataset,然后data_root_dir="/xxx",dataset_name="openvla_1k-dataset"吗?
另外,咱们warmup微调、 对齐微调训练用的是同一份openvla_1k-dataset 数据,对吗?