-
Notifications
You must be signed in to change notification settings - Fork 1.3k
Open
Labels
Description
感谢作者提供的思路,以及群里不厌其烦的回复。
本人初学者,机器为mac mini m4 32g。
目前微调办法如下:
1️⃣将微信记录导出;2️⃣利用weclone-cli make-dataset对记录进行转换;3️⃣利用vscode和wps对记录进行内容删减和格式调整,符合mlx_lm.lora所要求的数据集格式(chat格式,多一个空格逗号都会报错);4️⃣下载Qwen2.5-1.5B-Instruct(不是什么模型都可以微调,在这上面走了弯路);5️⃣微调模型mlx_lm.lora --model workspace/models/Qwen2.5-1.5B-Instruct --train --data ./data --batch-size 3 (模型路径自行修改;如果size 选4,可能会内存溢出);6️⃣微调时长20-30分钟,cpu温度最高90;7️⃣微调后合并模型mlx_lm.fuse,并用mlx_lm.generate提问;8️⃣在微调模型的基础上,继续用新的记录微调,经过10轮微调,只能说偶尔回答让人有点惊喜。
相关操作细节可以网上自查,遇到代码问题可以询问百度ai。
Reactions are currently unavailable