OpenBMB org

resampler.py的attn模块不适应zero3训练,在以往的finetuning脚本里只能强制性的聚拢参数,但当使用lora时这些变量名会修改,这里修改了attn模块的实现方式,主要将multihead attention的实现改成了使用直接召唤模型

qianyuchen changed pull request status to closed

Sign up or log in to comment