🎉 Efficiency资源干货全收录
18:59 · 2024年4月22日 · 周一
#Llama3 Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。
https://github.com/seanzhang-zhichen/llama3-chinese
GitHub
GitHub - seanzhang-zhichen/llama3-chinese: Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据…
Llama3-Chinese是以Meta-Llama-3-8B为底座,使用 DORA + LORA+ 的训练方法,在50w高质量中文多轮SFT数据 + 10w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型。 - seanzhang-zhichen/llama3-chinese
Home
Powered by
BroadcastChannel
&
Sepia
ღゝ◡╹ノ♡
Noise