ChatGLM两代的部署/微调/实现:从基座GLM、ChatGLM的LoRA/P-Tuning微调、6B源码解读到ChatGLM2的微调与实现
原文中文,约47300字,阅读约需113分钟。发表于: 。随着『GPT4多模态/Microsoft 365 Copilot/Github Copilot X/ChatGPT插件』的推出,绝大部分公司的技术 产品 服务,以及绝大部分人的工作都将被革新一遍类似iPhone的诞生 大家面向iOS编程 有了App Store现在有了ChatGPT插件/GPT应用商店,以后很多公司...
Dolly 2.0是EleutherAI pythia模型系列的语言模型,参数为120亿。Databricks发布了名为databricks-dolly-15k的Dolly 2.0微调数据集,包含1.5万条记录,涵盖公开问答、封闭式问答、维基百科信息提取等7个任务。RedPajama是1.2万亿token的开源数据集,包含维基百科、GitHub等来源。COIG是首个大规模可商用的中文开源指令数据集。StableLM是开源语言模型,有3B和7B参数版本,应用于自然语言处理任务。还有其他可商用的模型。