提交 01a54d10 作者: imClumsyPanda

add chatglm-fitness-RLHF made by @BoFan-tunning to llm_model_dict in model_config.py

上级 0a062ba0
...@@ -57,6 +57,15 @@ llm_model_dict = { ...@@ -57,6 +57,15 @@ llm_model_dict = {
"local_model_path": None, "local_model_path": None,
"provides": "ChatGLMLLMChain" "provides": "ChatGLMLLMChain"
}, },
# langchain-ChatGLM 用户“帛凡” @BoFan-tunning 基于ChatGLM-6B 训练并提供的权重合并模型和 lora 权重文件 chatglm-fitness-RLHF
# 详细信息见 HuggingFace 模型介绍页 https://huggingface.co/fb700/chatglm-fitness-RLHF
# 使用该模型或者lora权重文件,对比chatglm-6b、chatglm2-6b、百川7b,甚至其它未经过微调的更高参数的模型,在本项目中,总结能力可获得显著提升。
"chatglm-fitness-RLHF": {
"name": "chatglm-fitness-RLHF",
"pretrained_model_name": "fb700/chatglm-fitness-RLHF",
"local_model_path": None,
"provides": "ChatGLMLLMChain"
},
"chatglm2-6b": { "chatglm2-6b": {
"name": "chatglm2-6b", "name": "chatglm2-6b",
"pretrained_model_name": "THUDM/chatglm2-6b", "pretrained_model_name": "THUDM/chatglm2-6b",
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论