提交 59aff96a 作者: imClumsyPanda

update chatglm_llm.py

上级 5d88f715
...@@ -115,7 +115,8 @@ class ChatGLM(LLM): ...@@ -115,7 +115,8 @@ class ChatGLM(LLM):
prefix_encoder_file.close() prefix_encoder_file.close()
model_config.pre_seq_len = prefix_encoder_config['pre_seq_len'] model_config.pre_seq_len = prefix_encoder_config['pre_seq_len']
model_config.prefix_projection = prefix_encoder_config['prefix_projection'] model_config.prefix_projection = prefix_encoder_config['prefix_projection']
except Exception: except Exception as e:
print(e)
print("加载PrefixEncoder config.json失败") print("加载PrefixEncoder config.json失败")
if torch.cuda.is_available() and llm_device.lower().startswith("cuda"): if torch.cuda.is_available() and llm_device.lower().startswith("cuda"):
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论