提交 dfe966ed 作者: littlepanda0716

update chatglm_llm.py

上级 befcdf6e
......@@ -15,9 +15,6 @@ model = (
.cuda()
)
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
class ChatGLM(LLM):
max_token: int = 10000
temperature: float = 0.1
......
Markdown 格式
0%
您添加了 0 到此讨论。请谨慎行事。
请先完成此评论的编辑!
注册 或者 后发表评论