Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
J
jinchat-server
概览
概览
详情
活动
周期分析
版本库
存储库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
aigc-pioneer
jinchat-server
Commits
f7e7d318
提交
f7e7d318
authored
6月 13, 2023
作者:
hzg0601
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
修改loader.py中load_in_8bit失败的原因和详细解决方案
上级
4054e46c
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
11 行增加
和
0 行删除
+11
-0
loader.py
models/loader/loader.py
+11
-0
没有找到文件。
models/loader/loader.py
浏览文件 @
f7e7d318
...
...
@@ -30,6 +30,15 @@ class LoaderCheckPoint:
ptuning_dir
:
str
=
None
use_ptuning_v2
:
bool
=
False
# 如果开启了8bit量化加载,项目无法启动,参考此位置,选择合适的cuda版本,https://github.com/TimDettmers/bitsandbytes/issues/156
# 原因主要是由于bitsandbytes安装时选择了系统环境变量里不匹配的cuda版本,
# 例如PATH下存在cuda10.2和cuda11.2,bitsandbytes安装时选择了10.2,而torch等安装依赖的版本是11.2
# 因此主要的解决思路是清理环境变量里PATH下的不匹配的cuda版本,一劳永逸的方法是:
# 0. 在终端执行`pip uninstall bitsandbytes`
# 1. 删除.bashrc文件下关于PATH的条目
# 2. 在终端执行 `echo $PATH >> .bashrc`
# 3. 在终端执行`source .bashrc`
# 4. 再执行`pip install bitsandbytes`
load_in_8bit
:
bool
=
False
is_llamacpp
:
bool
=
False
bf16
:
bool
=
False
...
...
@@ -99,6 +108,8 @@ class LoaderCheckPoint:
LoaderClass
=
AutoModelForCausalLM
# Load the model in simple 16-bit mode by default
# 如果加载没问题,但在推理时报错RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`
# 那还是因为显存不够,此时只能考虑--load-in-8bit,或者配置默认模型为`chatglm-6b-int8`
if
not
any
([
self
.
llm_device
.
lower
()
==
"cpu"
,
self
.
load_in_8bit
,
self
.
is_llamacpp
]):
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论