Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
J
jinchat-server
概览
概览
详情
活动
周期分析
版本库
存储库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
aigc-pioneer
jinchat-server
Commits
d5ffdaa2
提交
d5ffdaa2
authored
5月 20, 2023
作者:
imClumsyPanda
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
update loader.py
上级
aa266454
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
2 行增加
和
1 行删除
+2
-1
loader.py
models/loader/loader.py
+2
-1
没有找到文件。
models/loader/loader.py
浏览文件 @
d5ffdaa2
...
...
@@ -16,6 +16,7 @@ from transformers.modeling_utils import no_init_weights
from
transformers.utils
import
ContextManagers
from
accelerate
import
init_empty_weights
from
accelerate.utils
import
get_balanced_memory
,
infer_auto_device_map
from
configs.model_config
import
LLM_DEVICE
class
LoaderCheckPoint
:
...
...
@@ -44,7 +45,7 @@ class LoaderCheckPoint:
# 自定义设备网络
device_map
:
Optional
[
Dict
[
str
,
int
]]
=
None
# 默认 cuda ,如果不支持cuda使用多卡, 如果不支持多卡 使用cpu
llm_device
=
"cuda"
if
torch
.
cuda
.
is_available
()
else
"mps"
if
torch
.
backends
.
mps
.
is_available
()
else
"cpu"
llm_device
=
LLM_DEVICE
def
__init__
(
self
,
params
:
dict
=
None
):
"""
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论