Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
J
jinchat-server
概览
概览
详情
活动
周期分析
版本库
存储库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
aigc-pioneer
jinchat-server
Commits
4b2a597e
提交
4b2a597e
authored
4月 20, 2023
作者:
dong
提交者:
imClumsyPanda
4月 20, 2023
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
新增处理"OutOfMemoryError: CUDA out of memory"和"Resource averaged_perceptron_tagger not found"的方法
上级
f1470432
显示空白字符变更
内嵌
并排
正在显示
1 个修改的文件
包含
12 行增加
和
2 行删除
+12
-2
FAQ.md
docs/FAQ.md
+12
-2
没有找到文件。
docs/FAQ.md
浏览文件 @
4b2a597e
...
@@ -28,10 +28,14 @@ A3: https://github.com/nltk/nltk_data/raw/gh-pages/packages/tokenizers/punkt.zip
...
@@ -28,10 +28,14 @@ A3: https://github.com/nltk/nltk_data/raw/gh-pages/packages/tokenizers/punkt.zip
Q4: 使用过程中 Python 包
`nltk`
发生了
`Resource averaged_perceptron_tagger not found.`
报错,该如何解决?
Q4: 使用过程中 Python 包
`nltk`
发生了
`Resource averaged_perceptron_tagger not found.`
报错,该如何解决?
A4: 将 https://github.com/nltk/nltk_data/blob/gh-pages/packages/taggers/averaged_perceptron_tagger.zip 下载,解压放到
`nltk_data/taggers`
存储路径下。
A4:
方法一:
将 https://github.com/nltk/nltk_data/blob/gh-pages/packages/taggers/averaged_perceptron_tagger.zip 下载,解压放到
`nltk_data/taggers`
存储路径下。
`nltk_data`
存储路径可以通过
`nltk.data.path`
查询。
`nltk_data`
存储路径可以通过
`nltk.data.path`
查询。
A4: 方法二:科学上网,用梯子,执行 python代码
```
import nltk
nltk.download()
```
---
---
Q5
:
本项目可否在 colab 中运行?
Q5
:
本项目可否在 colab 中运行?
...
@@ -101,4 +105,10 @@ embedding_model_dict = {
...
@@ -101,4 +105,10 @@ embedding_model_dict = {
"text2vec"
:
"/Users/liuqian/Downloads/ChatGLM-6B/text2vec-large-chinese"
"text2vec"
:
"/Users/liuqian/Downloads/ChatGLM-6B/text2vec-large-chinese"
}
}
```
```
---
Q10
:
执行`python cli_demo.py`过程中,显卡内存爆了,提示"OutOfMemoryError
:
CUDA out of memory"
A10
:
将VECTOR_SEARCH_TOP_K和LLM_HISTORY_LEN的值设小一点,比如VECTOR_SEARCH_TOP_K=5和LLM_HISTORY_LEN=2,这样由query和context拼接得到的prompt会变短,会减少内存的占用。
---
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论