Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
J
jinchat-server
概览
概览
详情
活动
周期分析
版本库
存储库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
aigc-pioneer
jinchat-server
Commits
e352a04c
提交
e352a04c
authored
5月 22, 2023
作者:
imClumsyPanda
浏览文件
操作
浏览文件
下载
差异文件
merge master
上级
d2983e93
69602161
隐藏空白字符变更
内嵌
并排
正在显示
8 个修改的文件
包含
11 行增加
和
8 行删除
+11
-8
README.md
README.md
+1
-1
local_doc_qa.py
chains/local_doc_qa.py
+1
-1
INSTALL.md
docs/INSTALL.md
+4
-0
qr_code_18.jpg
img/qr_code_18.jpg
+0
-0
qr_code_21.jpg
img/qr_code_21.jpg
+0
-0
chatglm_llm.py
models/chatglm_llm.py
+2
-5
index.vue
views/src/views/chat/index.vue
+1
-0
webui.py
webui.py
+2
-1
没有找到文件。
README.md
浏览文件 @
e352a04c
...
...
@@ -221,6 +221,6 @@ Web UI 可以实现如下功能:
-
[
x
]
VUE 前端
## 项目交流群
![
二维码
](
img/qr_code_
18
.jpg
)
![
二维码
](
img/qr_code_
21
.jpg
)
🎉 langchain-ChatGLM 项目交流群,如果你也对本项目感兴趣,欢迎加入群聊参与讨论交流。
chains/local_doc_qa.py
浏览文件 @
e352a04c
...
...
@@ -130,7 +130,7 @@ def similarity_search_with_score_by_vector(
else
:
_id0
=
self
.
index_to_docstore_id
[
id
]
doc0
=
self
.
docstore
.
search
(
_id0
)
doc
.
page_content
+=
doc0
.
page_content
doc
.
page_content
+=
" "
+
doc0
.
page_content
if
not
isinstance
(
doc
,
Document
):
raise
ValueError
(
f
"Could not find document for id {_id}, got {doc}"
)
doc_score
=
min
([
scores
[
0
][
id
]
for
id
in
[
indices
[
0
]
.
tolist
()
.
index
(
i
)
for
i
in
id_seq
if
i
in
indices
[
0
]]])
...
...
docs/INSTALL.md
浏览文件 @
e352a04c
...
...
@@ -33,6 +33,10 @@ $ cd langchain-ChatGLM
# 项目中 pdf 加载由先前的 detectron2 替换为使用 paddleocr,如果之前有安装过 detectron2 需要先完成卸载避免引发 tools 冲突
$
pip uninstall detectron2
# 检查paddleocr依赖,linux环境下paddleocr依赖libX11,libXext
$
yum install libX11
$
yum install libXext
# 安装依赖
$
pip install
-r
requirements.txt
...
...
img/qr_code_18.jpg
deleted
100644 → 0
浏览文件 @
d2983e93
277.8 KB
img/qr_code_21.jpg
0 → 100644
浏览文件 @
e352a04c
256.4 KB
models/chatglm_llm.py
浏览文件 @
e352a04c
...
...
@@ -54,7 +54,7 @@ class ChatGLM(BaseAnswer, LLM, ABC):
stopping_criteria_list
.
append
(
listenerQueue
)
if
streaming
:
history
+=
[[]]
for
inum
,
(
stream_resp
,
_
)
in
enumerate
(
self
.
checkPoint
.
model
.
stream_chat
(
self
.
checkPoint
.
tokenizer
,
prompt
,
...
...
@@ -64,10 +64,7 @@ class ChatGLM(BaseAnswer, LLM, ABC):
stopping_criteria
=
stopping_criteria_list
)):
self
.
checkPoint
.
clear_torch_cache
()
if
inum
==
0
:
history
+=
[[
prompt
,
stream_resp
]]
else
:
history
[
-
1
]
=
[
prompt
,
stream_resp
]
history
[
-
1
]
=
[
prompt
,
stream_resp
]
answer_result
=
AnswerResult
()
answer_result
.
history
=
history
answer_result
.
llm_output
=
{
"answer"
:
stream_resp
}
...
...
views/src/views/chat/index.vue
浏览文件 @
e352a04c
...
...
@@ -116,6 +116,7 @@ async function handleSubmit() {
async
function
onConversation
()
{
const
message
=
prompt
.
value
history
.
value
=
[]
if
(
usingContext
.
value
)
{
for
(
let
i
=
0
;
i
<
dataSources
.
value
.
length
;
i
=
i
+
2
)
{
if
(
!
i
)
...
...
webui.py
浏览文件 @
e352a04c
...
...
@@ -466,4 +466,4 @@ with gr.Blocks(css=block_css, theme=gr.themes.Default(**default_theme_args)) as
server_port
=
7860
,
show_api
=
False
,
share
=
False
,
inbrowser
=
False
))
inbrowser
=
False
))
\ No newline at end of file
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论