Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
J
jinchat-server
概览
概览
详情
活动
周期分析
版本库
存储库
文件
提交
分支
标签
贡献者
分支图
比较
统计图
问题
0
议题
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
代码片段
成员
成员
折叠边栏
关闭边栏
活动
图像
聊天
创建新问题
作业
提交
问题看板
Open sidebar
aigc-pioneer
jinchat-server
Commits
f87a5f59
提交
f87a5f59
authored
4月 16, 2023
作者:
imClumsyPanda
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix bug in webui.py
上级
dc0cdfba
隐藏空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
14 行增加
和
6 行删除
+14
-6
local_doc_qa.py
chains/local_doc_qa.py
+1
-1
webui.py
webui.py
+13
-5
没有找到文件。
chains/local_doc_qa.py
浏览文件 @
f87a5f59
...
@@ -11,7 +11,7 @@ import datetime
...
@@ -11,7 +11,7 @@ import datetime
from
typing
import
List
from
typing
import
List
# return top-k text chunk from vector store
# return top-k text chunk from vector store
VECTOR_SEARCH_TOP_K
=
10
VECTOR_SEARCH_TOP_K
=
6
# LLM input history length
# LLM input history length
LLM_HISTORY_LEN
=
3
LLM_HISTORY_LEN
=
3
...
...
webui.py
浏览文件 @
f87a5f59
...
@@ -4,6 +4,12 @@ import shutil
...
@@ -4,6 +4,12 @@ import shutil
from
chains.local_doc_qa
import
LocalDocQA
from
chains.local_doc_qa
import
LocalDocQA
from
configs.model_config
import
*
from
configs.model_config
import
*
# return top-k text chunk from vector store
VECTOR_SEARCH_TOP_K
=
6
# LLM input history length
LLM_HISTORY_LEN
=
3
def
get_file_list
():
def
get_file_list
():
if
not
os
.
path
.
exists
(
"content"
):
if
not
os
.
path
.
exists
(
"content"
):
...
@@ -49,7 +55,8 @@ def init_model():
...
@@ -49,7 +55,8 @@ def init_model():
try
:
try
:
local_doc_qa
.
init_cfg
()
local_doc_qa
.
init_cfg
()
return
"""模型已成功加载,请选择文件后点击"加载文件"按钮"""
return
"""模型已成功加载,请选择文件后点击"加载文件"按钮"""
except
:
except
Exception
as
e
:
print
(
e
)
return
"""模型未成功加载,请重新选择后点击"加载模型"按钮"""
return
"""模型未成功加载,请重新选择后点击"加载模型"按钮"""
...
@@ -60,14 +67,15 @@ def reinit_model(llm_model, embedding_model, llm_history_len, top_k, history):
...
@@ -60,14 +67,15 @@ def reinit_model(llm_model, embedding_model, llm_history_len, top_k, history):
llm_history_len
=
llm_history_len
,
llm_history_len
=
llm_history_len
,
top_k
=
top_k
)
top_k
=
top_k
)
model_status
=
"""模型已成功重新加载,请选择文件后点击"加载文件"按钮"""
model_status
=
"""模型已成功重新加载,请选择文件后点击"加载文件"按钮"""
except
:
except
Exception
as
e
:
print
(
e
)
model_status
=
"""模型未成功重新加载,请重新选择后点击"加载模型"按钮"""
model_status
=
"""模型未成功重新加载,请重新选择后点击"加载模型"按钮"""
return
history
+
[[
None
,
model_status
]]
return
history
+
[[
None
,
model_status
]]
def
get_vector_store
(
filepath
,
history
):
def
get_vector_store
(
filepath
,
history
):
if
local_doc_qa
.
llm
and
local_doc_qa
.
llm
:
if
local_doc_qa
.
llm
and
local_doc_qa
.
embeddings
:
vs_path
=
local_doc_qa
.
init_knowledge_vector_store
([
"content/"
+
filepath
])
vs_path
=
local_doc_qa
.
init_knowledge_vector_store
([
"content/"
+
filepath
])
if
vs_path
:
if
vs_path
:
file_status
=
"文件已成功加载,请开始提问"
file_status
=
"文件已成功加载,请开始提问"
...
@@ -123,7 +131,7 @@ with gr.Blocks(css=block_css) as demo:
...
@@ -123,7 +131,7 @@ with gr.Blocks(css=block_css) as demo:
interactive
=
True
)
interactive
=
True
)
llm_history_len
=
gr
.
Slider
(
0
,
llm_history_len
=
gr
.
Slider
(
0
,
10
,
10
,
value
=
3
,
value
=
LLM_HISTORY_LEN
,
step
=
1
,
step
=
1
,
label
=
"LLM history len"
,
label
=
"LLM history len"
,
interactive
=
True
)
interactive
=
True
)
...
@@ -133,7 +141,7 @@ with gr.Blocks(css=block_css) as demo:
...
@@ -133,7 +141,7 @@ with gr.Blocks(css=block_css) as demo:
interactive
=
True
)
interactive
=
True
)
top_k
=
gr
.
Slider
(
1
,
top_k
=
gr
.
Slider
(
1
,
20
,
20
,
value
=
6
,
value
=
VECTOR_SEARCH_TOP_K
,
step
=
1
,
step
=
1
,
label
=
"向量匹配 top k"
,
label
=
"向量匹配 top k"
,
interactive
=
True
)
interactive
=
True
)
...
...
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论