使用model_config默认配置启动
llama_llm.py 删除流式输出 base.py、shared.py 删除多余代码 fastchat_llm.py 业务实现
正在显示
fastchat/__init__.py
deleted
100644 → 0
fastchat/api/__init__.py
deleted
100644 → 0
fastchat/api/conversation.py
deleted
100644 → 0
fastchat/api/fastchat_api.py
deleted
100644 → 0
差异被折叠。
点击展开。
models/extensions/callback.py
deleted
100644 → 0
models/extensions/extensions.py
deleted
100644 → 0
models/fastchat_llm.py
0 → 100644
请
注册
或者
登录
后发表评论