Commit Graph

25 Commits

Author SHA1 Message Date
hzg0601 c1440c2609 增加ElasticSearch支持 2023-11-10 16:04:41 +08:00
liunux4odoo b51ba11f45
支持通过配置项同时启动多个模型,将Wiki纳入samples知识库 (#2002)
新功能:
- 将 LLM_MODEL 配置项改为 LLM_MODELS 列表,同时启动多个模型
- 将 wiki 纳入 samples 知识库

依赖变化:
- 指定 streamlit~=1.27.0。1.26.0会报rerun错误,1.28.0会有无限刷新错误

修复优化:
- 优化 get_default_llm_model 逻辑
- 适配 Qwen 在线 API 做 Embeddings 时最大 25 行的限制
- 列出知识库磁盘文件时跳过 . 开头的文件
2023-11-09 22:15:52 +08:00
Orion e07bbf6efb
Add: standard python ignore files (#1530) 2023-09-19 18:04:34 +08:00
唐国梁 4c5fc6ab01 edit model_config.py.example 2023-09-14 12:38:37 +08:00
imClumsyPanda 2020f5bb88 merge master 2023-09-12 15:51:28 +08:00
liunux4odoo f94f2793f8
update startup.py: (#1416)
1. 恢复模型切换功能
2. --model-name支持多个名称(空格分开),同时启动多个模型
3. 优化服务启动顺序。严格按照顺序启动:controller -> [openai-api,
   model_worker, api_worker]并行 -> api.py -> webui.py
4. 修复:从在线API模型切换到本地模型时失败
2023-09-08 15:18:13 +08:00
Kyle Zhang 6e9a7e0c89
chore: update .gitignore (#1364)
Added '/' before knowledge_base/ and configs/*.py to make them match
directories at root folder only.

Signed-off-by: Kyle Zhang <zhangk1985@gmail.com>
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
2023-09-08 13:29:40 +08:00
liunux4odoo 16fb19d2c3 优化LLM和Embedding模型运行设备配置,可设为auto自动检测 2023-08-31 17:41:09 +08:00
liunux4odoo 3acbf4d5d1
增加数据库字段,重建知识库使用多线程 (#1280)
* close #1172: 给webui_page/utils添加一些log信息,方便定位错误

* 修复:重建知识库时页面未实时显示进度

* skip model_worker running when using online model api such as chatgpt

* 修改知识库管理相关内容:
1.KnowledgeFileModel增加3个字段:file_mtime(文件修改时间),file_size(文件大小),custom_docs(是否使用自定义docs)。为后面比对上传文件做准备。
2.给所有String字段加上长度,防止mysql建表错误(pr#1177)
3.统一[faiss/milvus/pgvector]_kb_service.add_doc接口,使其支持自定义docs
4.为faiss_kb_service增加一些方法,便于调用
5.为KnowledgeFile增加一些方法,便于获取文件信息,缓存file2text的结果。

* 修复/chat/fastchat无法流式输出的问题

* 新增功能:
1、KnowledgeFileModel增加"docs_count"字段,代表该文件加载到向量库中的Document数量,并在WEBUI中进行展示。
2、重建知识库`python init_database.py --recreate-vs`支持多线程。

其它:
统一代码中知识库相关函数用词:file代表一个文件名称或路径,doc代表langchain加载后的Document。部分与API接口有关或含义重叠的函数暂未修改。

---------

Co-authored-by: liunux4odoo <liunux@qq.com>, hongkong9771
2023-08-28 13:50:35 +08:00
liunux4odoo f92b002342 add startup.py: start specified servers with one command. see python startup.py --help 2023-08-17 13:24:53 +08:00
imClumsyPanda 7d79b676d5 add model_config.py.example instead of model_config.py 2023-08-01 14:55:00 +08:00
liunux4odoo 70c6870776 增加api_one.py,把fastchat
3个服务端整合在一起。后面考虑把api.py也整合进来。
3个进程变成1个进程可能带来少许性能损失,但对于个人用户降低了部署难度。
2023-07-28 16:41:45 +08:00
imClumsyPanda dcf49a59ef v0.2.0 first commit 2023-07-27 23:22:07 +08:00
hzg0601 32122ee225 update gitignore 2023-07-21 15:29:36 +08:00
glide-the c5bc21781c 修改模型生成的调用方式,兼容Chain调用
修改模型切换的bug
2023-07-12 23:09:28 +08:00
imClumsyPanda ed7c54858a add delete knowledge base and delete files from knowledge base to webui 2023-06-15 00:21:41 +08:00
imClumsyPanda 37b2fb18b7 update .gitignore 2023-05-13 09:51:46 +08:00
imClumsyPanda 6e23253013 update pdf_loader.py and image_loader.py 2023-05-13 09:50:30 +08:00
Bing Han e0cf26019b
Use fastapi to implement API (#209)
* Use fastapi to implement API

* Update model_config.py

---------

Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
2023-05-03 21:29:28 +08:00
wangxinkai 3eaa25c9ba feat: add api for knowledge_based QA 2023-04-18 10:08:13 +08:00
glide-the da6be02589 子文件的__pycache__忽略 2023-04-15 12:45:00 +08:00
Calcitem 6bb9dcccce Update .gitignore 2023-04-14 23:05:40 +08:00
glide-the 57efaa5492 chatglm_with_shared_memory_openai_llm:这个demo,基于openai的任务处理,实现本地文…
…档调用链的示例,可以使用chatgml处理一部分任务事件,也可以使用chatgml来完成记忆共享(SharedMemory),至于为什么使用openai原因主要有两个现象,第一点,因为大模型chatgml受限,导致很多langchain的demo只能部分实现,跟群主聊了下,这种问题只能通过微调模型,增加一部分指令集和状态术语的数据集进去,微调方案只能大家自己尝试了,对显卡要去较高.当然也可以考虑只训练一个任务格式化的gml,模型微调参考这个仓库的方式 https://github.com/liucongg/ChatGLM-Finetuning
2023-04-14 22:15:02 +08:00
imClumsyPanda 5f70ce191c update cli_demo.py 2023-04-14 00:43:35 +08:00
zmf d472f8bed7 .gitignore
.gitignore
2023-04-14 00:02:18 +08:00