Commit Graph

12 Commits

Author SHA1 Message Date
lichongyang 62ba7679fe support chatglm2cpp 2023-07-24 14:41:51 +08:00
glide-the c5bc21781c 修改模型生成的调用方式,兼容Chain调用
修改模型切换的bug
2023-07-12 23:09:28 +08:00
imClumsyPanda ed7c54858a add delete knowledge base and delete files from knowledge base to webui 2023-06-15 00:21:41 +08:00
imClumsyPanda 37b2fb18b7 update .gitignore 2023-05-13 09:51:46 +08:00
imClumsyPanda 6e23253013 update pdf_loader.py and image_loader.py 2023-05-13 09:50:30 +08:00
Bing Han e0cf26019b
Use fastapi to implement API (#209)
* Use fastapi to implement API

* Update model_config.py

---------

Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
2023-05-03 21:29:28 +08:00
wangxinkai 3eaa25c9ba feat: add api for knowledge_based QA 2023-04-18 10:08:13 +08:00
glide-the da6be02589 子文件的__pycache__忽略 2023-04-15 12:45:00 +08:00
Calcitem 6bb9dcccce Update .gitignore 2023-04-14 23:05:40 +08:00
glide-the 57efaa5492 chatglm_with_shared_memory_openai_llm:这个demo,基于openai的任务处理,实现本地文…
…档调用链的示例,可以使用chatgml处理一部分任务事件,也可以使用chatgml来完成记忆共享(SharedMemory),至于为什么使用openai原因主要有两个现象,第一点,因为大模型chatgml受限,导致很多langchain的demo只能部分实现,跟群主聊了下,这种问题只能通过微调模型,增加一部分指令集和状态术语的数据集进去,微调方案只能大家自己尝试了,对显卡要去较高.当然也可以考虑只训练一个任务格式化的gml,模型微调参考这个仓库的方式 https://github.com/liucongg/ChatGLM-Finetuning
2023-04-14 22:15:02 +08:00
imClumsyPanda 5f70ce191c update cli_demo.py 2023-04-14 00:43:35 +08:00
zmf d472f8bed7 .gitignore
.gitignore
2023-04-14 00:02:18 +08:00