hzg0601
|
32122ee225
|
update gitignore
|
2023-07-21 15:29:36 +08:00 |
glide-the
|
c5bc21781c
|
修改模型生成的调用方式,兼容Chain调用
修改模型切换的bug
|
2023-07-12 23:09:28 +08:00 |
imClumsyPanda
|
ed7c54858a
|
add delete knowledge base and delete files from knowledge base to webui
|
2023-06-15 00:21:41 +08:00 |
imClumsyPanda
|
37b2fb18b7
|
update .gitignore
|
2023-05-13 09:51:46 +08:00 |
imClumsyPanda
|
6e23253013
|
update pdf_loader.py and image_loader.py
|
2023-05-13 09:50:30 +08:00 |
Bing Han
|
e0cf26019b
|
Use fastapi to implement API (#209)
* Use fastapi to implement API
* Update model_config.py
---------
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
|
2023-05-03 21:29:28 +08:00 |
wangxinkai
|
3eaa25c9ba
|
feat: add api for knowledge_based QA
|
2023-04-18 10:08:13 +08:00 |
glide-the
|
da6be02589
|
子文件的__pycache__忽略
|
2023-04-15 12:45:00 +08:00 |
Calcitem
|
6bb9dcccce
|
Update .gitignore
|
2023-04-14 23:05:40 +08:00 |
glide-the
|
57efaa5492
|
chatglm_with_shared_memory_openai_llm:这个demo,基于openai的任务处理,实现本地文…
…档调用链的示例,可以使用chatgml处理一部分任务事件,也可以使用chatgml来完成记忆共享(SharedMemory),至于为什么使用openai原因主要有两个现象,第一点,因为大模型chatgml受限,导致很多langchain的demo只能部分实现,跟群主聊了下,这种问题只能通过微调模型,增加一部分指令集和状态术语的数据集进去,微调方案只能大家自己尝试了,对显卡要去较高.当然也可以考虑只训练一个任务格式化的gml,模型微调参考这个仓库的方式 https://github.com/liucongg/ChatGLM-Finetuning
|
2023-04-14 22:15:02 +08:00 |
imClumsyPanda
|
5f70ce191c
|
update cli_demo.py
|
2023-04-14 00:43:35 +08:00 |
zmf
|
d472f8bed7
|
.gitignore
.gitignore
|
2023-04-14 00:02:18 +08:00 |