imClumsyPanda
|
7d79b676d5
|
add model_config.py.example instead of model_config.py
|
2023-08-01 14:55:00 +08:00 |
liunux4odoo
|
70c6870776
|
增加api_one.py,把fastchat
3个服务端整合在一起。后面考虑把api.py也整合进来。
3个进程变成1个进程可能带来少许性能损失,但对于个人用户降低了部署难度。
|
2023-07-28 16:41:45 +08:00 |
imClumsyPanda
|
dcf49a59ef
|
v0.2.0 first commit
|
2023-07-27 23:22:07 +08:00 |
hzg0601
|
32122ee225
|
update gitignore
|
2023-07-21 15:29:36 +08:00 |
glide-the
|
c5bc21781c
|
修改模型生成的调用方式,兼容Chain调用
修改模型切换的bug
|
2023-07-12 23:09:28 +08:00 |
imClumsyPanda
|
ed7c54858a
|
add delete knowledge base and delete files from knowledge base to webui
|
2023-06-15 00:21:41 +08:00 |
imClumsyPanda
|
37b2fb18b7
|
update .gitignore
|
2023-05-13 09:51:46 +08:00 |
imClumsyPanda
|
6e23253013
|
update pdf_loader.py and image_loader.py
|
2023-05-13 09:50:30 +08:00 |
Bing Han
|
e0cf26019b
|
Use fastapi to implement API (#209)
* Use fastapi to implement API
* Update model_config.py
---------
Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
|
2023-05-03 21:29:28 +08:00 |
wangxinkai
|
3eaa25c9ba
|
feat: add api for knowledge_based QA
|
2023-04-18 10:08:13 +08:00 |
glide-the
|
da6be02589
|
子文件的__pycache__忽略
|
2023-04-15 12:45:00 +08:00 |
Calcitem
|
6bb9dcccce
|
Update .gitignore
|
2023-04-14 23:05:40 +08:00 |
glide-the
|
57efaa5492
|
chatglm_with_shared_memory_openai_llm:这个demo,基于openai的任务处理,实现本地文…
…档调用链的示例,可以使用chatgml处理一部分任务事件,也可以使用chatgml来完成记忆共享(SharedMemory),至于为什么使用openai原因主要有两个现象,第一点,因为大模型chatgml受限,导致很多langchain的demo只能部分实现,跟群主聊了下,这种问题只能通过微调模型,增加一部分指令集和状态术语的数据集进去,微调方案只能大家自己尝试了,对显卡要去较高.当然也可以考虑只训练一个任务格式化的gml,模型微调参考这个仓库的方式 https://github.com/liucongg/ChatGLM-Finetuning
|
2023-04-14 22:15:02 +08:00 |
imClumsyPanda
|
5f70ce191c
|
update cli_demo.py
|
2023-04-14 00:43:35 +08:00 |
zmf
|
d472f8bed7
|
.gitignore
.gitignore
|
2023-04-14 00:02:18 +08:00 |