imClumsyPanda
|
4df9d76f8a
|
add streaming option in configs/model_config.py
|
2023-05-01 23:52:28 +08:00 |
imClumsyPanda
|
966def8cfe
|
add stream support to webui.py
|
2023-04-26 23:27:15 +08:00 |
imClumsyPanda
|
b4aefca555
|
add stream support to cli_demo.py
|
2023-04-26 23:27:15 +08:00 |
imClumsyPanda
|
88ab9a1d21
|
update webui.py and local_doc_qa.py
|
2023-04-26 23:27:15 +08:00 |
imClumsyPanda
|
3b4b660d3c
|
update chatglm_llm.py
|
2023-04-26 23:27:15 +08:00 |
imClumsyPanda
|
59aff96add
|
update chatglm_llm.py
|
2023-04-22 21:20:18 +08:00 |
imClumsyPanda
|
54c983f4bc
|
update chatglm_llm.py
|
2023-04-22 12:20:08 +08:00 |
soon
|
37ceeae6e2
|
提交更
|
2023-04-21 21:27:20 +08:00 |
imClumsyPanda
|
f147043253
|
fix bug in chatglm_llm.py
|
2023-04-20 12:50:51 +08:00 |
imClumsyPanda
|
13b41553a3
|
update project to v0.1.3
|
2023-04-19 23:02:47 +08:00 |
imClumsyPanda
|
25ecc7f820
|
update chatglm_llm.py
|
2023-04-19 19:39:53 +08:00 |
Liao Zhenyu
|
edbe155c2e
|
1. 参考ChatGLM-6B代码实现模型多卡部署
|
2023-04-18 15:54:51 +08:00 |
Thaumstrial
|
2cd52f6605
|
Support p-tuning-v2
|
2023-04-15 14:43:12 +08:00 |
glide-the
|
57efaa5492
|
chatglm_with_shared_memory_openai_llm:这个demo,基于openai的任务处理,实现本地文…
…档调用链的示例,可以使用chatgml处理一部分任务事件,也可以使用chatgml来完成记忆共享(SharedMemory),至于为什么使用openai原因主要有两个现象,第一点,因为大模型chatgml受限,导致很多langchain的demo只能部分实现,跟群主聊了下,这种问题只能通过微调模型,增加一部分指令集和状态术语的数据集进去,微调方案只能大家自己尝试了,对显卡要去较高.当然也可以考虑只训练一个任务格式化的gml,模型微调参考这个仓库的方式 https://github.com/liucongg/ChatGLM-Finetuning
|
2023-04-14 22:15:02 +08:00 |
imClumsyPanda
|
a6184b01be
|
修改项目架构
|
2023-04-13 23:01:52 +08:00 |