Langchain-Chatchat/knowledge_base/samples/content/test_files/langchain-ChatGLM_open.csv

74 KiB
Raw Blame History

1titlefileurldetailid
20效果如何优化2023-04-04.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/14如图所示将该项目的README.md和该项目结合后回答效果并不理想请问可以从哪些方面进行优化0
31怎么让模型严格根据检索的数据进行回答,减少胡说八道的回答呢2023-04-04.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/15举个例子:1
42When I try to run the `python knowledge_based_chatglm.py`, I got this error in macOS(M1 Max, OS 13.2)2023-04-07.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/32```python2
53萌新求教大佬怎么改成AMD显卡或者CPU2023-04-10.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/48把.cuda()去掉就行3
64输出answer的时间很长是否可以把文本向量化的部分提前做好存储起来2023-04-10.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/50GPU4090 24G显存4
75报错Use `repo_type` argument if needed.2023-04-11.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/57Traceback (most recent call last):5
86无法打开gradio的页面2023-04-11.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/58$ python webui.py6
97支持word那word里面的图片正常显示吗2023-04-12.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/60如题,刚刚从隔壁转过来的,想先了解下7
108detectron2 is not installed. Cannot use the hi_res partitioning strategy. Falling back to partitioning with the fast strategy.2023-04-12.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/63能够正常的跑起来在加载content文件夹中的文件时每加载一个文件都会提示8
119cpu上运行webuistep3 asking时报错2023-04-12.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/66web运行文件加载都正常asking时报错9
1210建议弄一个插件系统2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/67如题弄成stable-diffusion-webui那种能装插件再开一个存储库给使用者或插件开发存储或下载插件。10
1311请教加载模型出错!?2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/75AttributeError: module 'transformers_modules.chatglm-6b.configuration_chatglm' has no attribute 'ChatGLMConfig 怎么解决呀11
1412从本地知识检索内容的时候是否可以设置相似度阈值小于这个阈值的内容不返回即使会小于设置的VECTOR_SEARCH_TOP_K参数呢谢谢大佬2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/76比如 问一些 你好/你是谁 等一些跟本地知识库无关的问题12
1513如何改成多卡推理?2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/77+113
1614能否弄个懒人包,可以一键体验?2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/78能否弄个懒人包,可以一键体验?14
1715连续问问题会导致崩溃2023-04-13.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/79看上去不是爆内存的问题,连续问问题后,会出现如下报错15
1816AttributeError: 'NoneType' object has no attribute 'as_retriever'2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/86环境windows 11, anaconda/python 3.816
1917FileNotFoundError: Could not find module 'nvcuda.dll' (or one of its dependencies). Try using the full path with constructor syntax.2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/87请检查一下cuda或cudnn是否存在安装问题17
2018加载txt文件失败2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/89![JppHrGOWFa](https://user-images.githubusercontent.com/109277248/232009383-bf7c46d1-a01e-4e0a-9de6-5b5ed3e36158.jpg)18
2119NameError: name 'chatglm' is not defined2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/90This share link expires in 72 hours. For free permanent hosting and GPU upgrades (NEW!), check out Spaces: https://huggingface.co/spaces19
2220打不开地址?2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/91报错数据如下:20
2321加载md文件出错2023-04-14.00https://github.com/imClumsyPanda/langchain-ChatGLM/issues/98运行 webui.py后能访问页面上传一个md文件后日志中有错误。等待后能加载完成提示可以提问了但提问没反应日志中有错误。 具体日志如下。21
2422建议增加获取在线知识的能力2023-04-15.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/101建议增加获取在线知识的能力22
2523txt 未能成功加载2023-04-15.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/103hinese. Creating a new one with MEAN pooling.23
2624pdf加载失败2023-04-15.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/105e:\a.txt加载成功了e:\a.pdf加载就失败pdf文件里面前面几页是图片后面都是文字加载失败没有报更多错误请问该怎么排查24
2725一直停在文本加载处2023-04-15.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/108一直停在文本加载处25
2826 File "/root/.cache/huggingface/modules/transformers_modules/chatglm-6b/modeling_chatglm.py", line 440, in forward new_tensor_shape = mixed_raw_layer.size()[:-1] + ( TypeError: torch.Size() takes an iterable of 'int' (item 2 is 'float')2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/113按照最新的代码,发现26
2927后续会提供前后端分离的功能吗?2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/114类似这种https://github.com/lm-sys/FastChat/tree/main/fastchat/serve27
3028安装依赖报错2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/115(test) C:\Users\linh\Desktop\langchain-ChatGLM-master>pip install -r requirements.txt28
3129问特定问题会出现爆显存2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/117正常提问没问题。29
3230Expecting value: line 1 column 1 (char 0)2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/118运行后 第一步加载配置一直报错:30
3331embedding https://huggingface.co/GanymedeNil/text2vec-large-chinese/tree/main是免费的效果比对openai的如何2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/119-------------------------------------------------------------------------------31
3432这是什么错误在Colab上运行的。2023-04-17.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/120libcuda.so.1: cannot open shared object file: No such file or directory32
3533只想用自己的lora微调后的模型进行对话不想加载任何本地文档该如何调整2023-04-18.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/121能出一个单独的教程吗33
3634租的gpu,Running on local URL: http://0.0.0.0:7860 To create a public link, set `share=True` in `launch()`. 浏览器上访问不了???2023-04-18.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/122(chatglm20230401) root@autodl-container-e82d11963c-10ece0d7:~/autodl-tmp/chatglm/langchain-ChatGLM-20230418# python3.9 webui.py34
3735本地部署中的报错请教2023-04-18.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/124您好在本地运行langchain-ChatGLM过程中环境及依赖的包都已经满足条件但是运行webui.py,报错如下运行cli_demo.py报错类似请问是哪里出了错呢盼望您的回复谢谢35
3836报错。The dtype of attention mask (torch.int64) is not bool2023-04-18.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/131The dtype of attention mask (torch.int64) is not bool36
3937[求助] pip install -r requirements.txt 的时候出现以下报错。。。有大佬帮忙看看怎么搞么下的release里面的包2023-04-18.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/134$ pip install -r requirements.txt37
4038如何提升根据问题搜索到对应知识的准确率2023-04-19.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/136外链知识库最大的问题在于问题是短文本,知识是中长文本。如何根据问题精准的搜索到对应的知识是个最大的问题。这类本地化项目不像百度,由无数的网页,基本上每个问题都可以找到对应的页面。38
4139是否可以增加向量召回的阈值设定,有些召回内容相关性太低,导致模型胡言乱语2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/140如题39
4240输入长度问题2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/141感谢作者支持ptuning微调模型。40
4341已有部署好的chatGLM-6b如何通过接口接入2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/144已有部署好的chatGLM-6b如何通过接口接入而不是重新加载一个模型41
4442执行web_demo.py后显示Killed就退出了是不是配置不足呢2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/146![图片](https://user-images.githubusercontent.com/26102866/233256425-c7aab999-11d7-4de9-867b-23ef18d519e4.png)42
4543执行python cli_demo1.py2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/147Traceback (most recent call last):43
4644报错ImportError: cannot import name 'GENERATION_CONFIG_NAME' from 'transformers.utils'2023-04-20.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/149(mychatGLM) PS D:\Users\admin3\zrh\langchain-ChatGLM> python cli_demo.py44
4745上传文件并加载知识库时,会不停地出现临时文件2023-04-21.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/153环境ubuntu 18.0445
4846向知识库中添加文件后点击”上传文件并加载知识库“后Segmentation fault报错。2023-04-23.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/161运行服务后的提示如下:46
4947langchain-serve 集成2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/162Hey 我是来自 [langchain-serve](https://github.com/jina-ai/langchain-serve) 的dev47
5048大佬们wsl的ubuntu怎么配置用cuda加速装了运行后发现是cpu在跑2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/164大佬们wsl的ubuntu怎么配置用cuda加速装了运行后发现是cpu在跑48
5149在github codespaces docker运行出错2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/165docker run -d --restart=always --name chatglm -p 7860:7860 -v /www/wwwroot/code/langchain-ChatGLM:/chatGLM chatglm49
5250有计划接入Moss模型嘛2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/166后续会开展测试目前主要在优化langchain部分效果如果有兴趣也欢迎提PR50
5351怎么实现 API 部署?2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/168利用 fastapi 实现 API 部署方式,具体怎么实现,有方法说明吗?51
5452'NoneType' object has no attribute 'message_types_by_name'报错2023-04-24.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/169_HISTOGRAMPROTO = DESCRIPTOR.message_types_by_name['HistogramProto']52
5553能否指定自己训练的text2vector模型2023-04-25.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/172请问大佬:53
5654关于项目支持的模型以及quantization_bit潜在的影响的问题2023-04-26.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/176作者您好~54
5755运行python3.9 api.py WARNING: You must pass the application as an import string to enable 'reload' or 'workers'.2023-04-26.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/179api.py文件最下面改成这样试试55
5856ValidationError: 1 validation error for HuggingFaceEmbeddings model_kwargs extra fields not permitted (type=value_error.extra)2023-04-26.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/180ValidationError: 1 validation error for HuggingFaceEmbeddings56
5957如果没有检索到相关性比较高的,回答“我不知道”2023-04-26.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/181如果通过设计system_template让模型在搜索到的文档都不太相关的情况下回答“我不知道”57
6058请问如果不能联网6B之类的文件从本地上传需要放到哪里2023-04-26.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/182感谢大佬的项目,很有启发~58
6159知识库问答--输入新的知识库名称是中文的话会报error2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/184知识库问答--输入新的知识库名称是中文的话会报error选择要加载的知识库那里也不显示之前添加的知识库59
6260现在能通过问题匹配的相似度值,来直接返回文档中的文段,而不经过模型吗?因为有些答案在文档中,模型自己回答,不能回答文档中的答案2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/186现在能通过问题匹配的相似度值,来直接返回文档中的文段,而不经过模型吗?因为有些答案在文档中,模型自己回答,不能回答文档中的答案。也就是说,提供向量检索回答+模型回答相结合的策略。如果相似度值高于一定数值,直接返回文档中的文本,没有高于就返回模型的回答或者不知道60
6361TypeError: The type of ChatGLM.callback_manager differs from the new default value; if you wish to change the type of this field, please use a type annotation2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/188Mac 运行 python3 ./webui.py 报 TypeError: The type of ChatGLM.callback_manager differs from the new default value; if you wish to change the type of this field, please use a type annotation61
6462Not Enough Memory2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/190运行命令行程序python cli_demo.py 已经成功加载pdf文件, 报“DefaultCPUAllocator: not enough memory: you tried to allocate 458288380900 bytes”错误请问哪里可以配置default memory62
6563参与开发问题2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/1911.是否需要进专门的开发群63
6664对话框中代码片段格式需改进2023-04-27.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/192最好能改进下输出代码片段的格式,目前输出的格式还不友好。64
6765请问未来有可能支持belle吗2023-04-28.01https://github.com/imClumsyPanda/langchain-ChatGLM/issues/195如题,谢谢大佬65
6866TypeError: cannot unpack non-iterable NoneType object2023-04-28.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/200When i tried to change the knowledge vector store through `init_knowledge_vector_store`, the error `TypeError: cannot unpack non-iterable NoneType object` came out.66
6967生成结果2023-04-28.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/202你好想问一下langchain+chatglm-6B找到相似匹配的prompt是直接返回prompt对应的答案信息还是chatglm-6B在此基础上自己优化答案67
7068在win、ubuntu下都出现这个错误attributeerror: 't5forconditionalgeneration' object has no attribute 'stream_chat'2023-04-29.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/207在win、ubuntu。下载完模型后没办法修改代码以执行本地模型每次都要重新输入路径 LLM 模型、Embedding 模型支持也都在官网下的在其他项目wenda下可以使用68
7169[FEATURE] knowledge_based_chatglm.py: renamed or missing?2023-04-30.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/210Not found. Was it renamed? Or, is it missing? How can I get it?69
7270sudo apt-get install -y nvidia-container-toolkit-base执行报错2023-05-01.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/211**问题描述 / Problem Description**70
7371效果不佳几乎答不上来2023-05-01.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/212提供了50条问答的docx文件71
7472有没有可能新增一个基于chatglm api调用的方式构建langchain2023-05-02.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/218我有两台8G GPU/40G内存的服务器一个台做成了chatglm的api 想基于另外一台服务器部署langchain网上好像没有类似的代码。72
7573电脑是intel的集成显卡 运行时告知我找不到nvcuda.dll模型无法运行2023-05-02.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/219您好我的电脑是intel的集成显卡不过CPU是i5-11400 @ 2.60GHz 内存64G73
7674根据langchain官方的文档和使用模式是否可以改Faiss为Elasticsearch会需要做哪些额外调整求解2023-05-03.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/221本人新手小白由于业务模式的原因有一些自己的场景和优化希望利用Elasticsearch做这个体系内部的检索机制不知道是否可以替换同时还会涉及到哪些地方的改动或者说可能会有哪些其他影响希望作者和大佬们不吝赐教74
7775请问未来有可能支持t5吗2023-05-04.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/224请问可能支持基於t5的模型吗?75
7876[BUG] 内存溢出 / torch.cuda.OutOfMemoryError:2023-05-04.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/229**问题描述 / Problem Description**76
7977报错 No module named 'chatglm_llm'2023-05-04.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/230明明已经安装了包却在python里吊不出来77
8078能出一个api部署的描述文档吗2023-05-04.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/233**功能描述 / Feature Description**78
8179使用docs/API.md 出错2023-05-04.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/234使用API.md文档2种方法出错79
8280加载pdf文档报错2023-05-05.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/238ew one with MEAN pooling.80
8381上传的本地知识文件后再次上传不能显示,只显示成功了一个,别的上传成功后再次刷新就没了2023-05-05.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/239您好,项目有很大启发,感谢~81
8482创建了新的虚拟环境安装了相关包并且自动下载了相关的模型但是仍旧出现OSError: Unable to load weights from pytorch checkpoint file for2023-05-05.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/240![78ac8e663fdc312d0e9d78da95925c4](https://user-images.githubusercontent.com/34124260/236378728-9ea4424f-0f7f-4013-9d33-820b723de321.png)82
8583[BUG] 数据加载不进来2023-05-05.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/243使用的.txt格式utf-8编码报以下错误83
8684不能读取pdf2023-05-05.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/244请问是webui还是cli_demo84
8785本地txt文件有500M加载的时候很慢如何提高速度2023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/251![yayRzxSYHP](https://user-images.githubusercontent.com/109277248/236592902-f5ab338d-c1e9-43dc-ae16-9df2cd3c1378.jpg)85
8886[BUG] gradio上传知识库后刷新之后 知识库就不见了 只有重启才能看到之前的上传的知识库2023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/253gradio上传知识库后刷新之后 知识库就不见了 只有重启才能看到之前的上传的知识库86
8987[FEATURE] 可以支持 OpenAI 的模型嘛?比如 GPT-3、GPT-3.5、GPT-4embedding 增加 text-embedding-ada-0022023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/254**功能描述 / Feature Description**87
9088[FEATURE] 能否增加对于milvus向量数据库的支持 / Concise description of the feature2023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/256**功能描述 / Feature Description**88
9189CPU和GPU上跑除了速度有区别准确率效果回答上有区别吗2023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/259理论上没有区别89
9290m1请问在生成回答时怎么看是否使用了mps or cpu2023-05-06.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/260m1请问在生成回答时怎么看是否使用了mps or cpu90
9391知识库一刷新就没了2023-05-07.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/263知识库上传后刷新就没了91
9492本地部署报没有模型2023-05-07.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/267建议在下载llm和embedding模型至本地后在configs/model_config中写入模型本地存储路径后再运行92
9593[BUG] python3: can't open file 'webui.py': [Errno 2] No such file or directory2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/269**问题描述 / Problem Description**93
9694模块缺失提示2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/271因为已有自己使用的docker环境直接启动webui.py提示94
9795运行api.py后执行curl -X POST "http://127.0.0.1:7861" 报错?2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/272执行curl -X POST "http://127.0.0.1:7861" \ -H 'Content-Type: application/json' \ -d '{"prompt": "你好", "history": []}',报错怎么解决95
9896[BUG] colab安装requirements提示protobuf版本问题2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/273pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts.96
9997请问项目里面向量相似度使用了什么方法计算呀?2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/275基本按照langchain里的FAISS.similarity_search_with_score_by_vector实现97
10098[BUG] 安装detectron2后pdf无法加载2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/276**问题描述 / Problem Description**98
10199[BUG] 使用ChatYuan-V2模型无法流式输出会报错2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/277一方面好像是ChatYuan本身不支持stream_chat有人在clueai那边提了issue他们说还没开发所以估计这个attribute调不起来但是另一方面看报错好像是T5模型本身就不是decoder-only模型所以不能流式输出吧个人理解99
102100[BUG] 无法加载text2vec模型2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/278**问题描述 / Problem Description**100
103101请问能否增加网络搜索功能2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/281请问能否增加网络搜索功能101
104102[FEATURE] 结构化数据sql、excel、csv啥时会支持呐。2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/283**功能描述 / Feature Description**102
105103TypeError: ChatGLM._call() got an unexpected keyword argument 'stop'2023-05-08.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/284No sentence-transformers model found with name D:\DevProject\langchain-ChatGLM\GanymedeNil\text2vec-large-chinese. Creating a new one with MEAN pooling.103
106104关于api.py的一些bug和设计逻辑问题2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/285首先冒昧的问一下这个api.py开发者大佬们是在自己电脑上测试后确实没问题吗104
107105有没有租用的算力平台上运行api.py后浏览器http://localhost:7861/报错2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/287是不是租用的gpu平台上都会出现这个问题105
108106请问一下项目中有用到文档段落切割方法吗?2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/288text_load中的文档切割方法用上了吗在代码中看好像没有用到106
109107报错 raise ValueError(f"Knowledge base {knowledge_base_id} not found") ValueError: Knowledge base ./vector_store not found2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/289File "/root/autodl-tmp/chatglm/langchain-ChatGLM-master/api.py", line 183, in chat107
110108能接入vicuna模型吗2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/290目前本地已经有了vicuna模型能直接接入吗108
111109[BUG] 提问公式相关问题大概率爆显存2023-05-09.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/291**问题描述 / Problem Description**109
112110安装pycocotools失败找了好多方法都不能解决。2023-05-10.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/292**问题描述 / Problem Description**110
113111使用requirements安装PyTorch安装的是CPU版本2023-05-10.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/294如题目使用requirements安装PyTorch安装的是CPU版本运行程序的时候也是使用CPU在工作。111
114112能不能给一个毛坯服务器的部署教程2023-05-10.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/298“开发部署”你当成服务器的部署教程用就行了。112
115113Error(s) in loading state_dict for ChatGLMForConditionalGeneration:2023-05-10.02https://github.com/imClumsyPanda/langchain-ChatGLM/issues/299运行中出现的问题7860的端口页面显示不出来求助。113
116114ChatYuan-large-v2模型加载失败2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/300**实际结果 / Actual Result**114
117115新增摘要功能2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/303你好,后续会考虑新增对长文本信息进行推理和语音理解功能吗?比如生成摘要115
118116[BUG] pip install -r requirements.txt 出错2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/304pip install langchain -i https://pypi.org/simple116
119117[BUG] 上传知识库文件报错2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/305![19621e29eaa547d01213bee53d81e6a](https://github.com/imClumsyPanda/langchain-ChatGLM/assets/84606552/7f6ceb46-e494-4b0e-939c-23b585a6d9d8)117
120118[BUG] AssertionError: <class 'gradio.layouts.Accordion'> Component with id 41 not a valid input component.2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/306**问题描述 / Problem Description**118
121119[BUG] CUDA out of memory with container deployment2023-05-10.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/310**问题描述 / Problem Description**119
122120[FEATURE] 增加微调训练功能2023-05-11.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/311**功能描述 / Feature Description**120
123121如何使用多卡部署多个gpu2023-05-11.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/315机器上有多个gpu,如何全使用了121
124122请问这个知识库问答和chatglm的关系是什么2023-05-11.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/319这个知识库问答哪部分关联到了chatglm是不是没有这个chatglm知识库问答也可单单拎出来122
125123[BUG] 运行的时候报错ImportError: libcudnn.so.8: cannot open shared object file: No such file or directory2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/324**问题描述 / Problem Description**raceback (most recent call last):123
126124webui启动成功但有报错2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/325**问题描述 / Problem Description**124
127125切换MOSS的时候报错2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/327danshi但是发布的源码中125
128126vicuna模型是否能接入2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/328您好关于MOSS模型和vicuna模型都是AutoModelForCausalLM来加载模型的但是稍作更改模型路径这些会报这个错误。这个错误的造成是什么126
129127你好请问一下在阿里云CPU服务器上跑可以吗可以的话比较理想的cpu配置是什么2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/330你好请问一下在阿里云CPU服务器上跑可以吗可以的话比较理想的cpu配置是什么127
130128你好请问8核32g的CPU可以跑多轮对话吗2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/331什么样的cpu配置比较好呢我目前想部署CPU下的多轮对话128
131129[BUG] 聊天内容输入超过10000个字符系统出现错误2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/332聊天内容输入超过10000个字符系统出现错误如下图所示129
132130能增加API的多用户访问接口部署吗2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/333默认部署程序仅支持单用户访问多用户则需要排队访问。测试过相关的几个Github多用户工程但是其中一些仍然不满足要求。本节将系统介绍如何实现多用户同时访问ChatGLM的部署接口包括http、websocket流式输出stream和web页面等方式主要目录如下所示。130
133131多卡部署2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/334用单机多卡或多机多卡fastapi部署模型怎样提高并发131
134132WEBUI能否指定知识库目录2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/335**功能描述 / Feature Description**132
135133[BUG] Cannot read properties of undefined (reading 'error')2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/336**问题描述 / Problem Description**133
136134[BUG] 1 validation error for HuggingFaceEmbeddings model_kwargs extra fields not permitted.2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/337模型加载到 100% 后出现问题:134
137135上传知识库需要重启能不能修复一下2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/338挺严重的这个问题135
138136[BUG] 4块v100卡爆显存在LLM会话模式也一样2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/339**问题描述 / Problem Description**136
139137针对上传的文件配置不同的TextSpliter2023-05-12.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/3411. 目前的ChineseTextSpliter切分对英文尤其是代码文件不友好而且限制固定长度导致对话结果不如人意137
140138[FEATURE] 未来可增加Bloom系列模型吗根据甲骨易的测试这系列中文评测效果不错2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/346**功能描述 / Feature Description**138
141139[BUG] v0.1.12打包镜像后启动webui.py失败 / Concise description of the issue2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/347**问题描述 / Problem Description**139
142140切换MOSS模型时报错2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/349昨天问了下说是transformers版本不对需要4.30.0发现没有这个版本今天更新到4.29.1,依旧报错,错误如下140
143141[BUG] pdf文档加载失败2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/350**问题描述 / Problem Description**141
144142建议可以在后期增强一波注释这样也有助于更多人跟进提PR2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/351知道作者和团队在疯狂更新审查代码,只是建议后续稳定后可以把核心代码进行一些注释的补充,从而能帮助更多人了解各个模块作者的思路从而提出更好的优化。142
145143[FEATURE] MOSS 量化版支援2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/353**功能描述 / Feature Description**143
146144[BUG] moss模型无法加载2023-05-13.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/356**问题描述 / Problem Description**144
147145[BUG] load_doc_qa.py 中的 load_file 函数有bug2023-05-14.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/358原函数为:145
148146[FEATURE] API模式知识库加载优化2023-05-14.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/359如题,当前版本,每次调用本地知识库接口,都将加载一次知识库,是否有更好的方式?146
149147运行Python api.py脚本后端部署后怎么使用curl命令调用2023-05-15.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/361也就是说,我现在想做个对话机器人,想和公司的前后端联调?怎么与前后端相互调用呢?可私信,有偿解答!!!147
150148上传知识库需要重启能不能修复一下2023-05-15.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/363上传知识库需要重启能不能修复一下148
151149[BUG] pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple2023-05-15.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/364我的python是3.8.5的149
152150pip install gradio 报错2023-05-15.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/367大佬帮我一下150
153151[BUG] pip install gradio 一直卡不动2023-05-15.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/369![aba82742dd9d4d242181662eb5027a7](https://github.com/imClumsyPanda/langchain-ChatGLM/assets/84606552/cd9600d9-f6e7-46b7-b1be-30ed8b99f76b)151
154152[BUG] 简洁阐述问题 / Concise description of the issue2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/370初次加载本地知识库成功,但提问后,就无法重写加载本地知识库152
155153[FEATURE] 简洁阐述功能 / Concise description of the feature2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/371**功能描述 / Feature Description**153
156154在windows上模型文件默认会安装到哪2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/372-------------------------------------------------------------------------------154
157155[FEATURE] 兼顾对话管理2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/374如何在知识库检索的情况下,兼顾对话管理?155
158156llm device: cpu embedding device: cpu2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/376**问题描述 / Problem Description**156
159157[FEATURE] 简洁阐述功能 /文本文件的知识点之间使用什么分隔符可以分割?2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/377**功能描述 / Feature Description**157
160158[BUG] 上传文件失败PermissionError: [WinError 32] 另一个程序正在使用此文件,进程无法访问。2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/379**问题描述 / Problem Description**158
161159[BUG] 执行python api.py 报错2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/383错误信息159
162160model_kwargs extra fields not permitted (type=value_error.extra)2023-05-16.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/384大家好,请问这个有遇到的么,160
163161[BUG] 简洁阐述问题 / Concise description of the issue2023-05-17.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/385执行的时候出现了ls1 = [ls[0]]161
164162[FEATURE] 性能优化2023-05-17.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/388**功能描述 / Feature Description**162
165163[BUG] Moss模型问答RuntimeError: probability tensor contains either inf, nan or element < 02023-05-17.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/390**问题描述 / Problem Description**163
166164有没有人知道v100GPU的32G显存会报错吗支持V100GPU吗2023-05-17.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/392**问题描述 / Problem Description**164
167165针对于编码问题比如'gbk' codec can't encode character '\xab' in position 14: illegal multibyte sequence粗浅的解决方法2023-05-17.03https://github.com/imClumsyPanda/langchain-ChatGLM/issues/397**功能描述 / Feature Description**165
168166Could not import sentence_transformers python package. Please install it with `pip install sentence_transformers`.2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/400**问题描述 / Problem Description**166
169167支持模型问答与检索问答2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/401不同的query根据意图不一致回答也应该不一样。167
170168文本分割的时候能不能按照txt文件的每行进行分割也就是按照换行符号\n进行分割2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/403下面的代码应该怎么修改?168
171169local_doc_qa/local_doc_chat 接口响应是串行2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/405**问题描述 / Problem Description**169
172170为什么找到出处了,但是还是无法回答该问题?2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/406![图片](https://github.com/imClumsyPanda/langchain-ChatGLM/assets/3349611/1fc81d61-2409-4330-9065-fdda1a27c86a)170
173171请问下:知识库测试中的:添加单条内容,如果换成文本导入是是怎样的格式?我发现添加单条内容测试效果很好.2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/412我发现在知识库测试中`添加单条内容`,并且勾选`禁止内容分句入库`,即使 `不开启上下文关联`的测试效果都非常好.171
174172[BUG] 无法配置知识库2023-05-18.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/413**问题描述 / Problem Description**172
175173[BUG] 部署在阿里PAI平台的EAS上访问页面是白屏2023-05-19.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/414**问题描述 / Problem Description**173
176174API部署后调用/local_doc_qa/local_doc_chat 返回Knowledge base samples not found2023-05-19.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/416入参174
177175[FEATURE] 上传word另存为的txt文件报 'ascii' codec can't decode byte 0xb9 in position 6: ordinal not in range(128)2023-05-20.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/421上传word另存为的txt文件报175
178176创建保存的知识库刷新后没有出来,这个知识库是永久保存的吗?可以连外部的 向量知识库吗?2023-05-21.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/422创建保存的知识库刷新后没有出来,这个知识库是永久保存的吗?可以连外部的 向量知识库吗?176
179177[BUG] 用colab运行无法加载模型报错'NoneType' object has no attribute 'message_types_by_name'2023-05-21.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/423**问题描述 / Problem Description**177
180178请问是否需要用到向量数据库?以及什么时候需要用到向量数据库?2023-05-21.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/424目前用的是 text2vec 请问是否需要用到向量数据库?以及什么时候需要用到向量数据库?178
181179huggingface模型引用问题2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/427它最近似乎变成了一个Error179
182180你好加载本地txt文件出现这个killed错误TXT文件有100M左右大小。原因是谢谢。2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/429<img width="677" alt="929aca3b22b8cd74e997a87b61d241b" src="https://github.com/imClumsyPanda/langchain-ChatGLM/assets/109277248/24024522-c884-4170-b5cf-a498491bd8bc">180
183181想请问一下关于对本地知识的管理是如何管理例如通过http API接口添加数据 或者 删除某条数据2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/430例如通过http API接口添加、删除、修改 某条数据。181
184182[FEATURE] 双栏pdf识别问题2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/432试了一下模型感觉对单栏pdf识别的准确性较高但是由于使用的基本是ocr的技术对一些双栏pdf论文识别出来有很多问题请问有什么办法改善吗182
185183部署启动小问题,小弟初学求大佬解答2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/4331.python loader/image_loader.py时提示ModuleNotFoundError: No module named 'configs'但是跑python webui.py还是还能跑183
186184能否支持检测到目录下文档有增加而去增量加载文档,不影响前台对话,其实就是支持读写分离。如果能支持查询哪些文档向量化了,删除过时文档等就更好了,谢谢。2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/434**功能描述 / Feature Description**184
187185[BUG] 简洁阐述问题 / windows 下cuda错误请用https://github.com/Keith-Hon/bitsandbytes-windows.git2023-05-22.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/435pip install git+https://github.com/Keith-Hon/bitsandbytes-windows.git185
188186[BUG] from commit 33bbb47, Required library version not found: libbitsandbytes_cuda121_nocublaslt.so. Maybe you need to compile it from source?2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/438**问题描述 / Problem Description**186
189187[BUG] 简洁阐述问题 / Concise description of the issue上传60m的txt文件报错显示超时请问这个能上传的文件大小有限制吗2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/439ERROR 2023-05-23 11:13:09,627-1d: Timeout reached while detecting encoding for ./docs/GLM模型格式数据.txt187
190188[BUG] TypeError: issubclass() arg 1 must be a class2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/440**问题描述**188
191189执行python3 webui.py后一直提示”模型未成功加载请到页面左上角"模型配置"选项卡中重新选择后点击"加载模型"按钮“2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/441**问题描述 / Problem Description**189
192190是否能提供网页文档得导入支持2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/444现在很多都是在线文档作为协作得工具所以通过URL导入在线文档需求更大190
193191[BUG] history 索引问题2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/445在比较对话框的history和模型chat function 中的history时 发现并不匹配,在传入 llm._call 时history用的索引是不是有点问题导致上一轮对话的内容并不输入给模型。191
194192[BUG] moss_llm没有实现2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/447有些方法没支持如history_len192
195193请问langchain-ChatGLM如何删除一条本地知识库的数据2023-05-23.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/448例如:用户刚刚提交了一条错误的数据到本地知识库中了,现在如何在本地知识库从找到,并且对此删除。193
196194[BUG] 简洁阐述问题 / UnboundLocalError: local variable 'resp' referenced before assignment2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/450在最新一版的代码中, 运行api.py 出现了以上错误UnboundLocalError: local variable 'resp' referenced before assignment 通过debug的方式观察到local_doc_qa.llm.generatorAnswer(prompt=question, history=history,streaming=True)可能不返回任何值。194
197195请问有没有 PROMPT_TEMPLATE 能让模型不回答敏感问题2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/452## PROMPT_TEMPLATE问题195
198196[BUG] 测试环境 Python 版本有误2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/456**问题描述 / Problem Description**196
199197[BUG] webui 部署后样式不正确2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/458**问题描述 / Problem Description**197
200198配置默认LLM模型的问题2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/459**问题描述 / Problem Description**198
201199[FEATURE]是时候更新一下autoDL的镜像了2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/460如题跑了下autoDL的镜像发现是4.27号的git pull新版本的代码功能+老的依赖环境,各种奇奇怪怪的问题。199
202200[BUG] tag:0.1.13 以cpu模式下想使用本地模型无法跑起来各种路径参数问题2023-05-24.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/462-------------------------------------------------------------------------------200
203201[BUG] 有没有同学遇到过这个错加载本地txt文件出现这个killed错误TXT文件有100M左右大小。2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/463运行cli_demo.py。是本地的txt文件太大了吗100M左右。201
204202API版本能否提供WEBSOCKET的流式接口2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/464webui 版本中采用了WS的流式输出整体感知反应很快202
205203[BUG] 安装bug记录2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/465按照[install文档](https://github.com/imClumsyPanda/langchain-ChatGLM/blob/master/docs/INSTALL.md)安装的,203
206204VUE的pnmp i执行失败的修复-用npm i命令即可2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/466感谢作者!非常棒的应用,用的很开心。204
207205请教个问题有没有人知道cuda11.4是否支持???2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/467请教个问题有没有人知道cuda11.4是否支持???205
208206请问有实现多轮问答中基于问题的搜索上下文关联么2023-05-25.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/468在基于知识库的多轮问答中,第一个问题讲述了一个主题,后续的问题描述没有包含这个主题的关键词,但又存在上下文的关联。如果用后续问题去搜索知识库有可能会搜索出无关的信息,从而导致大模型无法正确回答问题。请问这个项目要考虑这种情况吗?206
209207[BUG] 内存不足的问题2023-05-26.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/470我用了本地的chatglm-6b-int4模型然后显示了内存不足win10+32G内存+1080ti11G一般需要多少内存才足够这个bug应该如何解决207
210208[BUG] 纯内网环境安装pycocotools失败2023-05-26.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/472**问题描述 / Problem Description**208
211209[BUG] webui.py 重新加载模型会导致 KeyError2023-05-26.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/473**问题描述 / Problem Description**209
212210chatyuan无法使用2023-05-26.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/475**问题描述 / Problem Description**210
213211[BUG] 文本分割模型AliTextSplitter存在bug会把“.”作为分割符2023-05-26.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/476阿里达摩院的语义分割模型存在bug默认会把".”作为分割符进行分割而不管上下文语义。是否还有其他分割符则未知。建议的修改方案:把“.”统一替换为其他字符,分割后再替换回来。或者添加其他分割模型。211
214212[BUG] RuntimeError: Error in faiss::FileIOReader::FileIOReader(const char*) a2023-05-27.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/479**问题描述 / Problem Description**212
215213[FEATURE] 安装为什么conda create要额外指定路径 用-p ,而不是默认的/envs下面2023-05-28.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/481##**功能描述 / Feature Description**213
216214[小白求助] 通过Anaconda执行webui.py后无法打开web链接2023-05-28.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/485在执行webui.py命令后http://0.0.0.0:7860复制到浏览器后无法打开显示“无法访问此网站”。214
217215[BUG] 使用 p-tuningv2后的模型重新加载报错2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/486把p-tunningv2训练完后的相关文件放到了p-tunningv2文件夹下勾选使用p-tuningv2点重新加载模型控制台输错错误信息215
218216[小白求助] 服务器上执行webui.py后在本地无法打开web链接2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/487此项目执行在xxx.xx.xxx.xxx服务器上我在webui.py上的代码为 (demo216
219217[FEATURE] 能不能支持VisualGLM-6B2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/488**功能描述 / Feature Description**217
220218你好问一下各位后端api部署的时候支持多用户同时问答吗2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/489支持多用户的话,最多支持多少用户问答?根据硬件而定吧?218
221219V100GPU显存占满而利用率却为0这是为什么2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/491<img width="731" alt="de45fe2b6cb76fa091b6e8f76a3de60" src="https://github.com/imClumsyPanda/langchain-ChatGLM/assets/109277248/c32efd52-7dbf-4e9b-bd4d-0944d73d0b8b">219
222220[求助] 如果在公司内部搭建产品知识库使用INT-4模型200人规模需要配置多少显存的服务器2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/492如题,计划给公司搭一个在线知识库。220
223221你好请教个问题目前问答回复需要20秒左右如何提高速度V10032G服务器。2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/493**问题描述 / Problem Description**221
224222[FEATURE] 如何实现只匹配下文,而不要上文的结果2023-05-29.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/494在构建自己的知识库时主要采用问答对的形式那么也就是我需要的回答是在我的问题下面的内容但是目前设置了chunk_size的值以后匹配的是上下文的内容但我实际并不需要上文的。为了实现更完整的展示下面的答案我只能调大chunk_size的值但实际上上文的一半内容都是我不需要的。也就是扔了一半没用的东西给prompt在faiss.py中我也没找到这块的一些描述请问该如何进行修改呢222
225223你好问一下我调用api.py部署为什么用ip加端口可以使用postman调用而改为域名使用postman无法调用2023-05-30.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/497![5ufBSWxLyF](https://github.com/imClumsyPanda/langchain-ChatGLM/assets/109277248/70e2fbac-5699-48d0-b0d1-3dc84fd042c2)223
226224调用api.py中的stream_chat返回source_documents中出现中文乱码。2023-05-30.04https://github.com/imClumsyPanda/langchain-ChatGLM/issues/498-------------------------------------------------------------------------------224
227225[BUG] 捉个虫api.py中的stream_chat解析json问题2023-05-30.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/501**问题描述 / Problem Description**225
228226windows本地部署遇到了omp错误2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/502**问题描述 / Problem Description**226
229227[BUG] bug14 ,"POST /local_doc_qa/upload_file HTTP/1.1" 422 Unprocessable Entity2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/503上传的文件报错返回错误api.py227
230228你好请教个问题api.py部署的时候如何改为多线程调用谢谢2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/505目前的api.py脚本不支持多线程228
231229你好请教一下。api.py部署的时候能不能提供给后端流失返回结果。2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/507curl -X 'POST' \229
232230流式输出流式接口使用server-sent events技术。2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/508想这样一样https://blog.csdn.net/weixin_43228814/article/details/130063010230
233231计划增加流式输出功能吗ChatGLM模型通过api方式调用响应时间慢怎么破Fastapi流式接口来解惑能快速提升响应速度2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/509**问题描述 / Problem Description**231
234232[BUG] 知识库上传时发生ERROR (could not open xxx for reading: No such file or directory)2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/510**问题描述 / Problem Description**232
235233api.py脚本打算增加SSE流式输出吗2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/511curl调用的时候可以检测第一个字从而提升回复的体验233
236234[BUG] 使用tornado实现webSocket可以多个客户端同时连接并且实现流式回复但是多个客户端同时使用答案就很乱是模型不支持多线程吗2023-05-31.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/512import asyncio234
237235支持 chinese_alpaca_plus_lora 吗 基于llama的2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/514支持 chinese_alpaca_plus_lora 吗 基于llama的https://github.com/ymcui/Chinese-LLaMA-Alpaca这个项目的235
238236[BUG] 现在能读图片的pdf了但是文字的pdf反而读不了了什么情况2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/515**问题描述 / Problem Description**236
239237在推理的过程中卡住不动,进程无法正常结束2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/516**问题描述 / Problem Description**237
240238curl调用的时候从第二轮开始curl如何传参可以实现多轮对话2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/517第一轮调用:238
241239建议添加api.py部署后的日志管理功能2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/518-------------------------------------------------------------------------------239
242240有大佬知道怎么多线程部署api.py脚本吗2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/519api.py部署后使用下面的请求时间较慢好像是单线程如何改为多线程部署api.py240
243241[BUG] 上传文件到知识库 任何格式与内容都永远失败2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/520上传知识库的时候传txt无法解析就算是穿content/sample里的样例txt也无法解析上传md、pdf等都无法加载会持续性等待等到了超过30分钟也不行。241
244242关于prompt_template的问题2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/521请问这段prompt_template是什么意思要怎么使用可以给一个具体模板参考下吗242
245243[BUG] 简洁阐述问题 / Concise description of the issue2023-06-01.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/522**问题描述 / Problem Description**243
246244中文分词句号处理(关于表达金额之间的"."2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/523建议处理12.6亿元的这样的分词最好别分成12 和6亿这样的需要放到一起244
247245ImportError: cannot import name 'inference' from 'paddle'2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/526在网上找了一圈有说升级paddle的我做了还是没有用有说安装paddlepaddle的我找了豆瓣的镜像源但安装报错cannot detect archive format245
248246[BUG] webscoket 接口串行问题(/local_doc_qa/stream-chat/{knowledge_base_id}2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/527**问题描述 / Problem Description**246
249247[FEATURE] 刷新页面更新知识库列表2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/528**功能描述以及改进方案**247
250248[BUG] 使用ptuning微调模型后问答效果并不好2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/530### 未调用ptuning248
251249[BUG] 多轮对话效果不佳2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/532在进行多轮对话的时候无论设置的history_len是多少效果都不好。事实上我将其设置成了最大值10但在对话中仍然无法实现多轮对话249
252250RuntimeError: MPS backend out of memory (MPS allocated: 18.00 GB, other allocations: 4.87 MB, max allowed: 18.13 GB)2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/533**问题描述**250
253251请大家重视这个issue真正使用肯定是多用户并发问答希望增加此功能2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/534这得看你有多少显卡251
254252在启动项目的时候如何使用到多张gpu啊2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/535**在启动项目的时候如何使用到多张gpu啊**252
255253使用流式输出的时候curl调用的格式是什么2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/536app.websocket("/local_doc_qa/stream-chat/{knowledge_base_id}")(stream_chat)中的knowledge_base_id应该填什么253
256254使用本地 vicuna-7b模型启动错误2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/538环境: ubuntu 22.04 cuda 12.1 没有安装nccl使用rtx2080与m60显卡并行计算254
257255为什么会不调用GPU直接调用CPU呢2023-06-02.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/539我的阿里云配置是16G显存用默认代码跑webui.py时提示255
258256上传多个文件时会互相覆盖2023-06-03.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/5411、在同一个知识库中上传多个文件时会互相覆盖无法结合多个文档的知识有大佬知道怎么解决吗256
259257[BUG] gcc不是内部或外部命令/LLM对话只能持续一轮2023-06-03.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/542No compiled kernel found.257
260258以API模式启动项目却没有知识库的接口列表2023-06-04.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/544请问如何获取知识库的接口列表?如果没有需要自行编写的话,可不可以提供相关的获取方式,感谢258
261259程序以API模式启动的时候如何才能让接口以stream模式被调用呢2023-06-05.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/546作者您好我在以API模式进行程序启动后我发现接口响应时间很长怎么样才能让接口以stream模式被调用呢我想实现像webui模式的回答那样259
262260关于原文中表格转为文本后数据相关度问题。2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/547原文中表格数据转换为文本,以 X-Y... 的格式每一行组织成一句话,但这样做后发现相关度较低,效果很差,有何好的方案吗?260
263261启动后LLM和知识库问答模式均只有最后一轮记录2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/548拉取最新代码,问答时,每次页面只显示最后一次问答记录,需要修改什么参数才可以保留历史记录?261
264262提供system message配置以便于让回答不要超出知识库范围2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/549**功能描述 / Feature Description**262
265263[BUG] 使用p-tunningv2报错2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/551按照readme的指示把p-tunningv2训练完后的文件放到了p-tunningv2文件夹下勾选使用p-tuningv2点重新加载模型控制台提示错误信息263
266264[BUG] 智障,这么多问题,也好意思放出来,浪费时间2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/553。。。264
267265[FEATURE] 我看代码文件中有一个ali_text_splitter.py为什么不用他这个文本分割器了2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/554我看代码文件中有一个ali_text_splitter.py为什么不用他这个文本分割器了265
268266加载文档函数报错2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/557def load_file(filepath, sentence_size=SENTENCE_SIZE):266
269267参考指引安装docker后运行cli_demo.py提示killed2023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/558root@b3d1bd08095c:/chatGLM# python3 cli_demo.py267
270268注意:如果安装错误,注意这两个包的版本 wandb==0.11.0 protobuf==3.18.32023-06-06.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/559Error1: 如果启动异常报错 `protobuf` 需要更新到 `protobuf==3.18.3 `268
271269知识库对长文的知识相关度匹配不太理想有何优化方向2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/563我们可能录入一个文章有 1W 字,里面涉及这个文章主题的很多角度问题,我们针对他提问,他相关度匹配的内容和实际我们需要的答案相差很大怎么办。269
272270使用stream-chat函数进行流式输出的时候能使用curl调用吗2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/565为什么下面这样调用会报错???270
273271有大佬实践过 并行 或者 多线程 的部署方案吗?2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/566+1271
274272多线程部署遇到问题?2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/567<img width="615" alt="3d87bf74f0cf1a4820cc9e46b245859" src="https://github.com/imClumsyPanda/langchain-ChatGLM/assets/109277248/8787570d-88bd-434e-aaa4-cb9276d1aa50">272
275273[BUG] 用fastchat加载vicuna-13b模型进行知识库的问答有token的限制错误2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/569当我开启fastchat的vicuna-13b的api服务然后config那里配置好(api本地测试过可以返回结果),然后知识库加载好之后(知识库大概有1000多个文档用chatGLM可以正常推理)进行问答时出现token超过限制就问了一句hello273
276274现在的添加知识库,文件多了总是报错,也不知道自己加载了哪些文件,报错后也不知道是全部失败还是一部分成功;希望能有个加载指定文件夹作为知识库的功能2023-06-07.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/574**功能描述 / Feature Description**274
277275[BUG] moss模型本地加载报错2023-06-08.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/577moss模型本地加载报错275
278276加载本地moss模型报错Can't instantiate abstract class MOSSLLM with abstract methods _history_len2023-06-08.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/578(vicuna) ps@ps[13:56:20]:/data/chat/langchain-ChatGLM2/langchain-ChatGLM-0.1.13$ python webui.py --model-dir local_models --model moss --no-remote-model276
279277[FEATURE] 能增加在前端页面控制prompt_template吗或是能支持前端页面选择使用哪个prompt2023-06-08.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/579目前只能在config里修改一个prompt想在多个不同场景切换比较麻烦277
280278[BUG] streamlit ui的bug在增加知识库时会报错2023-06-08.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/580**问题描述 / Problem Description**278
281279[FEATURE] webui/webui_st可以支持history吗目前仅能一次对话2023-06-08.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/581试了下webui和webui_st都不支持历史对话啊只能对话一次不能默认开启所有history吗279
282280启动python cli_demo.py --model chatglm-6b-int4-qe报错2023-06-09.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/585下载好模型,和相关依赖环境,之间运行`python cli_demo.py --model chatglm-6b-int4-qe`报错了:280
283281重新构建知识库报错2023-06-09.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/586**问题描述 / Problem Description**281
284282[FEATURE] 能否屏蔽paddle我不需要OCR效果差依赖环境还很复杂2023-06-09.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/587希望能不依赖paddle282
285283question :文档向量化这个可以自己手动实现么?2023-06-09.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/589现有公司级数据500G+,需要使用这个功能,请问如何手动实现这个向量化,然后并加载283
286284view前端能进行流式的返回吗2023-06-09.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/590view前端能进行流式的返回吗284
287285[BUG] Load parallel cpu kernel failed, using default cpu kernel code2023-06-11.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/594**问题描述 / Problem Description**285
288286[BUG] 简洁阐述问题 / Concise description of the issue2023-06-11.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/595**问题描述 / Problem Description**286
289287我在上传本地知识库时提示KeyError: 'name'错误,本地知识库都是.txt文件文件数量大约是2000+。2023-06-12.05https://github.com/imClumsyPanda/langchain-ChatGLM/issues/597<img width="649" alt="KError" src="https://github.com/imClumsyPanda/langchain-ChatGLM/assets/59411575/1ecc8182-aeee-4a0a-bbc3-74c2f1373f2d">287
290288model_config.py中有vicuna-13b-hf模型的配置信息但是好像还是不可用2023-06-12.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/600@dongyihua543288
291289ImportError: Using SOCKS proxy, but the 'socksio' package is not installed. Make sure to install httpx using `pip install httpx[socks]`.2023-06-12.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/605应该代理问题,但是尝试了好多方法都解决不了,289
292290[BUG] similarity_search_with_score_by_vector在找不到匹配的情况下出错2023-06-12.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/607在设置匹配阈值 VECTOR_SEARCH_SCORE_THRESHOLD 的情况下vectorstore会返回空此时上述处理函数会出错290
293291[FEATURE] 请问如何搭建英文知识库呢2023-06-12.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/609**功能描述 / Feature Description**291
294292谁有vicuna权重llama转换之后的2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/611**问题描述 / Problem Description**292
295293[FEATURE] API能实现上传文件夹的功能么2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/612用户懒得全选所有的文件就想上传个文件夹请问下API能实现这个功能么293
296294请问在多卡部署后,上传单个文件作为知识库,用的是单卡在生成向量还是多卡?2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/614目前我检测我本地多卡部署的,好像生成知识库向量的时候用的还是单卡294
297295[BUG] python webui.py提示非法指令2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/615(/data/conda-langchain [root@chatglm langchain-ChatGLM]# python webui.py295
298296知识库文件跨行切分问题2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/616我的知识库文件txt文件是一行一条知识用\n分行。296
299297[FEATURE] bing搜索问答有流式的API么2023-06-13.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/617web端是有这个bing搜索回答但api接口没有发现大佬能给个提示么297
300298希望出一个macos m2的安装教程2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/620mac m2安装模型加载成功了知识库文件也上传成功了但是一问答就会报错报错内容如下298
301299为【出处】提供高亮显示2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/621具体出处里面,对相关的内容高亮显示,不包含前后文。299
302300[BUG] CPU运行cli_demo.py不回答hang住2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/622没有GPU32G内存的ubuntu机器。300
303301关于删除知识库里面的文档后LLM知识库对话的时候还是会返回该被删除文档的内容2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/623如题在vue前端成功执行删除知识库里面文档A.txt后未能也在faiss索引中也删除该文档LLM还是会返回这个A.txt的内容并且以A.txt为出处未能达到删除的效果301
304302[BUG] 调用知识库进行问答,显存会一直叠加2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/62514G的显存,调用的chatglm-6b-int8模型,进行知识库问答时,最多问答四次就会爆显存了,观察了一下显存使用情况,每一次使用就会增加一次显存,请问这样是正常的吗?是否有什么配置需要开启可以解决这个问题?例如进行一次知识库问答清空上次问题的显存?302
305303[BUG] web页面 重新构建数据库 失败,导致 原来的上传的数据库都没了2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/626web页面 重新构建数据库 失败,导致 原来的上传的数据库都没了303
306304在CPU上运行webui.py报错Tensor on device cpu is not on the expected device meta!2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/627在CPU上运行python webui.py能启动但最后有RuntimeError: Tensor on device cpu is not on the expected device meta!304
307305OSError: [WinError 1114] 动态链接库(DLL)初始化例程失败。 Error loading "E:\xxx\envs\langchain\lib\site-packages\torch\lib\caffe2_nvrtc.dll" or one of its dependencies.哪位大佬知道如何解决吗?2023-06-14.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/629**问题描述 / Problem Description**305
308306[BUG] WEBUI删除知识库文档会导致知识库问答失败2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/632如题,从知识库已有文件中选择要删除的文件,点击删除后,在问答框输入内容回车报错306
309307更新后的版本中删除知识库中的文件再提问出现error错误2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/634针对更新版本,识别到一个问题,过程如下:307
310308我配置好了环境,想要实现本地知识库的问答?可是它返回给我的2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/637没有总结,只有相关度的回复,但是我看演示里面表现的,回复是可以实现总结的,我去查询代码308
311309[BUG] NPM run dev can not successfully start the VUE frontend2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/638**问题描述 / Problem Description**309
312310[BUG] 简洁阐述问题 / Concise description of the issue2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/639**问题描述 / Problem Description**310
313311提一个模型加载的bug我在截图中修复了你们有空可以看一下。2023-06-15.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/642![model_load_bug](https://github.com/imClumsyPanda/langchain-ChatGLM/assets/59411575/4432adc4-ccdd-45d9-aafc-5f2d1963403b)311
314312[求助]关于设置embedding model路径的问题2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/643如题,我之前成功跑起来过一次,但因环境丢失重新配置 再运行webui就总是报错312
315313Lora微调后的模型可以直接使用吗2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/646看model_config.py里是有USE_LORA这个参数的但是在cli_demo.py和webui.py这两个里面都没有用到实际测试下来模型没有微调的效果想问问现在这个功能实现了吗313
316314write_check_file在tmp_files目录下生成的load_file.txt是否需要一直保留占用空间很大在建完索引后能否删除2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/647**功能描述 / Feature Description**314
317315[BUG] /local_doc_qa/list_files?knowledge_base_id=test删除知识库bug2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/6491.新建test知识库并上传文件在vue前端完成并检查后端发现确实生成了test文件夹以及下面的content和vec_store315
318316[BUG] vue webui无法加载知识库2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/650拉取了最新的代码分别运行了后端api和前端web点击知识库始终只能显示simple无法加载知识库316
319317不能本地加载moss模型吗2023-06-16.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/652手动下载模型设置local_model_path路径依旧提示缺少文件该如何正确配置317
320318macos m2 pro docker 安装失败2023-06-17.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/654macos m2 pro docker 安装失败318
321319[BUG] mac m1 pro 运行提示 zsh: segmentation fault2023-06-17.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/655运行: python webui.py319
322320安装 requirements 报错2023-06-17.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/656(langchainchatglm) D:\github\langchain-ChatGLM>pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple/320
323321[BUG] AssertionError2023-06-17.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/658**问题描述 / Problem Description**321
324322[FEATURE] 支持AMD win10 本地部署吗?2023-06-18.06https://github.com/imClumsyPanda/langchain-ChatGLM/issues/660**功能描述 / Feature Description**322