reformat config files
This commit is contained in:
parent
5e0476925b
commit
a938b67163
|
|
@ -117,5 +117,5 @@ text_splitter_dict = {
|
||||||
# TEXT_SPLITTER 名称
|
# TEXT_SPLITTER 名称
|
||||||
TEXT_SPLITTER_NAME = "ChineseRecursiveTextSplitter"
|
TEXT_SPLITTER_NAME = "ChineseRecursiveTextSplitter"
|
||||||
|
|
||||||
## Embedding模型定制词语的词表文件
|
# Embedding模型定制词语的词表文件
|
||||||
EMBEDDING_KEYWORD_FILE = "embedding_keywords.txt"
|
EMBEDDING_KEYWORD_FILE = "embedding_keywords.txt"
|
||||||
|
|
@ -1,6 +1,5 @@
|
||||||
import os
|
import os
|
||||||
|
|
||||||
|
|
||||||
# 可以指定一个绝对路径,统一存放所有的Embedding和LLM模型。
|
# 可以指定一个绝对路径,统一存放所有的Embedding和LLM模型。
|
||||||
# 每个模型可以是一个单独的目录,也可以是某个目录下的二级子目录
|
# 每个模型可以是一个单独的目录,也可以是某个目录下的二级子目录
|
||||||
MODEL_ROOT_PATH = ""
|
MODEL_ROOT_PATH = ""
|
||||||
|
|
@ -93,7 +92,6 @@ MODEL_PATH = {
|
||||||
# 选用的 Embedding 名称
|
# 选用的 Embedding 名称
|
||||||
EMBEDDING_MODEL = "m3e-base" # 可以尝试最新的嵌入式sota模型:bge-large-zh-v1.5
|
EMBEDDING_MODEL = "m3e-base" # 可以尝试最新的嵌入式sota模型:bge-large-zh-v1.5
|
||||||
|
|
||||||
|
|
||||||
# Embedding 模型运行设备。设为"auto"会自动检测,也可手动设定为"cuda","mps","cpu"其中之一。
|
# Embedding 模型运行设备。设为"auto"会自动检测,也可手动设定为"cuda","mps","cpu"其中之一。
|
||||||
EMBEDDING_DEVICE = "auto"
|
EMBEDDING_DEVICE = "auto"
|
||||||
|
|
||||||
|
|
@ -191,13 +189,11 @@ ONLINE_LLM_MODEL = {
|
||||||
},
|
},
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
# 通常情况下不需要更改以下内容
|
# 通常情况下不需要更改以下内容
|
||||||
|
|
||||||
# nltk 模型存储路径
|
# nltk 模型存储路径
|
||||||
NLTK_DATA_PATH = os.path.join(os.path.dirname(os.path.dirname(__file__)), "nltk_data")
|
NLTK_DATA_PATH = os.path.join(os.path.dirname(os.path.dirname(__file__)), "nltk_data")
|
||||||
|
|
||||||
|
|
||||||
VLLM_MODEL_DICT = {
|
VLLM_MODEL_DICT = {
|
||||||
"aquila-7b": "BAAI/Aquila-7B",
|
"aquila-7b": "BAAI/Aquila-7B",
|
||||||
"aquilachat-7b": "BAAI/AquilaChat-7B",
|
"aquilachat-7b": "BAAI/AquilaChat-7B",
|
||||||
|
|
@ -248,7 +244,7 @@ VLLM_MODEL_DICT = {
|
||||||
|
|
||||||
}
|
}
|
||||||
|
|
||||||
## 你认为支持Agent能力的模型,可以在这里添加,添加后不会出现可视化界面的警告
|
# 你认为支持Agent能力的模型,可以在这里添加,添加后不会出现可视化界面的警告
|
||||||
SUPPORT_AGENT_MODEL = [
|
SUPPORT_AGENT_MODEL = [
|
||||||
"azure-api",
|
"azure-api",
|
||||||
"openai-api",
|
"openai-api",
|
||||||
|
|
|
||||||
|
|
@ -17,13 +17,12 @@
|
||||||
# - input: 用户输入内容
|
# - input: 用户输入内容
|
||||||
# - agent_scratchpad: Agent的思维记录
|
# - agent_scratchpad: Agent的思维记录
|
||||||
|
|
||||||
PROMPT_TEMPLATES = {}
|
PROMPT_TEMPLATES = {
|
||||||
|
"completion": {
|
||||||
PROMPT_TEMPLATES["completion"] = {
|
|
||||||
"default": "{input}"
|
"default": "{input}"
|
||||||
}
|
},
|
||||||
|
|
||||||
PROMPT_TEMPLATES["llm_chat"] = {
|
"llm_chat": {
|
||||||
"default": "{{ input }}",
|
"default": "{{ input }}",
|
||||||
|
|
||||||
"py":
|
"py":
|
||||||
|
|
@ -32,9 +31,9 @@ PROMPT_TEMPLATES["llm_chat"] = {
|
||||||
{{ input }}
|
{{ input }}
|
||||||
"""
|
"""
|
||||||
,
|
,
|
||||||
}
|
},
|
||||||
|
|
||||||
PROMPT_TEMPLATES["knowledge_base_chat"] = {
|
"knowledge_base_chat": {
|
||||||
"default":
|
"default":
|
||||||
"""
|
"""
|
||||||
<指令>根据已知信息,简洁和专业的来回答问题。如果无法从中得到答案,请说 “根据已知信息无法回答该问题”,不允许在答案中添加编造成分,答案请使用中文。 </指令>
|
<指令>根据已知信息,简洁和专业的来回答问题。如果无法从中得到答案,请说 “根据已知信息无法回答该问题”,不允许在答案中添加编造成分,答案请使用中文。 </指令>
|
||||||
|
|
@ -52,8 +51,9 @@ PROMPT_TEMPLATES["knowledge_base_chat"] = {
|
||||||
<指令>请根据用户的问题,进行简洁明了的回答</指令>
|
<指令>请根据用户的问题,进行简洁明了的回答</指令>
|
||||||
<问题>{{ question }}</问题>
|
<问题>{{ question }}</问题>
|
||||||
""",
|
""",
|
||||||
}
|
},
|
||||||
PROMPT_TEMPLATES["search_engine_chat"] = {
|
|
||||||
|
"search_engine_chat": {
|
||||||
"default":
|
"default":
|
||||||
"""
|
"""
|
||||||
<指令>这是我搜索到的互联网信息,请你根据这些信息进行提取并有调理,简洁的回答问题。如果无法从中得到答案,请说 “无法搜索到能回答问题的内容”。 </指令>
|
<指令>这是我搜索到的互联网信息,请你根据这些信息进行提取并有调理,简洁的回答问题。如果无法从中得到答案,请说 “无法搜索到能回答问题的内容”。 </指令>
|
||||||
|
|
@ -71,8 +71,9 @@ PROMPT_TEMPLATES["search_engine_chat"] = {
|
||||||
<指令>请根据用户的问题,进行简洁明了的回答</指令>
|
<指令>请根据用户的问题,进行简洁明了的回答</指令>
|
||||||
<问题>{{ question }}</问题>
|
<问题>{{ question }}</问题>
|
||||||
""",
|
""",
|
||||||
}
|
},
|
||||||
PROMPT_TEMPLATES["agent_chat"] = {
|
|
||||||
|
"agent_chat": {
|
||||||
"default":
|
"default":
|
||||||
"""
|
"""
|
||||||
Answer the following questions as best you can. If it is in order, you can use some tools appropriately.You have access to the following tools:
|
Answer the following questions as best you can. If it is in order, you can use some tools appropriately.You have access to the following tools:
|
||||||
|
|
@ -99,6 +100,7 @@ PROMPT_TEMPLATES["agent_chat"] = {
|
||||||
Question: {input}
|
Question: {input}
|
||||||
Thought: {agent_scratchpad}
|
Thought: {agent_scratchpad}
|
||||||
""",
|
""",
|
||||||
|
|
||||||
"AgentLM":
|
"AgentLM":
|
||||||
"""
|
"""
|
||||||
<SYS>>\n
|
<SYS>>\n
|
||||||
|
|
@ -125,6 +127,7 @@ PROMPT_TEMPLATES["agent_chat"] = {
|
||||||
Thought: {agent_scratchpad}
|
Thought: {agent_scratchpad}
|
||||||
|
|
||||||
""",
|
""",
|
||||||
|
|
||||||
"中文版本":
|
"中文版本":
|
||||||
"""
|
"""
|
||||||
你的知识不一定正确,所以你一定要用提供的工具来思考,并给出用户答案。
|
你的知识不一定正确,所以你一定要用提供的工具来思考,并给出用户答案。
|
||||||
|
|
@ -151,4 +154,5 @@ PROMPT_TEMPLATES["agent_chat"] = {
|
||||||
Question: {input}
|
Question: {input}
|
||||||
Thought: {agent_scratchpad}
|
Thought: {agent_scratchpad}
|
||||||
""",
|
""",
|
||||||
|
},
|
||||||
}
|
}
|
||||||
|
|
|
||||||
Loading…
Reference in New Issue