Spaces:
Sleeping
Sleeping
Update config.py
Browse files
config.py
CHANGED
@@ -39,12 +39,12 @@ else:
|
|
39 |
# 重新URL重新定向,实现更换API_URL的作用(高危设置! 常规情况下不要修改! 通过修改此设置,您将把您的API-KEY和对话隐私完全暴露给您设定的中间人!)
|
40 |
# 格式: API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "在这里填写重定向的api.openai.com的URL"}
|
41 |
# 举例: API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://reverse-proxy-url/v1/chat/completions"}
|
42 |
-
API_URL_REDIRECT = {}
|
43 |
|
44 |
|
45 |
# 多线程函数插件中,默认允许多少路线程同时访问OpenAI。Free trial users的限制是每分钟3次,Pay-as-you-go users的限制是每分钟3500次
|
46 |
# 一言以蔽之:免费(5刀)用户填3,OpenAI绑了信用卡的用户可以填 16 或者更高。提高限制请查询:https://platform.openai.com/docs/guides/rate-limits/overview
|
47 |
-
DEFAULT_WORKER_NUM =
|
48 |
|
49 |
|
50 |
# 色彩主题, 可选 ["Default", "Chuanhu-Small-and-Beautiful", "High-Contrast"]
|
@@ -85,16 +85,16 @@ WEB_PORT = -1
|
|
85 |
MAX_RETRY = 2
|
86 |
|
87 |
# OpenAI模型选择是(gpt4现在只对申请成功的人开放)
|
88 |
-
LLM_MODEL = "gpt-
|
89 |
-
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "gpt-4", "
|
90 |
|
91 |
# 插件分类默认选项
|
92 |
DEFAULT_FN_GROUPS = ['对话', '编程', '学术', '智能体']
|
93 |
|
94 |
|
95 |
# 模型选择是 (注意: LLM_MODEL是默认选中的模型, 它*必须*被包含在AVAIL_LLM_MODELS列表中 )
|
96 |
-
LLM_MODEL = "gpt-
|
97 |
-
AVAIL_LLM_MODELS = ["gpt-4-1106-preview", "gpt-4-turbo-preview", "gpt-4-vision-preview",
|
98 |
"gpt-3.5-turbo-1106", "gpt-3.5-turbo-16k", "gpt-3.5-turbo", "azure-gpt-3.5",
|
99 |
"gpt-4", "gpt-4-32k", "azure-gpt-4", "glm-4", "glm-3-turbo",
|
100 |
"gemini-pro", "chatglm3", "claude-2"]
|
@@ -107,7 +107,7 @@ AVAIL_LLM_MODELS = ["gpt-4-1106-preview", "gpt-4-turbo-preview", "gpt-4-vision-p
|
|
107 |
|
108 |
|
109 |
# 定义界面上“询问多个GPT模型”插件应该使用哪些模型,请从AVAIL_LLM_MODELS中选择,并在不同模型之间用`&`间隔,例如"gpt-3.5-turbo&chatglm3&azure-gpt-4"
|
110 |
-
MULTI_QUERY_LLM_MODELS = "gpt-3
|
111 |
|
112 |
|
113 |
# 选择本地模型变体(只有当AVAIL_LLM_MODELS包含了对应本地模型时,才会起作用)
|
|
|
39 |
# 重新URL重新定向,实现更换API_URL的作用(高危设置! 常规情况下不要修改! 通过修改此设置,您将把您的API-KEY和对话隐私完全暴露给您设定的中间人!)
|
40 |
# 格式: API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "在这里填写重定向的api.openai.com的URL"}
|
41 |
# 举例: API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://reverse-proxy-url/v1/chat/completions"}
|
42 |
+
API_URL_REDIRECT = {"https://api.openai.com/v1/chat/completions": "https://one.jerryz.com.cn/v1/chat/completions"}
|
43 |
|
44 |
|
45 |
# 多线程函数插件中,默认允许多少路线程同时访问OpenAI。Free trial users的限制是每分钟3次,Pay-as-you-go users的限制是每分钟3500次
|
46 |
# 一言以蔽之:免费(5刀)用户填3,OpenAI绑了信用卡的用户可以填 16 或者更高。提高限制请查询:https://platform.openai.com/docs/guides/rate-limits/overview
|
47 |
+
DEFAULT_WORKER_NUM = 16
|
48 |
|
49 |
|
50 |
# 色彩主题, 可选 ["Default", "Chuanhu-Small-and-Beautiful", "High-Contrast"]
|
|
|
85 |
MAX_RETRY = 2
|
86 |
|
87 |
# OpenAI模型选择是(gpt4现在只对申请成功的人开放)
|
88 |
+
LLM_MODEL = "gpt-4o-all" # 可选 "chatglm"
|
89 |
+
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "gpt-4-all", "gpt-4o-all", "claude-3-5-sonnet", "qwen-max", "claude-3-opus"]
|
90 |
|
91 |
# 插件分类默认选项
|
92 |
DEFAULT_FN_GROUPS = ['对话', '编程', '学术', '智能体']
|
93 |
|
94 |
|
95 |
# 模型选择是 (注意: LLM_MODEL是默认选中的模型, 它*必须*被包含在AVAIL_LLM_MODELS列表中 )
|
96 |
+
LLM_MODEL = "gpt-4o-all" # 可选 ↓↓↓
|
97 |
+
AVAIL_LLM_MODELS = ["gpt-3.5-turbo", "gpt-4-all", "gpt-4o-all", "claude-3-5-sonnet", "qwen-max", "claude-3-opus", "gpt-4-1106-preview", "gpt-4-turbo-preview", "gpt-4-vision-preview",
|
98 |
"gpt-3.5-turbo-1106", "gpt-3.5-turbo-16k", "gpt-3.5-turbo", "azure-gpt-3.5",
|
99 |
"gpt-4", "gpt-4-32k", "azure-gpt-4", "glm-4", "glm-3-turbo",
|
100 |
"gemini-pro", "chatglm3", "claude-2"]
|
|
|
107 |
|
108 |
|
109 |
# 定义界面上“询问多个GPT模型”插件应该使用哪些模型,请从AVAIL_LLM_MODELS中选择,并在不同模型之间用`&`间隔,例如"gpt-3.5-turbo&chatglm3&azure-gpt-4"
|
110 |
+
MULTI_QUERY_LLM_MODELS = "gpt-4o-all&claude-3-5-sonnet"
|
111 |
|
112 |
|
113 |
# 选择本地模型变体(只有当AVAIL_LLM_MODELS包含了对应本地模型时,才会起作用)
|