From 63f0d2716757b9e549d37f84c2206899e67b211e Mon Sep 17 00:00:00 2001 From: liunux4odoo <41217877+liunux4odoo@users.noreply.github.com> Date: Fri, 15 Sep 2023 10:16:15 +0800 Subject: [PATCH] =?UTF-8?q?=E5=9C=A8readme=E4=B8=AD=E6=B7=BB=E5=8A=A0?= =?UTF-8?q?=E6=94=AF=E6=8C=81=E7=9A=84=E5=9C=A8=E7=BA=BFAPI=E6=A8=A1?= =?UTF-8?q?=E5=9E=8B=20(#1485)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- README.md | 11 +++++++++-- 1 file changed, 9 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index d6c374e4..b4538899 100644 --- a/README.md +++ b/README.md @@ -120,10 +120,17 @@ docker run -d --gpus all -p 80:8501 registry.cn-beijing.aliyuncs.com/chatchat/ch 以上模型支持列表可能随 [FastChat](https://github.com/lm-sys/FastChat) 更新而持续更新,可参考 [FastChat 已支持模型列表](https://github.com/lm-sys/FastChat/blob/main/docs/model_support.md)。 + +除本地模型外,本项目也支持直接接入 OpenAI API、智谱AI等在线模型,具体设置可参考 `configs/model_configs.py.example` 中的 `llm_model_dict` 的配置信息。 + 在线 LLM 模型目前已支持: +- [ChatGPT](https://api.openai.com) +- [智谱AI](http://open.bigmodel.cn) +- [MiniMax](https://api.minimax.chat) +- [讯飞星火](https://xinghuo.xfyun.cn) +- [百度千帆](https://cloud.baidu.com/product/wenxinworkshop?track=dingbutonglan) - -项目中默认使用的 LLM 类型为 `THUDM/chatglm2-6b`,如需使用其他 LLM 类型,请在 [configs/model_config.py] 中对 `llm_model_dict` 和 `` 进行修改。 +项目中默认使用的 LLM 类型为 `THUDM/chatglm2-6b`,如需使用其他 LLM 类型,请在 [configs/model_config.py] 中对 `llm_model_dict` 和 `LLM_MODEL` 进行修改。 ### Embedding 模型支持