2024-06-13 14:32:43 +08:00
..
2024-06-13 11:27:15 +08:00
2024-06-09 13:42:57 +08:00
2024-06-08 16:33:47 +08:00
2024-06-13 14:32:43 +08:00

开始使用

环境配置完成后启动步骤为先启动chatchat-server然后启动chatchat-frontend。 chatchat可通过pypi安装一键启动您也可以选择使用源码启动。(Tips:源码配置可以帮助我们更快的寻找bug或者改进基础设施。我们不建议新手使用这个方式)

pypi安装一键启动

  • 安装chatchat
pip install langchain-chatchat -U

注意chatchat请放在独立的虚拟环境中比如condavenvvirtualenv等

已知问题不能跟xf一起安装会让一些插件出bug例如文件无法上传

工作空间配置

操作指令 chatchat-config

 
Usage: chatchat-config [OPTIONS] COMMAND [ARGS]...

  指令` chatchat-config` 工作空间配置

Options:
  --help  Show this message and exit.

Commands:
  basic   基础配置
  kb      知识库配置
  model   模型配置
  server  服务配置

模型服务配置

如果您已经有了一个openai endpoint的能力的地址可以在configs._model_config.py文件中MODEL_PLATFORMS直接配置

  • platform_name 可以任意填写,不要重复即可
  • platform_type 以后可能根据平台类型做一些功能区分,与platform_name一致即可
  • 将框架部署的模型填写到对应列表即可。不同框架可以加载同名模型,项目会自动做负载均衡。

自定义平台加载

可以通过 model_providers 提供转换不同平台的接口为openai endpoint的能力

配置CHATCHAT_ROOT文件夹configs中的model_providers.yaml文件,即可完成自定义平台加载

 
vim model_providers.yaml

注意: 在您配置平台之前请确认平台依赖完整例如智谱平台您需要安装智谱sdk pip install zhipuai

详细配置请参考README.md

初始化知识库

chatchat-kb -r

启动服务

chatchat -a

模型?

chatchat 0.3版本中,为保证平台、模型、及本地服务的兼容,在保证可扩展性的同时,
我们对模型的加载进行了重新设计. chatchat 0.3之后的版本,我们将分离模型加载和服务启动. 您可以使用提供了`openaiEndpoint`任何服务,
可以在`configs._model_config.py`文件中MODEL_PLATFORMS直接配置
 

部署手册?

移步这里 xinference环境配置手册