mirror of
https://github.com/RYDE-WORK/Langchain-Chatchat.git
synced 2026-01-24 07:43:16 +08:00
* 修复 bing_search.py的typo;更新model_config.py中Bing Subscription Key申请方式及注意事项 * 更新FAQ,增加了[Errno 110] Connection timed out的原因与解决方案 * 修改loader.py中load_in_8bit失败的原因和详细解决方案 * update loader.py * stream_chat_bing * 修改stream_chat的接口,在请求体中选择knowledge_base_id;增加stream_chat_bing接口 * 优化cli_demo.py的逻辑:支持 输入提示;多输入;重新输入 * update cli_demo.py * add bloom-3b,bloom-7b1,ggml-vicuna-13b-1.1 * 1.增加对llama-cpp模型的支持;2.增加对bloom模型的支持;3. 修复多GPU部署的bug;4. 增加对openai支持(没有api,未测试);5.增加了llama-cpp模型部署的说明 * llama模型兼容性说明 * modified: ../configs/model_config.py modified: ../docs/INSTALL.md 在install.md里增加对llama-cpp模型调用的说明 * 修改llama_llm.py以适应llama-cpp模型 * 完成llama-cpp模型的支持; * make fastchat and openapi compatiable * 1. 修复/增加对chatyuan,bloom,baichuan-7等模型的支持;2. 修复了moss_llm.py的bug; * set default model be chatglm-6b * 在多卡情况下也支持自定义GPU设备 --------- Co-authored-by: imClumsyPanda <littlepanda0716@gmail.com>
40 lines
1.1 KiB
Plaintext
40 lines
1.1 KiB
Plaintext
pymupdf
|
||
paddlepaddle==2.4.2
|
||
paddleocr~=2.6.1.3
|
||
langchain==0.0.174
|
||
transformers==4.29.1
|
||
unstructured[local-inference]
|
||
layoutparser[layoutmodels,tesseract]
|
||
nltk~=3.8.1
|
||
sentence-transformers
|
||
beautifulsoup4
|
||
icetk
|
||
cpm_kernels
|
||
faiss-cpu
|
||
gradio==3.28.3
|
||
fastapi~=0.95.0
|
||
uvicorn~=0.21.1
|
||
pypinyin~=0.48.0
|
||
click~=8.1.3
|
||
tabulate
|
||
feedparser
|
||
azure-core
|
||
openai
|
||
#accelerate~=0.18.0
|
||
#peft~=0.3.0
|
||
#bitsandbytes; platform_system != "Windows"
|
||
|
||
# 要调用llama-cpp模型,如vicuma-13b量化模型需要安装llama-cpp-python库
|
||
# but!!! 实测pip install 不好使,需要手动从ttps://github.com/abetlen/llama-cpp-python/releases/下载
|
||
# 而且注意不同时期的ggml格式并不!兼!容!!!因此需要安装的llama-cpp-python版本也不一致,需要手动测试才能确定
|
||
# 实测ggml-vicuna-13b-1.1在llama-cpp-python 0.1.63上可正常兼容
|
||
# 不过!!!本项目模型加载的方式控制的比较严格,与llama-cpp-python的兼容性较差,很多参数设定不能使用,
|
||
# 建议如非必要还是不要使用llama-cpp
|
||
torch~=2.0.0
|
||
pydantic~=1.10.7
|
||
starlette~=0.26.1
|
||
numpy~=1.23.5
|
||
tqdm~=4.65.0
|
||
requests~=2.28.2
|
||
tenacity~=8.2.2
|
||
charset_normalizer==2.1.0 |