mirror of
https://github.com/RYDE-WORK/Langchain-Chatchat.git
synced 2026-01-23 23:40:03 +08:00
* 修复Azure 不设置Max token的bug * 重写agent 1. 修改Agent实现方式,支持多参数,仅剩 ChatGLM3-6b和 OpenAI GPT4 支持,剩余模型将在暂时缺席Agent功能 2. 删除agent_chat 集成到llm_chat中 3. 重写大部分工具,适应新Agent * 更新架构 * 删除web_chat,自动融合 * 移除所有聊天,都变成Agent控制 * 更新配置文件 * 更新配置模板和提示词 * 更改参数选择bug
40 lines
857 B
Python
40 lines
857 B
Python
import sys
|
|
from pathlib import Path
|
|
root_path = Path(__file__).parent.parent.parent
|
|
sys.path.append(str(root_path))
|
|
|
|
from webui_pages.utils import ApiRequest
|
|
|
|
import pytest
|
|
from pprint import pprint
|
|
from typing import List
|
|
|
|
|
|
api = ApiRequest()
|
|
|
|
|
|
def test_get_default_llm():
|
|
llm = api.get_default_llm_model()
|
|
|
|
print(llm)
|
|
assert isinstance(llm, tuple)
|
|
assert isinstance(llm[0], str) and isinstance(llm[1], bool)
|
|
|
|
|
|
def test_server_configs():
|
|
configs = api.get_server_configs()
|
|
pprint(configs, depth=2)
|
|
|
|
assert isinstance(configs, dict)
|
|
assert len(configs) > 0
|
|
|
|
|
|
@pytest.mark.parametrize("type", ["llm_chat"])
|
|
def test_get_prompt_template(type):
|
|
print(f"prompt template for: {type}")
|
|
template = api.get_prompt_template(type=type)
|
|
|
|
print(template)
|
|
assert isinstance(template, str)
|
|
assert len(template) > 0
|