diff --git a/README.md b/README.md index af120e2..992395a 100644 --- a/README.md +++ b/README.md @@ -60,27 +60,22 @@ XXXXXX #### 评测设置 -由于大模型评测难以统一,且大量评测也没有公开的prompt和测试代码,对于具体评测方式,我们只能尽量做到适合各类模型。 - -整体而言,我们测试时采用统一的prompt输入,并按照各模型对应的模板进行输入调整。 - -**评测脚本及prompt已开源在我们的Github仓库中,也欢迎更多开发者来不断改进我们的评测方式。** +* 由于大模型评测难以统一,且大量评测也没有公开的prompt和测试代码,对于具体评测方式,我们只能尽量做到适合各类模型。 +* 整体而言,我们测试时采用统一的prompt输入,并按照各模型对应的模板进行输入调整。 +* **评测脚本及prompt已开源在我们的Github仓库中,也欢迎更多开发者来不断改进我们的评测方式。** #### 部署模式 -因为MiniCPM采用Mup的结构,与现有模型在具体计算上有细微差别,我们是基于vllm=0.2.2版本进行了我们模型的实现。 - -**对于非MiniCPM模型,我们直接采样了vllm=0.2.7的最新版本进行推理。** +* 因为MiniCPM采用Mup的结构,与现有模型在具体计算上有细微差别,我们是基于vllm=0.2.2版本进行了我们模型的实现。 +* **对于非MiniCPM模型,我们直接采样了vllm=0.2.7的最新版本进行推理。** #### 评测度量 -对于QA任务(选择题任务),我们选用两种方式进行测试: -* PPL:将选项作为题目生成的延续,并根据各个选项的PPL来进行答案选择; -* 第二种是直接生成答案选项。 - -对于不同模型,这两种方式得到的结果差异较大。MiniCPM两种模式上的结果较为接近,而Mistral-7B-v0.1等模型在PPL上表现较好,直接生成上效果较差。 - -在具体评测时,我们以两种评测方式得分的最高者为最终结果,以此保证对比的公平性。 +* 对于QA任务(选择题任务),我们选用两种方式进行测试: + * PPL:将选项作为题目生成的延续,并根据各个选项的PPL来进行答案选择; + * 第二种是直接生成答案选项。 +* 对于不同模型,这两种方式得到的结果差异较大。MiniCPM两种模式上的结果较为接近,而Mistral-7B-v0.1等模型在PPL上表现较好,直接生成上效果较差。 +* 在具体评测时,我们以两种评测方式得分的最高者为最终结果,以此保证对比的公平性。 #### 文本评测 @@ -133,20 +128,16 @@ XXXXXX ## 手机部署 -进行Int4量化后,MiniCPM只占2GB空间,具备在端侧手机进行模型部署的条件。 - -### 部署步骤 - -对于不同的操作系统,我们进行了不同的适配。 - -**注意:当前开源框架对手机支持还在完善,并非所有芯片与操作系统版本均能成功运行MLC-LLM或LLMFarm。** +#### 部署步骤 +* 进行Int4量化后,MiniCPM只占2GB空间,具备在端侧手机进行模型部署的条件。 +* 对于不同的操作系统,我们进行了不同的适配。 +* **注意:当前开源框架对手机支持还在完善,并非所有芯片与操作系统版本均能成功运行MLC-LLM或LLMFarm。** * Android、Harmony * 使用开源框架MLC-LLM进行模型适配。 * 支持文本模型、多模态模型。 * 适用于MiniCPM-2B-SFT-INT4、MiniCPM-2B-DPO-INT4、MiniCPM-V。 * [编译安装MiniCPM指南](https://github.com/OpenBMB/mlc-MiniCPM/blob/main/README.md) - * iOS * 使用开源框架LLMFarm进行模型适配。 * 支持文本模型。 @@ -155,13 +146,9 @@ XXXXXX #### 部署性能 -我们未针对手机推理模型进行深度优化和系统测试,仅验证MiniCPM使用手机芯片进行推理的可行性。 - -此前尚未有工作尝试在手机上部署多模态大模型。我们此次在MLC-LLM上验证了手机部署MiniCPM-V的可行性,能够正常输入输出,但也存在图片处理时间较长的问题,需要进一步优化。 - -**我们也欢迎更多开发者进一步调优并更新下面的测试列表,不断提升端侧大模型在手机上的推理性能。** - -* 文本模型 +* 我们未针对手机推理模型进行深度优化和系统测试,仅验证MiniCPM使用手机芯片进行推理的可行性。 +* 此前尚未有工作尝试在手机上部署多模态大模型。我们此次在MLC-LLM上验证了手机部署MiniCPM-V的可行性,能够正常输入输出,但也存在图片处理时间较长的问题,需要进一步优化。 +* **我们也欢迎更多开发者进一步调优并更新下面的测试列表,不断提升端侧大模型在手机上的推理性能。** |手机型号|操作系统|处理器|Memory(GB)|推理吞吐(token/s)| |-|-|-|-|-| @@ -184,8 +171,6 @@ XXXXXX |iPhone 12|iOS 17.2.1|A14|4|5.8| |iPhone 11|iOS 16.6|A13|4|4.6| -* 多模态模型 - todo
@@ -194,7 +179,8 @@ todo #### 基于Gradio的网页版Demo -使用如下命令启动基于Gradio的网页版demo: +* 使用如下命令启动基于Gradio的网页版demo: + ```shell python demo/gradio_based_demo.py ``` @@ -212,19 +198,22 @@ python demo/gradio_based_demo.py #### 模型协议 -本仓库中代码依照 [Apache-2.0](https://github.com/OpenBMB/MiniCPM/blob/main/LICENSE) 协议开源,MiniCPM 模型权重的使用则需要遵循 [“通用模型许可协议-来源说明-宣传限制-商业授权”](https://github.com/OpenBMB/General-Model-License/blob/main/%E9%80%9A%E7%94%A8%E6%A8%A1%E5%9E%8B%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE-%E6%9D%A5%E6%BA%90%E8%AF%B4%E6%98%8E-%E5%AE%A3%E4%BC%A0%E9%99%90%E5%88%B6-%E5%95%86%E4%B8%9A%E6%8E%88%E6%9D%83.md)。 -MiniCPM 模型权重对学术研究完全开放。如需将模型用于商业用途,请联系cpm@modelbest.cn来获取书面授权,在登记后亦允许免费商业使用。 +* 本仓库中代码依照 [Apache-2.0](https://github.com/OpenBMB/MiniCPM/blob/main/LICENSE) 协议开源 +* MiniCPM 模型权重的使用则需要遵循 [“通用模型许可协议-来源说明-宣传限制-商业授权”](https://github.com/OpenBMB/General-Model-License/blob/main/%E9%80%9A%E7%94%A8%E6%A8%A1%E5%9E%8B%E8%AE%B8%E5%8F%AF%E5%8D%8F%E8%AE%AE-%E6%9D%A5%E6%BA%90%E8%AF%B4%E6%98%8E-%E5%AE%A3%E4%BC%A0%E9%99%90%E5%88%B6-%E5%95%86%E4%B8%9A%E6%8E%88%E6%9D%83.md)。 +* MiniCPM 模型权重对学术研究完全开放。 +* 如需将模型用于商业用途,请联系cpm@modelbest.cn来获取书面授权,在登记后亦允许免费商业使用。 #### 声明 -作为一个语言模型,MiniCPM 通过学习大量的文本来生成内容,但它无法理解、表达个人观点或价值判断,它所输出的任何内容都不代表模型开发者的观点和立场。 -因此用户在使用 MiniCPM 生成的内容时,应自行负责对其进行评估和验证。如果由于使用 MinCPM 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。 +* 作为一个语言模型,MiniCPM 通过学习大量的文本来生成内容,但它无法理解、表达个人观点或价值判断,它所输出的任何内容都不代表模型开发者的观点和立场。 +* 因此用户在使用 MiniCPM 生成的内容时,应自行负责对其进行评估和验证。 +* 如果由于使用 MinCPM 开源模型而导致的任何问题,包括但不限于数据安全问题、公共舆论风险,或模型被误导、滥用、传播或不当利用所带来的任何风险和问题,我们将不承担任何责任。 ## 工作引用 -如果觉得MiniCPM有助于您的工作,请考虑引用下列[技术报告](todo) +* 如果觉得MiniCPM有助于您的工作,请考虑引用下列[技术报告](todo) ``` @inproceedings{minicpm2024,