From 9cfcc2326a0ce91c71eee15a2dea1adddc6228e1 Mon Sep 17 00:00:00 2001 From: DingDing Date: Sat, 16 Mar 2024 22:28:57 +0800 Subject: [PATCH] Update README.md --- README.md | 4 +++- 1 file changed, 3 insertions(+), 1 deletion(-) diff --git a/README.md b/README.md index 87987be..1a581c5 100644 --- a/README.md +++ b/README.md @@ -26,12 +26,13 @@ MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的 - 经过 Int4 量化后,MiniCPM 可在手机上进行部署推理,流式输出速度略高于人类说话速度。MiniCPM-V 也直接跑通了多模态大模型在手机上的部署。 - 一张1080/2080可高效参数微调,一张3090/4090可全参数微调,一台机器可持续训练 MiniCPM,二次开发成本较低。 -我们完全开源MiniCPM-2B的模型参数供学术研究和有限商用,在未来我们还将发布训练过程中的所有Checkpoint和大部分非专有数据供模型机理研究。 +我们完全开源MiniCPM-2B的模型参数供学术研究和有限商用. 具体而言,我们目前已公开以下模型,地址详见 [模型下载](#1) 部分 - 基于MiniCPM-2B的指令微调与人类偏好对**MiniCPM-2B-SFT/DPO**。 - 基于MiniCPM-2B的多模态模型**MiniCPM-V**,能力超越基于Phi-2的同参数级别多模态模型。 - MiniCPM-2B-SFT/DPO的Int4量化版**MiniCPM-2B-SFT/DPO-Int4**。 - 基于MLC-LLM、LLMFarm开发的MiniCPM手机端程序,**文本及多模态模型均可在手机端进行推理**。 +- 训练过程中的[30个Checkpoints](https://huggingface.co/openbmb/MiniCPM-2B-history)供模型机理研究。 ### 局限性: @@ -57,6 +58,7 @@ MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的

## 更新日志 +- 2024/03/16 minicpm-2b 的30余个中间检查点开放了![huggingface链接](https://huggingface.co/openbmb/MiniCPM-2B-history) - 2024/02/13 支持了llama.cpp - 2024/02/09 我们在readme里加入了一个[开源社区](#community)章节,用来收集开源社区对MiniCPM的支持案例。 - 2024/02/08 我们更新了[llama-format的模型权重](#llamaformat),方便大家更加快捷地使用我们的模型。