Update README.md

This commit is contained in:
DingDing 2024-03-16 22:28:57 +08:00 committed by GitHub
parent 36337f70ea
commit 9cfcc2326a
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

View File

@ -26,12 +26,13 @@ MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的
- 经过 Int4 量化后MiniCPM 可在手机上进行部署推理流式输出速度略高于人类说话速度。MiniCPM-V 也直接跑通了多模态大模型在手机上的部署。
- 一张1080/2080可高效参数微调一张3090/4090可全参数微调一台机器可持续训练 MiniCPM二次开发成本较低。
我们完全开源MiniCPM-2B的模型参数供学术研究和有限商用在未来我们还将发布训练过程中的所有Checkpoint和大部分非专有数据供模型机理研究。
我们完全开源MiniCPM-2B的模型参数供学术研究和有限商用.
具体而言,我们目前已公开以下模型,地址详见 [模型下载](#1) 部分
- 基于MiniCPM-2B的指令微调与人类偏好对**MiniCPM-2B-SFT/DPO**。
- 基于MiniCPM-2B的多模态模型**MiniCPM-V**能力超越基于Phi-2的同参数级别多模态模型。
- MiniCPM-2B-SFT/DPO的Int4量化版**MiniCPM-2B-SFT/DPO-Int4**。
- 基于MLC-LLM、LLMFarm开发的MiniCPM手机端程序**文本及多模态模型均可在手机端进行推理**。
- 训练过程中的[30个Checkpoints](https://huggingface.co/openbmb/MiniCPM-2B-history)供模型机理研究。
### 局限性:
@ -57,6 +58,7 @@ MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的
<p id="0"></p>
## 更新日志
- 2024/03/16 minicpm-2b 的30余个中间检查点开放了[huggingface链接](https://huggingface.co/openbmb/MiniCPM-2B-history)
- 2024/02/13 支持了llama.cpp
- 2024/02/09 我们在readme里加入了一个[开源社区](#community)章节用来收集开源社区对MiniCPM的支持案例。
- 2024/02/08 我们更新了[llama-format的模型权重](#llamaformat),方便大家更加快捷地使用我们的模型。