Update README.md

This commit is contained in:
Chao Jia 2024-02-01 14:22:30 +08:00 committed by GitHub
parent 5ff5d6f92b
commit 677b55ce1d
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

View File

@ -11,7 +11,7 @@
<a href="https://luca.cn/" target="_blank">CPM-C 千亿模型试用</a>
</p>
MiniCPM 是面壁与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿2.4B)的非词嵌入参数量。
MiniCPM 是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿2.4B)的非词嵌入参数量。
- 经过 SFT 后MiniCPM 在公开综合性评测集上MiniCPM 与 Mistral-7B相近中文、数学、代码能力更优整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
- 经过 DPO 后MiniCPM 在当前最接近用户体感的评测集 MTBench上MiniCPM-2B 也超越了 Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha 等众多代表性开源大模型。
- 以 MiniCPM-2B 为基础构建端侧多模态大模型 MiniCPM-V整体性能在同规模模型中实现最佳超越基于 Phi-2 构建的现有多模态大模型,在部分评测集上达到与 9.6B Qwen-VL-Chat 相当甚至更好的性能。