mirror of
https://github.com/RYDE-WORK/MiniCPM.git
synced 2026-01-19 21:03:39 +08:00
Update README.md
This commit is contained in:
parent
697261ad14
commit
1e19e219f9
@ -7,17 +7,16 @@
|
||||
<h4 align="center">
|
||||
<p>
|
||||
<b>中文</b> |
|
||||
<a href="XXXX">English</a>
|
||||
<a href="https://github.com/OpenBMB/MiniCPM/blob/main/README-en.md">English</a>
|
||||
<p>
|
||||
</h4>
|
||||
|
||||
<p align="center">
|
||||
<a href="XXXX" target="_blank">MiniCPM 技术报告</a> |
|
||||
<a href="https://github.com/OpenBMB/OmniLMM/" target="_blank">多模态模型 OmniLMM</a> |
|
||||
<a href="https://luca.cn/" target="_blank">千亿模型 Luca</a>
|
||||
<a href="https://github.com/OpenBMB/OmniLMM/" target="_blank">OmniLMM 多模态模型</a> |
|
||||
<a href="https://luca.cn/" target="_blank">千亿模型试用 Luca</a>
|
||||
</p>
|
||||
|
||||
|
||||
MiniCPM 是面壁与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。
|
||||
- 经过 SFT 后,MiniCPM 在公开综合性评测集上,MiniCPM 与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。
|
||||
- 经过 DPO 后,MiniCPM 在当前最接近用户体感的评测集 MTBench上,MiniCPM-2B 也超越了 Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha 等众多代表性开源大模型。
|
||||
|
||||
Loading…
x
Reference in New Issue
Block a user