diff --git a/README.md b/README.md index 5171733..c8f2ece 100644 --- a/README.md +++ b/README.md @@ -7,17 +7,16 @@
MiniCPM 技术报告 | -多模态模型 OmniLMM | -千亿模型 Luca +OmniLMM 多模态模型 | +千亿模型试用 Luca
- MiniCPM 是面壁与清华大学自然语言处理实验室共同开源的系列端侧语言大模型,主体语言模型 MiniCPM-2B 仅有 24亿(2.4B)的非词嵌入参数量。 - 经过 SFT 后,MiniCPM 在公开综合性评测集上,MiniCPM 与 Mistral-7B相近(中文、数学、代码能力更优),整体性能超越 Llama2-13B、MPT-30B、Falcon-40B 等模型。 - 经过 DPO 后,MiniCPM 在当前最接近用户体感的评测集 MTBench上,MiniCPM-2B 也超越了 Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha 等众多代表性开源大模型。