Llama-2首个全方位评测,国内外开源模型大比拼
允中 发自 凹非寺
量子位 | QbitAI
进入2023年7月,大语言模型(LLM)的发展进入了新阶段,开源成为一个火热的主题。
7月6日,上海人工智能实验室与商汤科技等联合发布了书生·浦语开源体系(https://github.com/InternLM),不仅开源了书生·浦语的轻量版本(InternLM-7B),还率先开源了从数据、训练到评测的全链条工具体系,并提供完全免费的商用许可;
7月14日,智谱科技开放ChatGLM2-6B免费商用;
7月19日,Meta开源了性能更强的Llama-2,也提供了更加宽松的商用许可。
面对语言模型的新一波开源浪潮,图灵奖得主Yann Lecun在推特上评价:
This is going to change the landscape of the LLM market.

可是,开源模型的表现是否可以当得起业界的热切期待?
我们在拿到Llama-2的系列开源模型后,通过OpenCompass对它进行了全方位的评测(https://opencompass.org.cn)。
Llama-2有多强
Llama-2相比Llama-1有不少技术层面的改进,从而带来了模型性能、推理效率以及安全性等方面的有效提升。具体而言,重要的改进有以下几点:
模型架构上使用Group-Query-Attention(GQA)来提高模型推理效率,语境长度从2K增加一倍到4K。
预训练语料从1.4T tokens增加到2T tokens。
在监督微调(SFT)阶段更加注重数据集质量,使用更少但质量更高的SFT数据相比使用百万量级的公开SFT数据,效果显著提升。
引入了三项安全训练技术Supervised Safety Fine-Tuning、Safety RLHF、Safety Context Distillation 提升模型的安全性。
相比前代性能大增,仍难媲美ChatGPT
那么,Llama-2的整体能力究竟如何呢?
虽然在官方技术报告中已经展示了在20个左右数据集上的测试结果,但评价能力维度仍然有限,对比的模型也还不够全面。
这里我们借助开源评测工具OpenCompass,对Llama-2发布的各个模型在40多个评测集上进行了全方位的评测,从学科、语言、知识、理解、推理五大维度综合衡量大模型的能力。

结果可以总结为以下的雷达图:

下表列出Llama、Llama-2、以及ChatGPT在几个有代表性评测集上的表现:

更全面和详细的评测结果数字请参看https://opencompass.org.cn。
相比上代模型全面提升:
从综合能力角度,Llama-2-70B(绿色)相比于Llama-1-65B(紫色)更胜一筹,在语言、知识、推理、理解、学科等各个能力维度相比Llama-1都有明显提升。比如综合考试集MMLU上从63.71提升到69.75,GSM8K 上从54.51提升到63.46。
对话和基座模型基本持平:
经过微调和对齐的模型Llama-2-70B-Chat(黄色)相比基座模型Llama-2-70B(绿色),综合能力基本持平,在语言、推理和理解上相比基座有性能提升,在学科综合能力和知识能力上略有下降。比如翻译评测集Flores和代码评测集HumanEval上,Chat模型分别有超过40%和20%的相对提升,而在MMLU和TrivialQA上则有大约10%的相对降低。
离ChatGPT仍有较大差距:
相比ChatGPT-0613(蓝色),Llama-2-70B-Chat(黄色)仍需继续追赶,尤其在推理能力、理解能力、和学科综合能力上差距还比较明显。其中数学评测集MATH和代码评测集HumanEval的差距都超过了一倍。
中文能力短板明显
在Llama的训练语料中,中文占比较小,微调阶段也没有针对中文进行调优,所以当前Llama-2-Chat在中文问题上仍显不足。
一个典型的表现就是给定中文问题时,模型还是会以英文回答。

为了对Llama-2的中英文能力有更深入的理解,我们选取了OpenCompass中的中英文数据集进行分别分析。


结果显示:
Llama-2在英语语言能力、知识水平和理解能力上已经较为接近ChatGPT。
Llama-2在中文能力上全方位逊色于ChatGPT。这一结果表明,Llama-2本身作为基座模型直接支持中文应用并不是一个特别优秀的选择。
推理能力上,不管中英文,Llama-2距离ChatGPT仍然存在较大差距。由此可见,对于大模型来说,推理能力提升的难度比基础语言能力提升的难度要高得多。
安全对齐让模型过度谨慎
Llama-2的一大特色是它在训练过程中采用了比较完善的安全对齐方案,在价值对齐和安全性上有较大提升。
但在测试中我们也发现,Llama-2的安全性和模型能力的平衡没有做得特别好,模型非常谨小慎微,对于很多常见问题都拒绝回复。


国内模型不落下风
近几个月,国内大模型发展迅速,多个企业和科研机构都发布了各自的大模型,其中不乏千亿参数的大模型。
那么国内大模型和Llama-2相比,究竟表现如何呢?很多朋友都关心这个问题。
重量级模型的对比
国内机构发布的70B或者更高量级的模型普遍尚未开源,很多模型只通过内测API提供有限服务,因此我们还很难获得对很多国产模型的全量评测数据。
在OpenCompass上,由上海人工智能实验室和商汤科技联合多所高校发布的千亿参数书生·浦语模型(InternLM-104B)已经有了全面的评测结果。
基于这个结果,我们比较了书生·浦语和ChatGPT与Llama-2的性能:

在重量级模型的对比中,书生·浦语表现优秀,在大部分主流评测集上领先于Llama-2以及ChatGPT。具体而言,在43个评测集中,InternLM-104B在34个评测集中超越ChatGPT,在41个评测集上超越Llama-2-70B。
中文考试大幅领先:
在中文考试评测集CEval和高考评测集GAOKAO-Bench上,InternLM-104B都大幅超过Llama2-70B。
语言能力略有优势:
在中英文的基础语言任务上,包括字词理解,成语习语,翻译等评测集上,InternLM-104B都有优势,其中中文评测集上差距更大。
阅读理解“书生”名副其实:
在中英文的各类阅读理解评测集上,InternLM-104B均表现出明显的优势,从文本段中总结和理解关键信息的能力更胜一筹。
推理能力技高一筹:
在常识推理、数学推理、综合推理的各种数据集上,InternLM-104B都有比较稳定的发挥,相比Llama2-70B有一定优势。
知识问答平分秋色:
在BoolQ,CommonSenseQA,TrivialQA,NaturalQuestion等知识问答评测集上,两个模型表现相当,可见知识水平没有明显差异。
代码能力互有胜负:
InternLM-104B和Llama2-70B的代码能力不相上下,HumanEval和 MBPP两个数据集上互有胜负。
轻量级模型的对比
重量级赛道上你追我赶,在7B量级的轻量级赛道上,开源模型的竞争也十分活跃。
在众多国内开源模型之中,百川智能发布的Baichuan-7B、清华大学和智谱AI发布的ChatGLM2-6B、上海人工智能实验室发布的InternLM-7B等优秀模型广受业界关注。
我们把这些国内模型和Llama-2-7B进行了全方位评测对比:

下表列出了这几个7B量级模型在几个有代表性评测集上的表现:

结果显示:Llama-2在知识能力上有明显优势。
但在学科、语言、推理和理解能力上,InternLM和ChatGLM2都已经超越了Llama-2,而且InternLM的领先优势十分明显。
免费商用形成星火之势
几个月前Llama的开源引爆了社区,让众多开发者和研究者受益匪浅,衍生出整个羊驼家族,但遗憾的是其协议限制商用,将企业拒之门外。
7月6日,世界人工智能大会上,书生浦语开源体系正式发布,开源了InternLM-7B并提供免费商用许可。
之后,ChatGLM2-6B和Llama2等开源模型相继推进免费商用,顺应了发展潮流和社区呼声。
相信开源社区的星星之火将对产业形成燎原之势,进一步降低大模型落地应用的门槛。
*本文系量子位获授权刊载,观点仅为作者所有。
— 完 —

量子位 QbitAI
վ'ᴗ' ի 追踪AI技术和产品新动态
-
宽恒科技:RTX PRO 5000 Blackwell 引领专业算力,英伟达显卡总代赋能产业升级
2026 年,AI 大模型推理、专业可视化与创意设计需求持续高涨,高端专业显卡作为核心算力支撑,迎来市场爆发期。英伟达 RTX PRO 5000 Blackwell 作为新一代专业旗舰显卡,基于 Blackwell 架构打造,融合 AI 计算、图形渲染与高效能特性,成为专业领域算力新标杆。宽恒科技作为英伟达NPN Elite 精英级合作伙伴,深耕专业显卡领域多年,依托原厂授权与技术实力,为客户提供 RTX PRO 5000 Blackwell 全系产品、方案定制与技术支持服务,助力专业用户高效落地 AI 与创意应用,赋能产业升级。
넶0 2026-05-12 -
宽恒科技:DGX Spark 重构桌面算力,英伟达桌面 AI 超算开启普惠 AI 时代
2026 年,AI 大模型应用向轻量化、本地化快速演进,千亿参数模型的本地部署与调试需求激增,传统大型算力集群成本高、部署难,桌面级 AI 超算成为产业新焦点。NVIDIA DGX Spark 作为英伟达首款桌面 AI 超级计算机,将数据中心级算力浓缩于桌面尺寸,以极致性能与便携形态,重构个人与中小企业 AI 开发范式。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,率先引入 DGX Spark 桌面超算,提供销售、部署、技术支持一站式服务,助力 AI 开发者与企业高效落地本地大模型应用,开启普惠 AI 新时代。
넶0 2026-05-12 -
宽恒科技:VR 产业爆发期,PICO 与 HTC VIVE 旗舰设备构建沉浸式生态
2026 年,元宇宙、虚拟办公、数字孪生产业加速落地,VR 设备作为沉浸式交互核心,迎来需求爆发期。PICO 与 HTC VIVE 作为全球 VR 领域两大领军品牌,推出 PICO NEO3、PICO 4 Ultra、HTC VIVE Focus Vision、HTC VIVE Cosmos 四款旗舰设备,覆盖消费级、专业级、企业级全场景需求。宽恒科技深耕 XR 领域多年,整合两大品牌全系旗舰产品,为客户提供设备销售、方案定制、技术支持一站式服务,助力教育、医疗、工业、娱乐等行业高效落地 VR 应用。
넶0 2026-05-12 -
宽恒科技:深耕英伟达顶级代理体系,以 NPN Elite 资质赋能 AI 产业
在全球 AI 算力竞争白热化的 2026 年,英伟达凭借技术垄断地位主导高端算力市场,其严格的代理授权体系成为保障产品质量与服务标准的核心。英伟达 NPN 合作伙伴网络、NVAIE 认证、NVIDIA AI Enterprise 软件授权、数据中心解决方案授权及 Elite 精英级别代理,构成完整的生态壁垒。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,深耕代理体系多年,凭借顶级资质与技术实力,为客户提供原厂级产品、方案与服务,成为连接英伟达与企业客户的核心桥梁。
넶0 2026-05-12 -
宽恒科技:算力浪潮下,英伟达全栈算力构建 AI 新基建
2026 年,生成式 AI 与大模型训练进入爆发期,算力需求呈指数级增长,算力租赁、GPU 集群与 AI 服务器成为产业核心,英伟达凭借技术壁垒主导全球高端算力市场,SuperPOD 更是成为大规模算力部署的标杆方案。宽恒科技深耕算力领域多年,依托英伟达全栈产品与技术,为企业提供从算力租赁到集群部署的一站式服务,助力各行业高效落地 AI 应用。
넶0 2026-05-12 -
Blackwell架构加持,RTX PRO 5000领衔专业算力,宽恒科技(英伟达npn)保驾护航
RTX PRO 5000系列显卡的推出,进一步巩固了英伟达在专业GPU领域的领先地位,而宽恒科技作为英伟达npn,将持续依托官方授权、专业技术与完善服务,为客户提供正版、优质、高效的RTX PRO 5000产品与解决方案,助力各行业用户释放专业算力价值,在AI与数字创意产业浪潮中实现高质量发展。
넶2 2026-05-11