Llama-2首个全方位评测,国内外开源模型大比拼

创建时间:2023-07-25 11:05
开源之光能否对标GPT-3.5?
允中 发自 凹非寺
量子位 | QbitAI

进入2023年7月,大语言模型(LLM)的发展进入了新阶段,开源成为一个火热的主题

  • 7月6日,上海人工智能实验室与商汤科技等联合发布了书生·浦语开源体系(https://github.com/InternLM),不仅开源了书生·浦语的轻量版本(InternLM-7B),还率先开源了从数据、训练到评测的全链条工具体系,并提供完全免费的商用许可;

  • 7月14日,智谱科技开放ChatGLM2-6B免费商用;

  • 7月19日,Meta开源了性能更强的Llama-2,也提供了更加宽松的商用许可。

面对语言模型的新一波开源浪潮,图灵奖得主Yann Lecun在推特上评价:

This is going to change the landscape of the LLM market.

可是,开源模型的表现是否可以当得起业界的热切期待?

我们在拿到Llama-2的系列开源模型后,通过OpenCompass对它进行了全方位的评测(https://opencompass.org.cn)

Llama-2有多强

Llama-2相比Llama-1有不少技术层面的改进,从而带来了模型性能、推理效率以及安全性等方面的有效提升。具体而言,重要的改进有以下几点:

  • 模型架构上使用Group-Query-Attention(GQA)来提高模型推理效率,语境长度从2K增加一倍到4K。

  • 预训练语料从1.4T tokens增加到2T tokens。

  • 在监督微调(SFT)阶段更加注重数据集质量,使用更少但质量更高的SFT数据相比使用百万量级的公开SFT数据,效果显著提升。

  • 引入了三项安全训练技术Supervised Safety Fine-Tuning、Safety RLHF、Safety Context Distillation 提升模型的安全性。

相比前代性能大增,仍难媲美ChatGPT

那么,Llama-2的整体能力究竟如何呢?

虽然在官方技术报告中已经展示了在20个左右数据集上的测试结果,但评价能力维度仍然有限,对比的模型也还不够全面。

这里我们借助开源评测工具OpenCompass,对Llama-2发布的各个模型在40多个评测集上进行了全方位的评测,从学科、语言、知识、理解、推理五大维度综合衡量大模型的能力。

结果可以总结为以下的雷达图:

下表列出Llama、Llama-2、以及ChatGPT在几个有代表性评测集上的表现:

更全面和详细的评测结果数字请参看https://opencompass.org.cn。

相比上代模型全面提升:

从综合能力角度,Llama-2-70B(绿色)相比于Llama-1-65B(紫色)更胜一筹,在语言、知识、推理、理解、学科等各个能力维度相比Llama-1都有明显提升。比如综合考试集MMLU上从63.71提升到69.75,GSM8K 上从54.51提升到63.46。

对话和基座模型基本持平:

经过微调和对齐的模型Llama-2-70B-Chat(黄色)相比基座模型Llama-2-70B(绿色),综合能力基本持平,在语言、推理和理解上相比基座有性能提升,在学科综合能力和知识能力上略有下降。比如翻译评测集Flores和代码评测集HumanEval上,Chat模型分别有超过40%和20%的相对提升,而在MMLU和TrivialQA上则有大约10%的相对降低。

离ChatGPT仍有较大差距:

相比ChatGPT-0613(蓝色)Llama-2-70B-Chat(黄色)仍需继续追赶,尤其在推理能力、理解能力、和学科综合能力上差距还比较明显。其中数学评测集MATH和代码评测集HumanEval的差距都超过了一倍。

中文能力短板明显

在Llama的训练语料中,中文占比较小,微调阶段也没有针对中文进行调优,所以当前Llama-2-Chat在中文问题上仍显不足。

一个典型的表现就是给定中文问题时,模型还是会以英文回答。

为了对Llama-2的中英文能力有更深入的理解,我们选取了OpenCompass中的中英文数据集进行分别分析。

结果显示:

  • Llama-2在英语语言能力、知识水平和理解能力上已经较为接近ChatGPT。

  • Llama-2在中文能力上全方位逊色于ChatGPT。这一结果表明,Llama-2本身作为基座模型直接支持中文应用并不是一个特别优秀的选择

  • 推理能力上,不管中英文,Llama-2距离ChatGPT仍然存在较大差距。由此可见,对于大模型来说,推理能力提升的难度比基础语言能力提升的难度要高得多。

安全对齐让模型过度谨慎

Llama-2的一大特色是它在训练过程中采用了比较完善的安全对齐方案,在价值对齐和安全性上有较大提升。

但在测试中我们也发现,Llama-2的安全性和模型能力的平衡没有做得特别好,模型非常谨小慎微,对于很多常见问题都拒绝回复

国内模型不落下风

近几个月,国内大模型发展迅速,多个企业和科研机构都发布了各自的大模型,其中不乏千亿参数的大模型。

那么国内大模型和Llama-2相比,究竟表现如何呢?很多朋友都关心这个问题。

重量级模型的对比

国内机构发布的70B或者更高量级的模型普遍尚未开源,很多模型只通过内测API提供有限服务,因此我们还很难获得对很多国产模型的全量评测数据。

在OpenCompass上,由上海人工智能实验室和商汤科技联合多所高校发布的千亿参数书生·浦语模型(InternLM-104B)已经有了全面的评测结果。

基于这个结果,我们比较了书生·浦语ChatGPTLlama-2的性能:

在重量级模型的对比中,书生·浦语表现优秀,在大部分主流评测集上领先于Llama-2以及ChatGPT。具体而言,在43个评测集中,InternLM-104B在34个评测集中超越ChatGPT,在41个评测集上超越Llama-2-70B。

中文考试大幅领先:

在中文考试评测集CEval和高考评测集GAOKAO-Bench上,InternLM-104B都大幅超过Llama2-70B。

语言能力略有优势:

在中英文的基础语言任务上,包括字词理解,成语习语,翻译等评测集上,InternLM-104B都有优势,其中中文评测集上差距更大。

阅读理解“书生”名副其实:

在中英文的各类阅读理解评测集上,InternLM-104B均表现出明显的优势,从文本段中总结和理解关键信息的能力更胜一筹。

推理能力技高一筹:

在常识推理、数学推理、综合推理的各种数据集上,InternLM-104B都有比较稳定的发挥,相比Llama2-70B有一定优势。

知识问答平分秋色:
在BoolQ,CommonSenseQA,TrivialQA,NaturalQuestion等知识问答评测集上,两个模型表现相当,可见知识水平没有明显差异。

代码能力互有胜负:

InternLM-104B和Llama2-70B的代码能力不相上下,HumanEval和 MBPP两个数据集上互有胜负。

轻量级模型的对比

重量级赛道上你追我赶,在7B量级的轻量级赛道上,开源模型的竞争也十分活跃。

在众多国内开源模型之中,百川智能发布的Baichuan-7B、清华大学和智谱AI发布的ChatGLM2-6B、上海人工智能实验室发布的InternLM-7B等优秀模型广受业界关注。

我们把这些国内模型和Llama-2-7B进行了全方位评测对比:

下表列出了这几个7B量级模型在几个有代表性评测集上的表现:

结果显示:Llama-2在知识能力上有明显优势。

但在学科、语言、推理和理解能力上,InternLM和ChatGLM2都已经超越了Llama-2,而且InternLM的领先优势十分明显。

免费商用形成星火之势

几个月前Llama的开源引爆了社区,让众多开发者和研究者受益匪浅,衍生出整个羊驼家族,但遗憾的是其协议限制商用,将企业拒之门外。

7月6日,世界人工智能大会上,书生浦语开源体系正式发布,开源了InternLM-7B并提供免费商用许可。

之后,ChatGLM2-6B和Llama2等开源模型相继推进免费商用,顺应了发展潮流和社区呼声。

信开源社区的星星之火将对产业形成燎原之势,进一步降低大模型落地应用的门槛。

*本文系量子位获授权刊载,观点仅为作者所有。


—  —

量子位 QbitAI

վ'ᴗ' ի 追踪AI技术和产品新动态

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见 ~ 

浏览量:0

推荐文章

  • OpenClaw:开源 AI 个人智能助手与 AI 代理平台,构建你的专属数字分身

    在 AI 技术深度渗透日常工作与生活的当下,OpenClaw 作为一款现象级开源 AI 个人智能助手与 AI 代理平台,正打破传统 AI 工具 “只对话、不落地” 的局限,以 “本地优先、自主执行、开源开放” 的核心特性,成为个人与中小型团队打造专属数字分身的首选工具,重新定义了 AI 智能体在个人场景的应用形态与价值边界。

    2 2026-03-27
  • RTX PRO 5000系列深度解析:Pro 5000 Blackwell领航专业算力,英伟达显卡总代筑牢生态落地根基

    在专业图形计算与AI加速领域,英伟达始终占据核心引领地位,其推出的专业级显卡凭借顶尖性能与全栈生态优势,成为设计师、数据科学家、科研人员的核心生产力工具。其中,RTX PRO 5000(英伟达Pro 5000)作为专业级显卡家族的核心成员,历经技术迭代升级,衍生出Pro 5000 Blackwell这一革命性产品,依托Blackwell架构的突破性优势,重新定义专业算力边界。而英伟达显卡总代作为连接厂商与终端用户的核心枢纽,承担着产品分销、技术赋能、服务落地的关键职责,让RTX PRO 5000系列的顶尖性能真正渗透至各行业专业场景,构建起“厂商-总代-终端”的完整价值链条。

    2 2026-03-27
  • NVIDIA DGX Spark:桌面AI超算的革命性突破,重塑端侧专业算力体验

    在AI技术向精细化、高效化、端侧化延伸的今天,算力需求呈现出“两极分化”的鲜明特征——一方面,超大规模数据中心依托GPU集群支撑万亿参数大模型训练;另一方面,科研机构、中小企业、专业创作者对“端侧高性能算力”的需求日益迫切,既需要媲美数据中心的算力性能,又要求具备桌面级的便捷性与高性价比。在此背景下,英伟达推出的NVIDIA DGX Spark,作为桌面AI超级计算机(桌面AI超算)领域的标杆产品,彻底打破了“专业算力=大型机房”的固有认知,将高端AI算力浓缩于桌面形态,重新定义了桌面AI超算的核心价值,为端侧专业算力需求提供了最优解。

    2 2026-03-27
  • 四款主流VR设备深度对比:PICO NEO3、PICO 4 Ultra与HTC VIVE Focus Vision、HTC VIVE Cosmos实测解析

    随着XR技术的快速迭代,VR设备已从专业领域渗透至消费级市场、企业级应用等多个场景,成为连接虚拟与现实的核心载体。PICO与HTC VIVE作为全球VR行业的两大核心玩家,分别推出了覆盖不同层级、不同场景的代表性产品——PICO NEO3以高性价比打开消费级市场,PICO 4 Ultra主打高端沉浸式体验;HTC VIVE Focus Vision聚焦企业级专业场景,HTC VIVE Cosmos则兼顾消费与入门专业需求。本文将对这四款主流VR设备进行全面拆解,从硬件配置、体验感受、产品定位到适用场景,为用户提供清晰的选择参考,助力不同需求的使用者找到适配自身的VR设备。

    2 2026-03-27
  • 英伟达代理体系深度解析:从NPN到Elite精英代理,构建全栈AI生态赋能之路

    在AI算力产业飞速发展的今天,英伟达凭借其在GPU芯片、AI软件及数据中心解决方案领域的绝对优势,成为全球算力生态的核心引领者。而英伟达代理体系作为其生态落地的关键载体,串联起NPN合作伙伴网络、NVAIE认证、NVIDIA AI Enterprise软件套件、数据中心解决方案授权及Elite精英级别代理等核心环节,构建起“厂商-代理-终端用户”的完整价值链条,既实现了英伟达技术与产品的广泛落地,也为合作伙伴提供了多元化的发展机遇,推动AI技术在各行业的规模化渗透。

    3 2026-03-27
  • 算力革命背后的核心支撑:英伟达引领下,GPU集群、AI服务器与算力租赁的协同进化

    当生成式AI、大模型训练、自动驾驶等前沿技术进入规模化落地阶段,算力已成为数字经济时代的核心生产要素,如同工业时代的电力般不可或缺。而在这场算力革命中,英伟达凭借其领先的GPU技术,串联起AI服务器、GPU集群与算力租赁产业,构建起从核心硬件到场景服务的完整生态,其中英伟达SuperPOD更是成为超大规模算力交付的标杆,推动整个行业从“量的扩张”向“质的提升”加速转型。

    2 2026-03-27