王小川大模型25天再升级!13B版本开源免费可商用,3090即可部署
衡宇 金磊 发自 凹非寺
量子位 | 公众号 QbitAI
就在刚刚,王小川的开源大模型又有了新动作——
百川智能,正式发布130亿参数通用大语言模型(Baichuan-13B-Base)。
并且官方对此的评价是:
性能最强的中英文百亿参数量开源模型。
与此一同出道的,还有一个对话模型Baichuan-13B-Chat,以及它的INT4/INT8两个量化版本。

但更重要的一点是(划重点),完全开源!免费可商用!

就在不久前的6月15日,百川智能才刚刚发布其第一款70亿参数量的中英文语言模型Baichuan-7B。
当时的版本便已经拿下多个世界权威Benchmark榜单同量级测试榜首;同样作为开源大模型,据说清华北大都已经用上了。
仅仅时隔25天,更大、更强的版本再次袭来,不得不说,王小川在技术上的动作是有够紧锣密鼓的了。
那么这次号称的“最强开源大模型”,具体表现又是怎样呢?
多领域超越ChatGPT
老规矩,先提纲挈领地说一下Baichuan-13B的基本个“模”资料:
中英双语大模型,130亿参数,在1.4万亿token数据集上训练,完全开源、免费可商用。
1.4万亿ztoken这个训练数据量,超过LLaMA-13B训练数据量的40%,是当前开源的13B尺寸模型世界里,训练数据量最大的模型。
此外,Baichuan-13B上下文窗口长度为4096——这就不得不提到其与7B版本完全不同的编码方式。
7B版本采用RoPE编码方式,而13B使用了ALiBi位置编码技术,后者能够处理长上下文窗口,甚至可以推断超出训练期间读取数据的上下文长度,从而更好地捕捉文本中上下文的相关性,让预测或生成更准确。

作为一款中英文双语大模型,Baichuan-13B采用了相对平衡的中英文语料配比和多语言对齐语料,从而在中英两种语言上都有不俗表现。
△主流百亿参数13B开源模型benchmark成绩
来看看Baichuan-13B在中文领域的测评成绩。
在评测集C-EVAl上,Baichuan-13B在自然科学、医学、艺术、数学等领域领先LLaMA-13B、Vicuna-13B等同尺寸的大语言模型。
社会科学和人文科学领域,水平比ChatGPT还要好上一点。

英文领域的表现也算不错,能比同尺寸的其他开源模型,如LLaMA-13B、Vicuna-13B都有更好的表现。

通常而言,非专业用户和有具体需求的企业,对有对话功能的对齐模型有更重的好奇心。
鉴于这个情况,百川智能此次在发布与训练模型底座Baichuan-13B-Base的同时,还发布了其对话模型Baichuan-13B-Chat及其INT4/INT8两个量化版本。
来看看对话模型的实际表现效果——
让它写个商品介绍邮件,它能写出酱婶儿的:



数据推理能力如何?
也浅测了一番:

至于互联网上远古或新近流行的各种梗,Baichuan-13B-Chat好像也没在怕的:

官方介绍,为了保证模型的纯净度,Baichuan-13B-Base和Baichuan-13B-Chat没有针对任何benchmark测试进行专项优化,具有更高的效能和可定制性。
为什么要完全开源、可商用?
正如我们刚才提到的,这次百川智能推出的Baichuan-13B-Base是对学术研究完全开放。
不仅如此,所有开发者均可通过邮件向百川智能申请授权,在获得官方商用许可后即可免费商用。
而且据官方的说法,百川智能是为了降低使用的门槛,才同时开源了Baichuan-13B-Chat的INT8和INT4两个量化版本。
这样一来,在近乎无损的情况下,便可以将模型部署在如3090等消费级显卡上。

想必很多小伙伴就要问了,百川智能为什么要走这么一条路?
其实如果看下Meta在大模型上的开源之路,便可窥知一二。
我们都知道大模型在训练的成本极高,因此像OpenAI和谷歌两大科技巨头最初选择的是闭源的“路数”,它们为的就是以此保证自己的优势。
而Meta后来所推出的LLaMa则与之“背道而驰”,但所迸发出来的潜力却是有目共睹——
迅速吸引大批开发者,在LLaMa基础上迭代出了各种ChatGPT的替代品,甚至在性能的表现上是可以匹敌GPT-3.5的那种。
加之业界对大模型未来发展态势已经达成了一个共识:
类似安卓和iOS,将会是开源和闭源共存的状态。
因此,开源在大模型的发展中已然成为一股不可或缺的中坚力量。
……
那么你对于王小川的新大模型,有何看法呢?
【HuggingFace】
预训练模型:https://huggingface.co/baichuan-inc/Baichuan-13B-Base
对话模型:https://huggingface.co/baichuan-inc/Baichuan-13B-Chat
【GitHub】
https://githuB.com/Baichuan-inc/Baichuan-13B
【Model Scope】
预训练模型:https://modelscope.cn/models/Baichuan-inc/Baichuan-13B-Base/
对话模型:https://modelscope.cn/models/Baichuan-inc/Baichuan-13B-Chat/
— 联系作者 —

— 完 —
「AIGC+垂直领域社群」
招募中!
欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!
请备注您想加入的垂直领域「教育」或「电商零售」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。

点这里👇关注我,记得标星哦~
-
宽恒科技:RTX PRO 5000 Blackwell 引领专业算力,英伟达显卡总代赋能产业升级
2026 年,AI 大模型推理、专业可视化与创意设计需求持续高涨,高端专业显卡作为核心算力支撑,迎来市场爆发期。英伟达 RTX PRO 5000 Blackwell 作为新一代专业旗舰显卡,基于 Blackwell 架构打造,融合 AI 计算、图形渲染与高效能特性,成为专业领域算力新标杆。宽恒科技作为英伟达NPN Elite 精英级合作伙伴,深耕专业显卡领域多年,依托原厂授权与技术实力,为客户提供 RTX PRO 5000 Blackwell 全系产品、方案定制与技术支持服务,助力专业用户高效落地 AI 与创意应用,赋能产业升级。
넶0 2026-05-12 -
宽恒科技:DGX Spark 重构桌面算力,英伟达桌面 AI 超算开启普惠 AI 时代
2026 年,AI 大模型应用向轻量化、本地化快速演进,千亿参数模型的本地部署与调试需求激增,传统大型算力集群成本高、部署难,桌面级 AI 超算成为产业新焦点。NVIDIA DGX Spark 作为英伟达首款桌面 AI 超级计算机,将数据中心级算力浓缩于桌面尺寸,以极致性能与便携形态,重构个人与中小企业 AI 开发范式。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,率先引入 DGX Spark 桌面超算,提供销售、部署、技术支持一站式服务,助力 AI 开发者与企业高效落地本地大模型应用,开启普惠 AI 新时代。
넶0 2026-05-12 -
宽恒科技:VR 产业爆发期,PICO 与 HTC VIVE 旗舰设备构建沉浸式生态
2026 年,元宇宙、虚拟办公、数字孪生产业加速落地,VR 设备作为沉浸式交互核心,迎来需求爆发期。PICO 与 HTC VIVE 作为全球 VR 领域两大领军品牌,推出 PICO NEO3、PICO 4 Ultra、HTC VIVE Focus Vision、HTC VIVE Cosmos 四款旗舰设备,覆盖消费级、专业级、企业级全场景需求。宽恒科技深耕 XR 领域多年,整合两大品牌全系旗舰产品,为客户提供设备销售、方案定制、技术支持一站式服务,助力教育、医疗、工业、娱乐等行业高效落地 VR 应用。
넶0 2026-05-12 -
宽恒科技:深耕英伟达顶级代理体系,以 NPN Elite 资质赋能 AI 产业
在全球 AI 算力竞争白热化的 2026 年,英伟达凭借技术垄断地位主导高端算力市场,其严格的代理授权体系成为保障产品质量与服务标准的核心。英伟达 NPN 合作伙伴网络、NVAIE 认证、NVIDIA AI Enterprise 软件授权、数据中心解决方案授权及 Elite 精英级别代理,构成完整的生态壁垒。宽恒科技作为英伟达 NPN Elite 精英级合作伙伴,深耕代理体系多年,凭借顶级资质与技术实力,为客户提供原厂级产品、方案与服务,成为连接英伟达与企业客户的核心桥梁。
넶0 2026-05-12 -
宽恒科技:算力浪潮下,英伟达全栈算力构建 AI 新基建
2026 年,生成式 AI 与大模型训练进入爆发期,算力需求呈指数级增长,算力租赁、GPU 集群与 AI 服务器成为产业核心,英伟达凭借技术壁垒主导全球高端算力市场,SuperPOD 更是成为大规模算力部署的标杆方案。宽恒科技深耕算力领域多年,依托英伟达全栈产品与技术,为企业提供从算力租赁到集群部署的一站式服务,助力各行业高效落地 AI 应用。
넶0 2026-05-12 -
Blackwell架构加持,RTX PRO 5000领衔专业算力,宽恒科技(英伟达npn)保驾护航
RTX PRO 5000系列显卡的推出,进一步巩固了英伟达在专业GPU领域的领先地位,而宽恒科技作为英伟达npn,将持续依托官方授权、专业技术与完善服务,为客户提供正版、优质、高效的RTX PRO 5000产品与解决方案,助力各行业用户释放专业算力价值,在AI与数字创意产业浪潮中实现高质量发展。
넶2 2026-05-11