添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

大语言模型技术迭代速度简直就是‘天’为单位,前有Meta开源LLaMA【大羊驼】,紧跟着斯坦福大学的Alpaca【羊驼】,现在又出现Vicuna【小羊驼】,羊驼系列名字快不够用了这样下去。


Vicuna-13b只需要花费300美刀(比Alpaca的600美元便宜一半)就能搞出来接近ChatGPT的水平。如何用小资源大模型让个人普通者与中小微企业也能用上高科技一直是开源社区孜孜追求的目标

Vicuna开源代码地址:https://github.com/lm-sys/FastChat

Vicuna在线demo地址:https://chat.lmsys.org/

看名字起的"更快的对话",Vicuna利用ShareGPT的7万对话数据对LLaMA微调(Vicuna is created by fine-tuning a LLaMA base model using approximately 70K user-shared conversations gathered from ShareGPT),当然它的对话能力就相对突出,果然是“缺啥补啥缺啥练啥,傻子也突出”…

Vicuna训练硬件要求:(Vicuna can be trained on 8 A100 GPUs with 80GB memory)

8块 A100 80G的GPU,这款型号属于美国出口管制不卖给中国,价格是8万-10万左右/块。自己可以根据参数调整降低资源硬件使用成本

1.训练流程架构


2.资源性能评估

基于GPT-4初步评估:Vicuna达到90%ChatGPT能力,LLaMA与Alpaca就差的有点远


Vicuna比Alpaca成本更便宜,70亿参数140美刀训练成本,130亿参数300美刀成本


最后看看Vicuna整体得分已经接近ChatGPT的92%左右


赶快下载code或者demo体验吧:


参考文档:https://vicuna.lmsys.org/