前言
  
  
   最近由UC Berkeley、CMU、Stanford, 和 UC San Diego的研究人员创建的 Vicuna-13B,通过在 ShareGPT 收集的用户共享对话数据中微调 LLaMA获得。其中使用 GPT-4 进行评估,发现Vicuna-13B 的性能达到了ChatGPT 和 Bard 的 90% 以上,同时在 90% 情况下都优于 LLaMA 和 Alpaca 等其他模型。训练 Vicuna-13B 的费用约为 300 美元。训练和
   
    代码[
   
   1]以及
   
    在线演示
   
   [2]已公开。
  
  
   Vicuna到底怎么样?
  
  
   Vicuna在官网中通过和Alpaca、LLaMA、ChatGPT和Bard对比,然后通过GPT4当裁判来打出分数,具体如下。
  
  
   训练
  
  
   Vicuna 是通过使用从 ShareGPT.com 使用公共 API 收集的大约 7万 用户共享对话微调 LLaMA 基础模型创建的。为了确保数据质量,将 HTML 转换回 markdown 并过滤掉一些不合适或低质量的样本。此外,将冗长的对话分成更小的部分,以适应模型的最大上下文长度。
  
  
   训练方法建立在斯坦福alpaca的基础上,并进行了以下改进。
  
  
   - 
    内存优化:为了使 Vicuna 能够理解长上下文,将最大上下文长度从alpaca 中的 512 扩展到 2048。还通过gradient checkpointing和flash attentio来解决内存压力。
   
- 
    多轮对话:调整训练损失考虑多轮对话,并仅根据聊天机器人的输出进行微调。
   
- 
    通过 Spot 实例降低成本:使用 SkyPilot 托管点来降低成本。该解决方案将 7B 模型的训练成本从 500 美元削减至 140 美元左右,将 13B 模型的训练成本从 1000 美元左右削减至 300 美元。
   
   [1]
  
  
   Vicuna代码:https://github.com/lm-sys/FastChat
  
  
   [2]
  
  
   Vicuna demo:https://chat.lmsys.org/
  
  
   [3]
  
  
   官方blog:https://vicuna.lmsys.org/