由OpenAI开发的GPT4这样的开创性AI助手已经在全球范围内获得了巨大的人气。然而,它们的闭源特性可能对独立研究构成威胁,可能会人类的未来带来一系列危险。因此,ChatGPT的平民化化趋势正在兴起。
对齐已经成为训练大型语言模型(LLM)理解人类指示的关键因素,确保它们提供有用、无害和诚实的内容。作为对齐的第一步,有监督的微调使初级大型语言模型(LLM)能够在对话环境中遵循人类的指示,从而为各种用户提供多种应用。LLM的开发主要集中在两个关键能力:对话能力和遵循指示的熟练程度。为了整合这些能力,数据科学学院(SDS)的一个研究团队,由李海洲教授和王本友教授领导,开发了一个轻量级的,类似ChatGPT的LLM。这是通过在精心选择的对话和指示数据上训练模型来实现的,从而增强了其在多次互动中遵循指示的能力,取名为凤凰。
凤凰(Phoenix)是一款先进的开源、多语言版本的ChatGPT,特别是优化了对话和指令跟随功能。在英文对话基准测试的性能上,在多个场景接近OpenAI的ChatGPT,并超越了大多数开源的中文语言模型。欲了解更多信息,请访问https://www.superclueai.com/。Phoenix有两个版本可供选择。默认版本支持拉丁和非拉丁语言,而另一版本,重新命名为Chimera,专为拉丁语言设计。
Phoenix的发布鼓励开源社区对OpenAI的ChatGPT的AI霸权风险进行反击。Phoenix为各种不同的语言社区提供服务,每个社区都有其独特的文化背景。这有助于全球技术公平性,例如,让使用较少见语言的社区从开源、自我开发、可控的大型语言模型中受益。你可以通过https://phoenix.llmzoo.com/访问Phoenix(主要),或在微信中搜索“神仙湖”小程序。
该团队还在研究如何将大型语言模型(LLMs)适应于医疗咨询。在这项工作中,他们开发了被称为“HuatuoGPT”的LLM [2],可以在https://www.huatuogpt.cn/ 上进行访问。HuatuoGPT的核心配方是在监督微调阶段利用从ChatGPT中提取的数据和来自医生的实际数据。为了整合两种数据源的优势,我们引入了RLMF(Reinforcement Learning from Mixed Feedback,混合反馈的强化学习)其中训练了一个奖励模型,以使语言模型与两种来源的优点相一致。因此,HuatuoGPT可以享受来自ChatGPT和医生的双重优点;前者通常提供格式良好且详细的内容,后者提供专业诊断。到目前为止,HuatuoGPT已经促成了近10万次在线对话。
(样本照片, 点击
https:\\chimera.llmzoo.com
)
[1] Zhihong Chen, Feng Jiang, Junying Chen, Tiannan Wang, Fei Yu, Guiming Chen, Hongbo Zhang, Juhao Liang, Chen Zhang, Zhiyi Zhang, Jianquan Li, Xiang Wan, Benyou Wang, Haizhou Li. "Phoenix: Democratizing chatgpt across languages." arXiv preprint arXiv:2304.10453 (2023). https://github.com/FreedomIntelligence/LLMZoo
[2] Hongbo Zhang, Junying Chen, Feng Jiang, Fei Yu, Zhihong Chen, Jianquan Li, Guiming Chen, Xiangbo Wu, Zhiyi Zhang, Qingying Xiao, Xiang Wan, Benyou Wang, Haizhou Li. "HuatuoGPT, towards Taming Language Model to Be a Doctor." arXiv preprint arXiv:2305.15075 (2023). https://github.com/FreedomIntelligence/HuatuoGPT