Q:什么是Chat GPT?
A:ChatGPT 是一种专注于对话生成的
语言模型
。它能够根据用户的文本输入,产生相应的智能回答。这个回答可以是简短的词语,也可以是
长篇大论
。其中GPT是
Generative Pre-trained Transformer
(生成式预训练变换模型)的缩写。
通过学习大量现成文本和对话集合(例如Wiki),ChatGPT能够像人类那样即时对话,流畅的回答各种问题。(当然回答速度比人还是慢一些)无论是英文还是其他语言(例如中文、韩语等),从回答历史问题,到写故事,甚至是
撰写商业计划书和行业分析,“
几乎”无所不能。
从GPT-3到ChatGPT
Q:ChatGPT与之前的对话AI有什么不同?
与大家在生活中用到的各类智能音箱和“
人工智障
“不同,ChatGPT在对话过程中会记忆先前使用者的对话讯息,即上下文,以回答某些假设性的问题。ChatGPT可实现
连续对话
,并符合大部分人群的价值观,极大的提升了
对话交互模式
下的用户体验。
这些使用体验提升是由于OpenAI使用了
RLHF
(Reinforcement Learning from Human Feedback,人类反馈强化学习) 技术对 ChatGPT 进行了训练,且加入了更多
人工监督
进行微调。
此外,ChatGPT 还具有之前对话AI所没有的特征:
1)可以
主动承认自身错误
。若用户指出其错误,模型会听取意见并优化答案。
2)ChatGPT 可以
质疑
不正确的问题。例如被询问 “哥伦布 2015 年来到美国的情景” 的问题时,机器人会说明哥伦布不属于这一时代并调整输出结果。
3)ChatGPT 可以
承认自身的无知
,承认对专业技术的不了解。
Q:ChatGPT的底层概念和原理包括哪些?
1)ChatGPT属于NLP (自然语言处理)技术
通俗的讲,NLP就是人类与计算机使用自然语言(例如汉语、英语)进行对话的技术。对于人类或AI,通常需接受多年或数月的训练才能正常对话。NLP类模型不仅要理解单词的含义,还要理解如何造句和给出上下文有意义的回答,甚至使用合适的俚语和专业词汇。NLP/NLU领域
已知局限
包括对重复文本、对高度专业的主题的误解,以及
对上下文短语的误解
。
2)GPT 语言模型家族
从数学或从机器学习的角度来看,语言模型是对词语序列的
概率相关性分布的建模
,即利用已经说过的语句(语句可以视为数学中的向量)作为输入条件,预测下一个时刻不同语句甚至语句集合出现的概率分布。
3)ChatGPT的本质
作为ChatGPT基础的GPT-3或GPT-3.5 是超大的统计语言模型或
顺序文本预测模型
。本质上是对人类的语言反应能力的
数学逼近
。
ChatGPT 使用来自人类反馈的强化学习进行训练,这种方法通过人类干预来增强机器学习以获得更好的效果,使回答更符合大部分用户的价值观。在训练过程中,人类训练者扮演着用户和人工智能助手的角色,并通过
近端策略优化算法
进行微调。由于ChatGPT更强的性能和海量参数,它包含了更多的主题的参数,能够处理更多小众主题。
Q:GPT为什么表现这么好?
ChatGPT之前有几个知名的兄弟,包括GPT-1、GPT-2和GPT-3。这几个模型参数量(模型大小)逐渐增大,ChatGPT与GPT-3(参数量约1750亿)更为相近。
ChatGPT/GPT发展历程
InstructGPT/GPT3.5(ChatGPT的前身)与GPT-3的主要区别在于,新加入了被称为
RLHF
(Reinforcement Learning from Human Feedback,人类反馈强化学习)。这一训练范式增强了人类对模型输出结果的调节,并且对结果进行了更具理解性的排序。
另外要提到
TAMER
(Training an Agent Manually via Evaluative Reinforcement,评估式强化人工训练代理)这个框架。该框架将人类标记者引入到Agents的学习循环中,可以通过人类向Agents提供奖励反馈(即指导Agents进行训练),从而快速达到训练任务目标。TAMER不需要标记者具有专业知识或编程技术,语料成本更低。
尽管强化学习技术在很多领域有突出表现,但是仍然存在着许多不足,例如训练收敛速度慢,训练成本高等特点。
为了提升用户体验和对话效果,RLHF被引入到GPT3.5的训练过程:
第一阶段
:训练
监督策略
模型
GPT 3.5初始模型本身很难理解人类不同类型指令中蕴含的不同意图,也很难判断生成内容是否是高质量的结果。为了让GPT 3.5初步具备理解指令的意图,首先会在数据集中随机抽取问题,由人类标注人员,给出高质量答案,然后用这些人工标注好的数据来
微调 GPT-3.5模型
(获得SFT模型, Supervised Fine-Tuning)。这一过程类似于学生
自学
。
第二阶段
:训练
奖励模型
(Reward Model,RM)
这个阶段的主要是通过人工标注训练数据(约33K个数据),来训练奖励模型。在数据集中随机抽取问题,使用第一阶段生成的模型,对于每个问题,生成多个不同的回答。人类标注者对这些结果综合考虑给出
排名顺序
。这一过程类似于教练或老师
辅导
。
第三阶段
:采用
PPO
(Proximal Policy Optimization,近端策略优化)
强化学习来优化策略
。
在获得了足够的训练数据后,ChatGPT还采用
PPO
(Proximal Policy Optimization,近端策略优化)
强化学习来优化策略
。PPO的核心思路在于将有人监督的在线学习转化为无人监督的离线学习。在数据集中随机抽取问题,使用PPO模型生成回答,并用上一阶段训练好的RM模型给出质量分数。把回报分数依次传递,由此产生策略梯度,通过强化学习的方式以更新PPO模型参数。这一过程类似于
根据答案刷题
。
不断重复第二和第三阶段,通过
迭代
,会训练出更高质量的ChatGPT模型。
ChatGPT训练过程
Q:现阶段ChatGPT还有什么不足?
尽管ChatGPT表现出出色的上下文对话能力甚至编程能力,完成了大众对人机对话机器人(ChatBot)从“人工智障”到“有趣”的印象改观,我们也要看到,ChatGPT技术仍然有一些局限性,还在不断的进步。
1)ChatGPT在其未经
大量语料
训练的领域缺乏“
人类常识
”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT在很多领域可以“
创造答案
”,但当用户寻求正确答案时,ChatGPT也有可能给出有误导的回答。例如让ChatGPT做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案有可能是错误的。
2)ChatGPT无法处理复杂冗长或者
特别专业的语言结构
。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。
3)ChatGPT需要非常
大量的算力(芯片)
来支持其训练和部署。抛开需要大量语料数据训练模型不说,在目前,ChatGPT在应用(计算)时仍然需要大算力的服务器支持,而这些服务器的规模成本是普通用户无法承受的,即便数十亿个参数的模型也需要很大的
计算资源
才能训练(训练数据在TB以上量级)。如果面向真实搜索引擎的数以亿记的用户请求,如采取目前通行的免费策略,大部分企业都难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或
更高性价比的算力平台
。
4)ChatGPT还没法在线的把
新知识
纳入模型之中,而出现一些新知识就去重新预训练GPT模型也是不现实的,无论是训练时间或训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。
5)ChatGPT仍然是
黑盒模型
。目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述。
Q:ChatGPT还能朝什么方向优化?
目前看到比较有价值的优化方向包括:
1)引入减少人类反馈的
RLAIF
2020年底,OpenAI前研究副总裁Dario Amodei带着10名员工创办了一个人工智能公司Anthropic。Anthropic 的创始团队成员,大多为 OpenAI 的早期及核心员工,参与过OpenAI的GPT-3、多模态神经元、人类偏好的强化学习等。
2022年12月,Anthropic再次发表论文《Constitutional AI: Harmlessness from AI Feedback》介绍人工智能模型Claude。(Claude 和 ChatGPT 都依赖于强化学习(RL)来训练偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基础之上,不同之处在于,CAI的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。
CAI用人工智能反馈来
代替人类对表达无害性的偏好
,即RLAIF,人工智能根据一套constitution原则来评价回复内容。
对RLHF的改进
2)补足
数理短板
ChatGPT虽然对话能力强,但是在数理计算对话中容易出现一本正经胡说八道的情况。
计算机学家Stephen Wolfram 为这一问题提出了解决方案。Stephen Wolfram 创造了的 Wolfram 语言和计算知识搜索引擎 Wolfram | Alpha,其后台通过Mathematica实现。
ChatGPT与Wolfram | Alpha结合处理梳理问题
在这一结合体系中,ChatGPT 可以像人类使用 Wolfram|Alpha 一样,与 Wolfram|Alpha “对话”,Wolfram|Alpha 则会用其
符号翻译能力
将从 ChatGPT 获得的自然语言表达“翻译”为对应的符号化计算语言。在过去,学术界在 ChatGPT 使用的这类 “统计方法” 和 Wolfram|Alpha 的 “符号方法” 上一直存在路线分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互补,给NLP领域提供了更上一层楼的可能。
ChatGPT 不必生成这样的代码,只需生成常规自然语言,然后使用 Wolfram|Alpha 翻译成精确的 Wolfram Language,再由底层的Mathematica进行计算。
3) ChatGPT的
小型化
虽然ChatGPT很强大,但其模型大小和使用成本也让很多人望而却步。
有三类
模型压缩
(model compression)可以降低模型的大小和成本。
第一种方法是
量化
(quantization),即降低单个权重的数值表示的精度。比如Tansformer从FP32降到INT8对其精度影响不大。
第二种模型压缩方法是
剪枝
(pruning),即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件(如权重矩阵的通道)。这种方法在视觉和较小规模的语言模型中有效。
第三种模型压缩方法是
稀疏化
。例如奥地利科学技术研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以将 GPT 系列模型单次剪枝到 50% 的稀疏性,而无需任何重新训练。对 GPT-175B 模型,只需要使用单个 GPU 在几个小时内就能实现这种剪枝。当然这种稀疏化一般会有模型精度的损失。
SparseGPT 压缩流程
Q:ChatGPT能带来什么未来反展和投资机会?
说到ChaGPT不得不提AIGC。
AIGC
即利用人工智能技术来生成内容。与此前Web1.0、Web2.0时代的UGC(用户生产内容)和PGC(专业生产内容)相比,代表人工智能构思内容的AIGC,是新一轮内容
生产方式变革
,而且AIGC内容在Web3.0时代也将出现
指数级增长
。
ChatGPT 模型的出现对于文字/语音模态的 AIGC 应用具有重要意义,会对AI产业上下游
产生重大影响
。其技术能力的提升,不仅是生产工具的进步,甚至部分程度上把计算机送到了劳动者的位置。
从下游相关受益应用来看,包括但不限于
无代码编程
、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、
人工智能客服
、机器翻译、
芯片设计
等。从上游增加需求来看,包括
算力芯片
、数据标注、自然语言处理(NLP)等。
大模型呈爆发态势(更多的参数/更大的算力芯片需求)
随着算法技术和算力技术的不断进步,ChatGPT也会进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。