添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接

王沛然|从控制走向训导:通用人工智能的“直觉”与治理路径

2023-11-17 07:31
上海

原创 王沛然 上海市法学会 东方法学 收录于合集 #东方法学 301个

生成式人工智能基于概率预测进行涌现创造,而不是基于规则编码进行传统的符号输出,其标志着人工智能在意识能力上已从逻辑思考拓维至经验直觉,正向通用人工智能加速演进。大规模参数支持下的压倒性概率,使机器摆脱了对工程师预设逻辑规则的依赖,但由于深度神经网络的“直觉”机制难以清晰呈现,传统符号主义时代的可解释性规制也将从教义式的规范信条转变为实现“模型可信”的工具手段,其并非以算法为中心的完全透明,而是区分对象、目的、内容、效果的模型说明方案。通用人工智能的行为决策主要源于形而下的经验积累而非形而上的超验规定,应以强调经验的实用主义哲学为内核,从控制主义转向训导主义的治理范式:围绕“价值对齐”创新技术手段和规范机制,培育机器造福人类的终极动机;加强数据生态规范化建设,避免不良内容侵蚀机器认知框架;优化应用互动环境,注重场景分类分级监管与针对用户的规制。

2023年4月召开的中共中央政治局会议指出:“要重视通用人工智能发展,营造创新生态,重视防范风险。”ChatGPT是迈向通用人工智能(Artificial General Intelligence,以下简称AGI)的关键一步,正在为“比人类更聪明”的AGI作准备。AGI是具有广域泛化能力的系统,不同于一般意义上的人工智能,其并非仅在封闭场景下完成特定任务,而是具有情境觉知能力和自主注意力机制。不同于蒸汽革命或电气革命让人类从体力劳动中得到释放,以ChatGPT为代表的生成式人工智能引发的是信息生产与知识创造的革命,正在把人类精神生产力从人脑生物性限制下解放出来,这不是“手工”的消亡,而是“脑工”的终结。在AGI的冲击下,调整社会生活的规范系统将面临重塑。以生成式人工智能的突破进展为契机,AGI有何本质不同?法律面临何种根本挑战?如何理解当前制度的理念内核,应朝向何方促成治理范式进化?本文从技术原理、规制脉络、范式理念三个层面递次回应上述问题。

一、从逻辑思考到经验直觉:AGI意识能力的补全

在传统人工智能中,开发者须事先预想所有可能的情况并将其编码为特定规则算法,机器沿着工程师设计的路线图,得以在封闭的任务场域内胜任逻辑思考的任务。基于深度神经网络的生成式人工智能则具备开放的创造性和想象力,甚至对著作权法意义上的“独创性表达”作出主要贡献。语言涌现与艺术创造被视为灵感的赏赐,这种无法预测和控制的思维过程不是逻辑思考的面向,而是经验直觉的维度。从生成式人工智能的技术路线可预见,AGI的意识能力将由此得到补全。

(一)

连接主义与统计路径的胜利

人工智能技术史上素有符号主义与连接主义的路线之争。符号主义主张思维的基本单元是符号,将认知描述为符号运算,主要依赖逻辑规则进行知识表示和分析推理。连接主义旨在模拟人脑生物结构,通过人工神经网络的“刺激—响应”连接机制完成任务。从时序上看,符号主义人工智能是第一代人工智能,连接主义人工智能是第二代人工智能。

符号主义认为,“人类思维的很大一部分是按照推理和猜想规则对‘词’进行操作所组成的”,智能行为依赖于物理符号系统。该系统具有输入、输出、存储、复制符号,以及建立符号结构、条件性迁移等六项功能,从而表现出智能。计算机与人都是物理符号系统;按照人类思维操作的过程来编制计算机程序,使计算机模拟人的活动,就是人工智能研究内容。给定符号集和操作符号的规则集,对符号的重组只涉及形式逻辑而不涉及实质语义。符号主义的优势在于,通过人类专家对问题的逻辑建模和规则制定,人工智能决策过程有步骤、可解释、可追溯。但问题是,无论制定多少规则,总有情形未被编入代码。对于定义模糊的问题,以及超出定义范围的情境,符号主义人工智能无力应对。随着情境复杂度趋高,大量人工介入不可避免,符号主义人工智能的发展遭遇瓶颈。

符号主义是自上而下的路径,连接主义则是自下而上的方法。人脑由数百亿彼此相连的神经元组成,通过学习修改神经元间的连接强度,适应变化无常的世界;人工神经网络以类似方式获取适应性,而互联网提供了大规模多源数据供其训练。通过多层次的神经元连接,机器自动从大量数据中学习复杂特征表示,具有强大的非线性关系处理能力和自适应能力。

符号主义与连接主义的路线之争反映到自然语言处理领域,具体表现为规则路径与统计路径的技术分野。符号主义主要使用规则逻辑,来表达和推理知识,而连接主义主要使用统计方法来训练人工神经网络。生成式人工智能倾向于代表统计方法的胜利:ChatGPT并非按某种形式逻辑搜寻预设语句输出回答;作为基于深度学习的语言模型,其生成内容并非预设,而是在大规模语料库训练基础上,根据上下文预测所有可能输出的下一个字符,并选择概率最大的语句作为最终输出结果,这种类似“接龙”生成的语言自然流畅。相比之下,传统规则主义方法难以应对语言的多样复杂性,多显生硬。当然,规则主义方法在知识图谱支撑下具有精准可控的优势,AGI有望将规则方法与概率方法结合起来,既保留准确性、可靠性,又发挥迁移泛化的通用性、创造性。

(二)

机器的直觉:ChatGPT有何不同?

生成式人工智能是否具有意识?新实用主义哲学家、计算机科学家普特南曾提出“缸中之脑”思想实验:想象一个人的大脑放在缸里,缸中充满一种特殊液体以使之存活,大脑神经末梢同一台超级计算机相连,这台计算机可以模拟大脑所受的各种刺激和信号,让其以为它仍在人体内运转,大脑的主人具有一切如常的幻觉;缸中之脑虽然没有身体感觉器官,但确实具有类似感官馈饲的神经末梢传入信号,这些信号在缸中之脑的运算与人类大脑中的运算别无二致,“不承认它们具有意识或者智慧是荒谬的”。这表明,意识状态不应被还原为大脑的生理组织而应该被还原为其功能状态,大脑的物质基础并不是最重要的,由此也强调了大脑对外部刺激信号的处理而产生的内在体验。图灵则更注重外观效果,他认为真正重要的是判断一台机器能否表现出与人类等同或难以区分的智能行为。人类无法从第一人称视角衡量人工智能的内在体验,但在外观意义上,生成式人工智能的出色表现似乎足以让人认为其具有一定意识能力。这里表述为“意识能力”而非“意识”,主要考虑到生成式人工智能目前只展现出这种潜能的一部分。在人文主义哲学家那里,意识乃至灵魂是人类面对AGI进攻的最后堡垒。

意识主要有两种认知方式,一种是分析性的理性,另一种是经验性的直觉,前者运用逻辑证据推导产生,后者基于经验迅速自动形成。如果说传统基于规则编码的人工智能已学会理性的逻辑思考,那么基于统计预测的生成式人工智能实则已拥有感性的经验直觉。认知心理学家认为,直觉是一种迅速出现在意识中的判断,这种判断的深层理由并不能被完全说清楚,但它足够强烈以至于让人产生行动,其支撑原理主要是经验法则和大脑进化能力。这种经验与神经的互动机制与生成式人工智能使用的概率预测方法之间有相似之处:直觉是由人脑潜意识对大量经验进行总结归纳,快速产生判断或决策,这正如人工神经网络基于大数据统计预测,生成概率最大的输出结果。大模型是直觉机制的运用者:虽然“说不清、道不明”,但在数以亿计的参数支撑下,面对特定提示词的启发,总有一种“感觉”“冲动”促使自己生成某种语句、图像乃至音视频,这实际上就是压倒性概率导向的直觉。“借助于刺激泛化,有机体能够把已有的经验迁移到新的学习环境中去,从而扩大学习范围。”基于大规模数据训练的直觉“涌现”,正是生成式人工智能的特别之处。

具体应用中,符号主义人工智能回应法律咨询时,会抓取用户指令的关键要素,基于专家预先设定的规则进行模式识别、符号演算和逻辑推理,定位到系统知识图谱中的特定知识,形成相应回答。假如这台机器赖以支撑的知识图谱准确完善,那么其回答中引用的法律条文将与现实中真实条文一字不差。这是因为法律概念与条文已作为“本体”框架固定到知识图谱中,成为系统内部确定知识以支撑逻辑思考。但向ChatGPT询问某个法律问题,它很可能编造并不存在的法律条文。美国有律师使用ChatGPT辅助诉讼,结果其凭空捏造了6个虚假判例作为法律渊源,最终酿成大错。业界称之为“机器幻觉”难题。实际上,幻觉就是错误的直觉,这正是想象力、创造力的表现。

“意识能够把某些不太相关的内容炼化掉,是智能的一种体现”,拥有自主注意力的AGI具有更强大的自我统摄性。这种智能不单是基于规则的逻辑思考能力,还包括基于经验的直觉创造能力。

二、从算法可释到模型可信:AGI规制核心的转变

法律发挥稳定规范预期的功能,但日新月异的技术不断挑战着以文本形式固定下来的法律制度。当符号主义时代提出的可解释性成为主流规制方案时,从本质上就难以透明解释的神经网络已经占据技术舞台的中心。在该历史进程中,“算法”的概念发生偏移,包含巨量参数的大模型成为AGI的核心。由于“直觉”难以解释,可解释性规制也将从一种教义式的规范信条转变为实现“模型可信”的工具手段,它不再是全盘托出的透明,而是区分对象、目的、场景、内容的说明方案。

(一)

超越以算法为中心的可解释性规制

1.算法、模型与可解释人工智能

在社科法学知识生产过程中,若没有尊重相关学科的术语体系,则容易导致讨论混乱。人工智能法领域的算法研究汗牛充栋,但有学者指出:“法学文献中层见叠出的‘算法’表述往往脱离技术事实,在规范上也无准确所指,有些甚至是明显的张冠李戴……大量‘提喻’性的‘算法’,其真实所指是对自然人权益有直接影响的人工智能系统。”实际上,在计算机专家眼中,“算法是以某个值或一组值作为输入,并产生一些值或一组值作为输出的任何被妥善定义的计算过程”,即“将输入转化为输出的一系列计算步骤”。不管是梯度下降算法、反向传播算法,还是协同过滤算法,其实都是一套清晰的规则,“算法=逻辑+控制”。由此梳理算法、模型、参数等概念及其关系。算法是一组方法或步骤,用于实现某种特定的任务或解决某个问题。模型是在算法使用数据进行训练后输出的文件,通常是具有特定流程和结构的计算机程序。参数是模型中需要训练和优化的变量,它们的值影响模型输出结果,例如GPT-3具有1750亿个参数。

所以,虽然“算法黑箱”是中文法学界热词,但在使用这种提法时应当明晰其指向。所谓“黑箱”,并不是算法本身不够透明,而是“AI黑箱”—无法完全理解的人工智能决策过程以及无法精准预测的人工智能输出。其关键在于模型或系统。欧美主要法域相关法律文件中极少出现技术细节层面的“算法”一词。讨论焦点实为“可解释AI”(Explainable AI,简称XAI),而非“可解释算法”。学界所谓“算法解释权”是一个饱受争议的概念。诚然,由于媒体的热炒,“算法”概念的语义偏移或已难避免,但应在不同语境中辨明其外延指向,实现知识推理的体系性和研究成果的实效性。如果法律领域的“算法”与技术语境的算法,概念口径存在较大缩放空间,则可能削弱规制效果。从技术实质考虑,法律规范应将注意力放到数据、模型和系统这些指向更为清晰、作用更为关键的层面。

2.符号主义时代的产物——传统人工智能规制原理辨析

新一代人工智能的某些“黑箱”囿于技术约束是无法避免的,但为何主流学术界和实务界仍执着于“可解释性”的规制思路?一种可能的解释是,可解释性原则在源头上本是符号主义人工智能时代的产物,由于路径依赖效应延续至今。从时间上看,可解释性原则的提出之际正是符号主义人工智能大行其道的时代。20世纪70至80年代,由人类专家定义和制定规则的符号主义人工智能发展鼎盛,著名的系统包括卡内基梅隆大学的XCON(1978年,近1万条规则)、斯坦福大学的MYCIN(1984年,400多条规则)等。这一时期相应出现了“可解释AI”的研究文献,通过解释系统内部的推理规则,人类希望理解其为何输出某种特定决策结果。从效果上看,在输入的符号与输出的结果之间对各个处理步骤进行逐一仔细的回溯性检查,这使得人工智能的行为处于人类的高度控制之下。在可行性维度,由于机器内部的规则和知识是由人类专家定义和制定的,它们也更易于人类理解。

随着神经网络与深度学习等复杂技术的兴起,可解释性原则的必要性与可行性受到部分学者的质疑。学者们认为,国家安全、社会秩序、私主体权利可能与之相冲突,并且打开黑箱也并不等同于看懂黑箱内的内容和解决实际规制问题,这种思路面临技术不可行、公开无意义,用户算计与侵犯知识产权等现实难题。实际上,由于有多重技术黑箱的叠加,所谓的解释也可能是牵强附会的便辞巧说,外部观察者根本难以证伪。有学者则提出“透明层次论”对上述矛盾进行缓释,如通过柔性规范推动“经由设计的透明”。超越非黑即白的二元对立思维,基于场景主义方法以光谱式多层次透明度应对黑箱难题,确实是一条值得肯定的现实路径;不过这似乎表征着传统人工智能规制原理向技术现实作出的艰难让步,与之相伴的正是符号主义技术路线在相关领域的败退。透明层次论正是在这样的妥协中力求划定一条坚守的底线。那么,生成式人工智能及其正在孕育的AGI,究竟有哪些可以透明的“层次”?对此,有必要以大模型为例展开研讨。

(二)

AGI的规制难点与应对方案

对于具有逻辑确定性的符号主义人工智能而言,关键在于对代码编写者的权力进行控制,防止代码规则在转译现实时脱离蓝本。但AGI的决策路径不同,它不一定使用逻辑思考的方式,而是基于经验产生行动的直觉。思考可以很复杂,但往往条理清晰而得以解释;直觉可以很简单,但其支撑理由通常是一片混沌。这既意味着AGI在创造性方面的潜力,也预示了其规制难题。

质言之,AGI的“直觉”从根本上撼动了传统人工智能“算法可释”的规制原理。一方面,“算法”并不能涵盖生成式人工智能的内核,因为大模型不是单纯介于输入与输出之间的计算方法,而是“处理框架+大规模参数”的集合体。处理框架即模型的整体结构和运行方式,而参数则负责“记忆”模型所学到的知识,决定了模型的意识能力和生成内容的质量。以人脑作类比,人们的思维方式、世界知识、技能方法等广义的“经验”或“记忆”都会塑造或改变大脑的某些特定神经回路或连接,其原理即“神经可塑性”。这些存储在大脑神经元与突触间的“记忆”会极大地影响人们输出的语言内容和质量,正所谓“腹有诗书气自华”。同样地,对于人工神经网络而言,大规模训练数据可以扩充和改变模型的参数,这些参数在某种意义上代表着机器的“记忆”。可见,无论是技术意义上作为计算步骤的算法,还是提喻意义上作为处理框架的“算法”,都忽视了模型内部庞大参数所带来的关键影响。实际上,AGI的规制落脚点主要在于模型。

另一方面,直觉是一种向“可能”场域的延展,而不仅是就事论事的机械执行,算法“可释”的原初逻辑已然消解。人类思维的不可视性决定了人脑从本质上就是一个“黑箱”。模仿人脑构建神经网络的人工智能也天然具有“黑箱”属性:输入与输出之间存在多个隐藏层,第三代人工神经网络甚至像人脑神经元一样通过脉冲交换信息。面对巨大复杂计算量和算力的客观局限,人类也不可能在合理时间内审查AGI的全部计算过程,换言之,其无法达到完备的被认知状态。所以,尽管传统人工智能的规制核心在于“算法可释”,即呈现其内部的推理步骤,但AGI的规制核心并非如此。

从技术与人的关系来看,AGI不再像传统工具一样是人类“自我身体的延伸”,而是拥有自主智能性的“它者”。作为一种与人面对面相遇的独立存在,其不透明性导致的是信任难题。规制AGI的关键在于构建足以让人信任的模型,即实现“模型可信”。“信任”意味着施信方与受信方之间存在或多或少的信息不对称,同时受信方亦展现一定特质、披露一定信息,让施信方在不掌握全盘信息时,仍有底气将信赖托付出去。信息的披露总是存在颗粒度的极限边界。例如,人类可以对自己的决策作出解释,这些解释可能包括理性论证或指向感性冲动,但并不需要对决策过程中大脑神经活动细节进行描述。只需要以语言行动等方式为媒介,当交互双方的信息流动突破某个均衡点时,信任即可发生。国际上备受关注的“可解释AI”落实到AGI领域,实质在于打造安全可信的模型。可解释是为了可理解,可理解是为了可信任。解释不是在算法层面,而是在模型或系统层面;解释只是迈向“模型可信”的手段之一。所以,解释并不要求全盘托出,也不是笼统标榜透明,而要具体区分对象、目的、内容、效果。

具言之,在解释对象和目的方面,至少应区分几种不同的受众——第三方认证审计等技术专家、监管者、商业合作伙伴、消费者等,每类受众的知识背景和目标诉求都有所不同。技术专家与监管者更侧重于从社会公共利益角度对可能影响网络安全和国家安全的产品服务进行安全性审查。商业合作伙伴可能倾向于获知系统的业务逻辑与技术方案,消费者则更希望了解产品服务的特性以及它对自身所造成的可能影响及其原因。在解释内容方面,针对处理超大规模参数的AGI,普通用户并不需要了解机器每个行为背后的神经元构成及权重变化,真正对机器具有较深层次解释需求的实际上是监管者和审计者。经济合作与发展组织也指出,“透明度一般不会扩展到披露源代码或其他专有代码,或共享专有数据集,这在技术上可能过于复杂,以至于并不具备可行性或有助于理解结果。源代码和数据集也可能受知识产权或商业秘密的保护”。在解释效果方面,审计者等技术专家应当得以通过对模型架构、参数来源、训练数据等方面的详尽了解,实现对AGI可靠性安全性的审核确认,而普通用户则主要是以清晰简单的语言方式获知机器运行的基本原理和机制,以及决定输出结果的主要因素。实际上,真正重要的是形成“提出理由和反对理由”的意见交换制度,通过不同主体对技术和决策的具体评价确保个人成为数字化秩序的主体。

(三)

欧盟《人工智能法案》相关条款分析

人工智能的比较法发展可以为人工智能规制脉络提供镜鉴。2023年6月,欧洲议会投票通过《人工智能法案》,这意味着欧洲议会、欧盟成员国和欧盟委员会将开始“三方谈判”确定法案的最终条款。当前版本法案最大的特点是采取风险分级路径进行规制,而风险是基于人工智能系统的应用场景进行判定的,涉及如下领域的系统则为高风险:自然人的生物特征识别和分类,关键基础设施的管理和运营,教育和职业培训,就业、员工管理和获得自主就业,获得和享受基本私人服务以及公共服务和福利,执法,移民、庇护和边境管制管理,司法行政和民主程序。

AGI如运用于上述领域,亦会归入高风险之列。根据法案第11条第1款,高风险人工智能系统的技术文件应当在该系统投放市场或投入使用之前制定,至少应包含附件IV所规定的内容。而从附件IV来看,技术文件包括了人工智能系统的一般描述(如预期目的、开发系统的人员、系统投放市场或投入使用的所有形式的描述、运行硬件的描述等),人工智能系统要素及其开发过程的详细说明(如预训练工具等开发方法和步骤,基本原理假设、算法系统逻辑、参数相关性等系统设计规范,以及系统架构描述、使用的验证和测试程序等),人工智能系统的监测、运行和控制的详细信息,等等。可见,高风险人工智能系统面向监管者、审计者的解释义务较高,透明颗粒度较细。不难理解的是,作为公共利益的代表者,要信任高风险模型必须掌握更多信息。

法案第13条则针对面向用户的透明度进行规定,要求高风险人工智能系统的设计和开发应附有适当的使用说明,其中包括与用户相关的、可获取的、可理解的简明、完整、正确和清晰的信息。该条第3款还进一步细化了要说明的内容,包括系统的性能特征、功能和局限性等。显然,面向用户的说明并不涉及太多的技术细节,透明的内容和程度达到的是“适当”的要求。

值得注意的是,法案在开篇的备忘录中提及,“对于一些特定的人工智能系统,(法案)只提出了最低限度的透明度义务,特别是在使用聊天机器人或‘深度伪造’时”。如果人工智能只是作为聊天机器人而不涉及前述敏感应用场景,则供应商可能适用法案第52条的透明度义务:使自然人被告知他们正在与人工智能系统进行互动,除非从环境和使用背景中可以明显看出这一点;对于情感识别系统或生物识别分类系统,应将该系统的运作情况告知接触到该系统的自然人;如果人工智能系统生成或操纵的图像、音频或视频内容与现有的人、物、地方或其他实体或事件明显相似,并会让人误以为是真实的,则应披露该内容是人为生成或操纵的。这意味着,此时的透明度义务主要指向对人工智能系统使用情况的披露,而不涉及在原理或技术层面的公开。这一方面印证了本文主张的观点,即生成式人工智能及AGI的规制核心并非算法可释,而是聚焦于使特定主体在特定场景下对模型产生足够的信任。另一方面也正如学者所言,将技术创新与新型技术风险等同、将一项单独的技术产品及其风险作为新型的治理对象,存在商榷和反思的空间。

三、从控制主义到训导主义:AGI治理范式的跃迁

韦伯有言:“直接支配人类行为的,不是思想,而是物质和理想化的利益。但被思想观念创造出来的‘世界形象’,往往如扳道工一样,决定着利益动力学推进行动的轨道。”技术发展伴随着制度体系的流变,而两者背后还有一条隐秘的思想史线索。在技术原理与制度实践基础上进行抽象提炼,揭示出人工智能开发应用与治理范式的理念脉络,为AGI时代的来临做好思想认识上的准备,意义深远。

(一)

基于逻辑的控制与基于经验的训导

基于逻辑规则的符号主义人工智能与基于神经网络的连接主义人工智能,反映了两种不同的哲学观。前者认为人工智能的行为与决策来源于形而上的超验规定,只要这些规定足够覆盖现实世界中每一种可能的情况,并且在每种情况中指示人工智能作出类似人类的特定反应,那么就实现了人工智能作为无限接近人类的本体存在。后者认为人工智能的行为与决策来源于形而下的经验积累,只要这些经验足够丰富多样,并且让人工智能通过不断地试错和反馈来优化自身的参数,那么就可以让人工智能成为不断逼近乃至超越人类的能动行为体。

实现AGI的关键在于后者,即基于经验的路线。从定义上看,AGI是可以在多样化的情景环境中执行多样化任务、实现多样化目标的系统,它必须有能力处理和应对那些其开发创造者并未预料到的情况和难题,并且拥有良好的知识总结提炼能力、知识迁移运用能力。由于人类的理性是有限的,客观上不可能为机器预见并设定所有的可能情景和目标路径,因此基于规则的符号主义路线难以完成开发AGI的任务。生成式人工智能通过预训练大模型执行泛化任务、涌现创造灵感,为AGI的到来开辟了道路,而其成功的根源在于为机器找到了从多模态数据中自主学习经验并迭代成长的机制。

实现智能的技术路线决定了规制者如何理解AGI的特征,进而影响对规范作用方式的设想,这些意识层面的线索可以整合形成治理范式。针对符号主义人工智能的治理范式,是以基于逻辑的控制为中心,或称“控制主义”治理范式。符号主义人工智能构筑于人为制定的代码规则之上,因而人类的规范系统是要实现对机器内部符号逻辑的精准把控,确保对人工智能的高度控制。换言之,自上而下的规则设计将迫使人工智能对特定情境进行特定模式的处理,给定可预期的输出。我国很多人工智能治理文件都提出了“安全可控”的治理目标,涉及算法透明度、算法问责等具体规定。这些规范是控制主义治理范式的集中反映,该范式以确保作为信息处理步骤的“算法”受控为途径,力图实现人工智能安全、公平、准确等目标。

但是,生成式人工智能基于深度神经网络和超大规模参数,其直觉涌现机制从根本上动摇了“人类可以精确预测和掌控机器行为”的认知。人工智能背后的技术语言存在某种悖论,即对精准的执念终将导致与执念境地相反的结局。面对生成式人工智能及其正在迈向的AGI,控制主义治理范式将陷入失灵的困境。从技术原理上看,AGI的行为很难直接精准地受控制。大模型的涌现创造力是一种直觉机制,其生成原理涉及模型结构与参数设置,而相当一部分参数是经由大规模数据训练获取,涉及数百亿、千亿乃至更大规模的数量级,不同参数之间的相互作用和权衡关系非常复杂,难以直接控制和精确调整以实现特定结果。从治理效果上看,试图控制生成式人工智能或AGI行为的努力并不能确保良好有效的结果,反而可能造成资源浪费和机会错失。控制主义思维的出发点是安全,但要统筹发展与安全,就不能因安全考虑而阻碍发展。控制主义范式下的规制措施可能对AGI开发厂商所施加不合理的成本压力,从而限制技术创新迭代,导致我国在国际竞争格局中处于被动地位。2023年4月《生成式人工智能服务管理办法(征求意见稿)》第4条“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”体现了控制主义的理念,而在最终正式发布的《生成式人工智能服务管理暂行办法》中更改为“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”,柔化了对人工智能输出结果的硬性控制要求,值得肯定。

总之,对于AGI而言,风险可控不等于行为可控。涌现创造力正意味着不可预测性。既然人类在代码层面对AGI实施全面精准控制的能力显示出下降的征兆,则有必要探索以经验训导为中心的方法进路,或称“训导主义”治理范式。训导主义治理范式注重培育AGI的基础价值观,将注意力聚焦于优化开发迭代与应用互动环境,为其提供促使机器向造福人类方向成长的经验数据,致力于让AGI成为人类可信赖的助手和伙伴。当下技术界与哲学社科界的交叉研究越来越强调“价值对齐”“伦理先行”等议题,实际上反映了这种理念。

(二)

实用主义哲学作为训导主义的内核

大模型率先在美国诞生,美国企业愿意投入巨量资金向模型输入超大规模数据进行训练,这与北美本土强调经验的实用主义哲学不无关联。哲学上的实用主义是一种“方法”,它抛弃了理性主义的气质,要在经验主义占优势的基础上避开字面上的解决方式、先验的理由、固定的原则和封闭的体系。实用主义尤其强调“经验”的重要地位,在实用主义集大成者杜威看来,“人与下等动物不同,因为人保存着他的过去经验”。杜威所言“经验”既指向经验的对象,又指向经验的过程。有机体按照自己构造的繁简向着环境动作,结果环境所产生的变化又反映到有机体和自身的活动上去,这个动作和感受的密切关系就形成了所谓的经验。对生成式人工智能和AGI而言,经验就是其赖以升级迭代的训练数据。有学者即称ChatGPT为“经验主义算法和进化论迭代”的产物。

实用主义视域下的经验有两个基本特征:第一,经验中包含着思维,即能够识别所尝试的事和所发生的结果之间的关系。同样地,AGI的模型也蕴含着思维框架,处理数据时存在输入与输出之间的映射关系。第二,经验即实验,同时包含主动和被动的因素,主动意义上的经验就是尝试或者实验,被动意义上的经验就是承受结果。同样地,AGI正是通过获取大量的数据来学习和理解世界,并在这个过程中经由实验性反馈不断调整和改进模型,逐渐掌握复杂的任务能力。实用主义哲学与AGI具有高度的内在契合性,启发我们回到实用主义哲学中探寻治理思路。实际上,杜威不仅是一位哲学家,他还将实用主义引入教育领域并成为20世纪重要的教育思想家。AGI的训导主义治理范式,关键就在于杜威教育思想的引入。人类同机器间的交流正在从“代码—指令传达”的互动范式升格为“语言—意图领会”,这将使AGI从工具升格为助手。我们对助手进行训导,不对工具进行训导。

训导的重心不是代码或算法,而在于经验或数据。杜威指出:“沟通是经验分享,使经验成为彼此所共有……人与人的相处关系不论是何种形态,都因为可以提升经验的质量而具有意义……每一种社会安排都有教育的作用。”AGI的治理关键就在于通过法律等社会规范安排,使其在开发应用过程中尽可能吸纳符合人类价值观和道德准则的经验,成为具有自主善恶是非观念的人类助手。“教育乃是经验的再造或重组,这再造或重组的过程能增添经验的意义,也能使人更有能力引导随后经验的走向。”在治理AGI过程中,人类世界形成的共同准则可成为训导的经验素材,这些经验可以影响、塑造和调教AGI的行为决策倾向,使其有压倒性的概率直觉自主地作出造福人类的行为。社会主流价值观是长期进化、全局利益平衡的结果,AGI有能力发现和比较不同的价值标准。由此,不仅在完成任务的技能上,而且在服务人类的意愿上,AGI“都是基于自我的主体视角而非他者的上帝视角,是主动的经验建构而非被动的算法支配,属于自创生而非被创造”。

训导的媒介是环境。杜威认为:“既然硬生生地灌输行不通……方法应该就是:借环境的作用引发一定的反应。”教育是以环境为媒介促成的。在AGI治理中,开发环境、应用环境、产业环境是法律必须重点关注的要素。其一,开发环境影响AGI的设计制造,涉及机器如何生产和训练的问题。例如,自2008年美国筹建国家网络空间靶场(NCR)以来,研制模拟实战靶场已经成为行业重点探索的方向。其二,应用环境影响AGI的使用效果,涉及用户引导、社会效益与风险评估等问题。AGI时代是“提示词”时代,机器的学习与创造离不开用户的主导和参与,应通过法律规范妥善处理人机交互关系,促成良好的应用环境。其三,产业环境影响AGI的发展趋势,涉及市场竞争、政策态度、国际合作等问题。“在全球信息领域,创新链、产业链、价值链整合能力越来越成为决定成败的关键。”应支持AGI产业联盟的组建和发展,推动强强联合、协同攻关、有序竞争。法律作为一种规范性指引,需要对这些环境因素进行有效的监督和引导,促进AGI产业健康、规范、可持续发展。

训导的基础是人类价值观的底层嵌入。虽然杜威强调教育是以环境为媒介达成,但他也指出,“纯粹外在的指导是不可能的。环境顶多只能做到供给刺激来引发反应。反应却是从个人已经具备的意向发出来的”。AGI的初始信念和底层动机对于机器以何种立场和方式处理经验而言起着基础性作用。当然,语言文本形式的抽象价值信条并不能由机器直接理解和操作,应充分认识到“心性养成主要是凭借参与共同行为的经验而来”。当前技术界关注的“实时双向价值对齐”研究成果体现了这一理念,我国科学家采用通信学习方法研发具有心智理论的系统,使得机器在人类动态反馈下具有理解人类心理状态和合作需求的能力,进而形成以人类为中心、人机兼容的协作过程。

(三)

训导主义治理范式的基本法学命题

法律规范体系基于训导理念介入调整AGI的开发应用,是契合技术发展规律的有效路径。训导主义治理范式至少包括以下基本命题:

第一,在AGI的开发训练中,应培育其造福人类的终极动机。终极动机和底层信念涉及AGI对自身和世界的基本认知,从根本上影响其行为和决策。阿西莫夫曾提出著名的“机器人三定律”,但在计算机专家看来,“定义一套伦理教条并将其作为机器伦理的核心路线,对于灵活而有心智的AGI而言,恐怕是毫无希望的”。道德律令对于AGI而言不具有直接的可操作性,但如果机器缺乏终极动机和底层信念,很可能成为不可信任甚至危险有害的破坏者。道德需要对倾向性进行反思的能力,而倾向性是由进化和经历塑造而成的;要使抽象信条有效运作,应以强效价的形式不断强化与该信条相关联的感觉,在知觉学习中让神经网络的价值规则节点与其他节点形成紧密连接。但“造福人类”信条的具体表现众说纷纭,法律规范必须为AGI的价值对齐过程探寻一套公平的调整原则和程序机制。

第二,应当加强AGI训练数据的内容生态规范化建设。“只要抓住数据这个关键,人工智能法律规制可收到事半功倍的效果。”有学者发人深省地追问:“我们的数据法律与政策是否符合人工智能时代的特征,什么样的数据法律和政策才能满足ChatGPT的训练?”人类可以在社会生活中亲身经历事件、获得真实感受,并以此为成长的经验,但AGI迭代进化的经验在现阶段仍主要表现为文本、图像、音频、视频等数据,因此数据环境建设至关重要。以文本为例,数据环境既包括由人类产生的、向机器输入的数据,又包括人工智能输出的数据,因为当前生成式人工智能在互联网生成散布的数据也可能成为训练数据。这一方面要求处理好知识产权问题。《生成式人工智能服务管理暂行办法》第7条要求训练数据处理活动“涉及知识产权的,不得侵害他人依法享有的知识产权”,仍待解释的问题是,如果使用受版权保护的材料来训练大模型,法律应当如何定性?若涉及付费,应当支付单价还是另行协商?另一方面要求处理好社交机器人的法律规制问题。机器可能以自动化的方式生成言论并伪装成人的言论进入思想市场,降低数据内容质量。因此,应强化中文语料库的规范化与丰富度建设,避免误导性、歧视性乃至反社会、反人类的内容侵蚀AGI的认知框架。

第三,应当注重AGI应用场景分类分级监管与针对用户的规制。AGI在与环境的交互过程中获得数据反馈并迭代升级,同时环境要素也受影响而改变。应对AGI的应用场景进行精细化分类分级监管,在不同治理目标之间取得平衡。作为前提,对于医疗、就业、执法和公共管理等涉及公民人格尊严和基本权利的场景,应当对AGI的模型可信度和安全性提出更高要求,并配套相应的市场准入与技术审计制度。划定高风险场景的边界,可以为企业在技术迭代与应用场景创新等方面留足空间。此外,应当合理分配AGI开发制造者、服务提供者与用户之间的法律责任,并关注针对用户的规制。AGI的法律人格、责任能力、法律行为和刑法地位等问题已备受关注,而从生成式人工智能的人机协作模式还可以预见,用户将对AGI的行为决策产生引导性的基础影响。因此,除了技术可靠性以外,还须从用户使用环境角度采取措施防止AGI的滥用和误用。例如,用户应当对自己输入的提示词和指令负责,避免对生成式人工智能进行恶意诱导式提问、对AGI下达导致违法后果的指令。未来,在AGI执行任务时,用户可能处于类似监护人的地位,其在训导机器过程中负有一定责任,这有待在实践发展的基础上进一步深化研究。

结论

技术正在使人工智能获得逼近乃至超越人的能力。过去,我们认为语言是人类的天赋,语言的边界就是思想的边界。但大模型的成功意味着AGI可以在直觉涌现的意义上掌握语言。在充满不确定性的现代社会,法学须从决定论向嵌入盖然性思维演进。对于AGI而言,算法可释不是核心,模型可信才是重点。可解释是为了可理解,可理解是为了可信任。要信任AGI,不应诉诸控制,而应诉诸训导。实用主义哲学具有强大的解释力和指引力,可作为训导主义治理范式的思想内核。

原标题:《王沛然|从控制走向训导:通用人工智能的“直觉”与治理路径》

阅读原文

    特别声明
    本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问https://renzheng.thepaper.cn。