在人道行动中使用数字技术并非一个新现象。几十年来,人道参与方一直在利用数字技术来帮助和保护受冲突和危机影响的群体。
然而,当前计算能力的进步,加上海量数据(包括大数据)的可得性,已使在人道背景下更广泛地使用数字技术成为可能。
新冠疫情进一步加速了使用数字技术以帮助维持人道行动的趋势。
人工智能就是这样一种正在逐步改变人道领域的数字技术。尽管没有国际公认的定义,但人工智能被广泛理解为“将数据、算法和计算能力结合在一起的技术集合”。
这些技术包括:
由人类设计的、在给定复杂目标的情况下,通过借助数据采集感知环境,解释收集的结构化或非结构化数据,对知识进行推理或处理从这些数据得出的信息,并决定为实现给定目标而采取的最佳行动的,在物理或数字维度上发挥作用的软件(可能也包括硬件)系统。
这个定义包括两方面主要内容:知识型系统和机器学习系统。知识型系统见于计算机程序,其使用现有知识库来解决通常依赖人类专门技能的问题。
机器学习是“对算法和系统的系统性研究,以通过经验提升其知识或性能”。
通过机器学习,机器可以被训练以理解数据。例如,人工智能系统可以被训练来执行自然语言处理等任务,利用计算机的能力来解析和解释书面和口语文字。
深度学习是机器学习的一个子概念,特别用于执行图像、视频、语音和音频处理等任务。
本文的分析对这两类系统都适用。
人工智能系统通常利用大量的数据,包括由人道参与方直接收集的以及其他来源的信息,如大数据等,来学习、发现模式(patterns),对这些模式进行推断,并预测未来的行为。
大数据,或曰“大量高速、复杂和可变的数据”,
在人道背景下也越来越重要。大数据的一个重要组成部分源于社交媒体和在线平台上用户生成的内容,如文本、图像、音频和视频。
社交媒体平台往往为用户在冲突或危机期间提供特定的参与和沟通渠道。
例如,脸书已启用安全检查功能,用户可以在自然灾害或其他冲突或紧急情况发生时报告自己的状态。
人工智能系统可以在这些不同类型数据的基础上,描绘冲突和危机的演变。
在这方面,人工智能技术具有支持人道参与方的潜力,因其实现冲突或危机中人道行动方式从反应性到预测性的范式转变。
例如,2019年,人工智能支持下的灾害测绘帮助人道工作者在莫桑比克迅速开展了紧急应对行动。
数据驱动的人工智能系统还可以建立在预测分析技术的基础上,以寻求识别数据中的模式和关系,从而预测一线的进展情况。
例如,由联合国难民署发起的“杰森项目”(Project Jetson)就利用预测分析技术来预判人们被迫流离失所的情况。
然而,学者和社会活动家越来越多地表达了对在人道背景下使用人工智能所带来的风险的担忧。这些担忧包括从“监控人道主义”(surveillance humanitarianism)
“技术殖民主义”(techno-colonialism)潜在上升有关的问题。
这些都是重大的风险,因为它们可能会使已经受到冲突或危机影响的群体面临额外的伤害和人权侵犯。
在此背景下,本文探讨了在人道行动中使用人工智能的机遇和风险。本文运用法律、政策导向和技术方面的学术和专业文献,以评估是否以及在什么情况下可以安全地使用人工智能来支持人道参与方在一线开展的工作。尽管很多学术和专业文献指出了对于在武装冲突中将人工智能用于军事行动的日益增长的兴趣,但这一领域仍不在本文的讨论范围之内。
这种选择的理由是,人工智能在军事行动之外的运用越来越多,以支持冲突、灾难和危机局势中的人道援助。
本文的分析分三步进行。首先,本文研究人工智能为支持人道参与方在一线工作所带来的机遇。其次,对这些技术所带来的现有风险进行评估。再次,基于“不伤害”的人道要求,本文提出了在人道背景下使用人工智能的主要建议。最后,本文就是否有可能安全地利用人工智能的益处,同时尽量减少其对人道行动构成的风险得出结论。
人工智能支持范式转变:从反应性到预测性的人道行动方式
如前所述,人工智能具有支持人道参与方的潜力,因其使人道行动方式实现了从反应性到预测性的范式转变。
这一转变意味着一旦可能预见到危机,就要采取行动,积极主动地减轻对弱势群体的不利影响。
在这方面,人工智能技术可以在三个主要的方面进一步扩充执行人道使命的“工具箱”:准备、应对和恢复。
准备是一个持续不断的过程,其目的是了解现有的风险并提出应对这些风险的行动建议,从而支持对危机和紧急情况作出更有效的人道应对。
应对的重点是向有需要的人提供援助,
而恢复则是指在提供即时人道救济之外进一步的方案。
因此,恢复是一个重要因素,因为当代人道危机往往日益复杂且旷日持久,从而超越了人道援助与发展合作之间的界限。
人工智能技术可以支持人道准备工作,因为人工智能系统可以用来分析大量数据,从而提供关于受影响群体潜在风险的基本判断。这些判断可以在危机或人道灾难发生之前,让人道工作者了解这些风险。
在这方面,基于数据驱动的机器学习和统计模型的预测分析技术可用于计算和预测即将发生的自然灾害、流离失所和难民流动、饥荒和全球卫生突发事件。
迄今为止,这种系统在早期预警和短期预测方面表现最好。
此外,它们的潜力是巨大的,因为执行预测分析的人工智能系统可以为准备工作提供帮助。
例如,红十字会与红新月会国际联合会通过使用基于预测的筹资方案,能够迅速分配人道资源,以便及早采取行动。
该方案使用各种数据来源,如气象数据和市场分析,以确定应在何时何地分配人道资源。
另一个例子是联合国难民署的“杰森项目”,该项目利用预测分析技术预测由于索马里暴力和冲突升级所导致的被迫流离失所的情况。
“杰森项目”基于各种数据源,包括气候数据(如河流水位和降雨模式)、市场价格、汇款数据和该机构收集的其他数据,以训练其机器学习算法。
在另一个地区,世界粮食计划署开发了一个模型,利用预测分析技术来预测冲突地区的粮食不安全状况,因为在这些地区,传统的数据收集工作面临挑战。
该模型提供了一张地图,描绘了世界各地人口中营养不良的发生率。
但是,使用人工智能系统,特别是那些使用预测分析模型的系统,是否会让人道行动做好更充分的准备?这个问题需要细致入微的回答。一方面,在某些情况下,人工智能系统可能有益于人道行动,因为它们可能有助于更好地了解局势和更好地预测应对行动。例如,更好的准备工作有助于及早分配资源,这对一线行动的有效性来说可能是至关重要的。另一方面,对历史数据的分析不应是为未来行动提供信息和框架的唯一途径。基于过去数据分析的模型可能没有考虑到诸如人类行为和环境变化等变量,因此可能提供不完整或错误的预测。例如,在新冠疫情期间,大多数人工智能模型未能为医疗决策提供高效支持,以应对疫情暴发。
这在一定程度上是由于数据质量低(与新冠病毒无关的历史数据)以及存在偏见的风险高。
此外,侧重于分析过去数据的人工智能系统可能继续重现错误和不准确性,并使历史上的不平等、偏见和不公平现象长期存在。
因此,认真考虑即将使用人工智能系统的人道环境背景的特殊性,可能有助于避免不必要诉诸技术的情况,并防止“技术解决主义”的加剧。
“技术解决主义”,或相信技术可以解决大多数社会问题的信念,已被证明在人道领域导致了喜忧参半的结果。例如,研究表明,侧重于大数据分析以预测西非的埃博拉疫情暴发并不总是像投资适当的公共卫生和社会基础设施那样有效。
与受影响社区密切合作——例如,通过参与式设计
——可有助于根据社区的关键需求开展针对性的预测性干预措施,从而在冲突或危机发生之前更好地为人道行动提供参考并加以准备。如下节所述,这也可以适用于在人道应对中使用的人工智能系统。
人工智能系统可用于支持冲突和危机期间的人道应对。例如,在深度学习、自然语言处理和图像处理方面的最新进展,可以使在危机和冲突局势下对社交媒体信息的分类进行得更快、更精确。这可协助人道参与方对紧急情况作出应对。
特别是,这些先进的人工智能技术可以帮助确定哪些领域将从向有需要者提供高效援助的工作中受益。
例如,“紧急情况观测”(Emergency Situation Awareness)平台能够监测澳大利亚和新西兰的推特上的内容,以向用户提供有关地震、森林火灾和洪水等自然灾害的影响和范围的信息。
类似地,“应灾人工智能”(Artificial Intelligence for Disaster Response)是一个利用人工智能对社交媒体内容进行过滤和分类的开放平台,能够提供对灾难演变的判断。
诸如此类的平台可以对如社交媒体上发布的显示基础设施受损情况和灾民伤害程度的相关图片等的内容进行分流和分类,这对灾害应对和管理很有帮助。
另一个例子是快速制图服务(Rapid Mapping Service),这是一个由联合国训练研究所(United Nations Institute for Training and Research)、联合国业务卫星应用方案(UN Operational Satellite Applications Programme)和联合国全球脉动(UN Global Pulse)联合开发的项目。
该项目将人工智能应用于卫星图像,以便迅速绘制洪灾地区的地图,并评估冲突或自然灾害(如地震和山体滑坡)造成的损害,从而为一线的人道应对提供信息。
这些例子是否就表明,人工智能可以促成在人道背景下开展更有效的应对行动呢?根据其设计和使用情况,人工智能系统或许可以支持冲突和危机中的人道应对行动。然而,这在很大程度上取决于具体环境。
利用人工智能技术绘制受灾地区的地图,似乎产生了令人满意的结果。例如,“人道主义开放街道地图”(Humanitarian OpenStreetMap)项目依靠的是能够绘制受灾地区地图的人工智能系统。
这个项目利用众包的社交媒体数据和卫星及无人机图像,提供关于哪些地区受灾害情况影响,且需要需要优先应对其灾情的可靠信息。然而,在武装冲突局势下的人道应对中,这样的项目可能不会产生具有相关性的结果。例如,虚假的信息宣传可能会影响武装冲突期间可靠数据的获得。
更为普遍的是,在武装冲突局势下可能很难获得高质量数据的问题,或许还会影响该背景下人工智能系统的设计和开发,从而影响其制图工具的适用性。
因此,人工智能技术尽管可能为支持有效的人道救济应对行动提供机遇,但不应将其理解为人道行动领域内任何情况下的现成的“一刀切”解决方案。
人工智能或可有效用于恢复工作,因为当代危机的复杂性往往导致旷日持久的冲突局势。
信息技术可以成为在此类背景下促进人道工作者和受影响社群之间互动协作的一项额外有利条件。
人工智能技术可以支持长期局势中的人道行动。例如,红十字国际委员会开发的“照片寻人”(Trace the Face)工具旨在帮助难民和移民寻找失踪的家庭成员。
该工具使用面部识别技术自动搜索和匹配,从而简化了整个过程。另一个例子是人工智能驱动的聊天机器人,它可以为受影响的社区成员提供一个接触人道组织并获得相关信息的途径。这些聊天机器人目前正在向移民和难民提供咨询服务。
同样,人道组织也可以使用短信聊天机器人与受影响的群体联系。
然而,至关重要的问题是,是否有可能从这些例子中归纳出人工智能有助于更好地采取恢复行动的结论。正如前文在分析准备和应对行动时所指出的那样,运用人工智能的益处在很大程度上取决于使用这些技术的具体环境。对于恢复行动而言同样如此。社区参与和以人为本的方式可能有助于确定在哪些领域,技术可以有效地支持一线的恢复工作,或者反过来,确定那些人工智能系统不会为恢复工作增加价值的领域。这应为在恢复方案中使用人工智能系统的决策提供信息。此外,人工智能技术也可能给受影响的群体带来相当大的风险,如加剧不相称的监视或由于算法偏见而导致不平等的现象长期存在。这些风险将在下一节中进行分析。
以牺牲人道为代价的人工智能:对受影响群体的风险
尽管人工智能可能会在人道领域带来潜在的宝贵成果,但使用这些系统并非没有风险。在人道行动的背景下,有三个主要领域是与之特别相关的:数据质量、算法偏见以及对数据隐私的尊重和保护。
对用于训练人工智能算法的数据质量的担忧并不只限于人道领域,但这个问题可能会对人道行动产生重大影响。一般来说,糟糕的数据质量会导致同样糟糕的结果。
例如,在预测性警务和风险评估算法的背景下,情况就是如此。这些算法通常利用历史上的犯罪数据,如每个邮政编码对应的警察逮捕率和以往的犯罪记录,来预测未来的犯罪发生率和累犯风险。
如果用于训练这些算法的数据不完整或包含错误,那么算法的结果(即犯罪预测和累犯风险评分)可能同样质量不佳。研究确实发现,历史犯罪数据集可能是不完整的,而且可能包含错误,因为在美国等一些司法管辖区,违警记录中经常存在种族偏见。
如果这些算法被用来支持司法决策,就可能会导致基于种族的不公平和歧视。
在人道背景下,数据质量差会导致不良后果,从而可能直接影响到因冲突或危机而本已处于脆弱境况的群体。用不准确、不完整或存在偏见的数据训练出来的人工智能系统有可能会使这些错误长期存在并逐级向前发展。例如,最近的一项研究发现,十个最常用的计算机视觉、自然语言和音频数据集包含重大的标签错误(即对图像、文本或音频的错误识别)。
由于这些数据集经常被用于训练人工智能算法,因而错误将持续存在于生成的人工智能系统中。
遗憾的是,由于人道行动受到多方面的限制,故其可能难以获得高质量的数据。
例如,由于偏远地区的互联网连通不足,人道工作者在收集数据时可能会遇到问题。包含不同人道参与方所收集信息的不完整和重叠的数据集也可能是一个问题,例如,如果数据集里保留过时的信息,则不准确性可能会继续存在。
当使用大数据和众包数据时,也会出现错误和不准确的情况。
因此,使用这些数据集的团队尽可能地控制错误,这一点至关重要。然而,数据集和人工智能系统也可能受到算法偏见的影响,这个话题与数据质量有关,但具有更大的社会影响,因此将在下一节中讨论。
与数据质量问题相关的是人工智能系统设计和开发中存在的偏见问题。此处,偏见不仅被认为是一种技术或统计误差,而是还被认为是反映在人工智能系统中的、可能导致不公平的结果和歧视的人类观点、偏见和刻板印象。
人工智能系统确实可以反映其人类设计者和开发者的偏见。
一旦使用了这样的系统,反过来又可能导致非法歧视。
国际人权法禁止基于种族、肤色、性、性别、性取向、语言、宗教、政治或其他见解、民族或社会出身、财产、出生或其他身份的直接和间接形式的歧视。
当一个人基于其中一个或多个理由受到不利待遇时,就受到了直接歧视。间接歧视在即使措施表面上看似中立的情况下也会存在,因为相关措施实际上可能导致对个人的基于一个或多个受保护理由的不利待遇。
人工智能系统中的偏见可能加剧不平等,使直接和间接形式的歧视持续存在,特别是基于性别和种族的歧视。
例如,针对少数群体的结构性和历史性偏见由于其普遍性,可能反映在人工智能系统中。
偏见还通常来自用于训练人工智能算法的数据集中不同群体的代表性差距。
例如,研究人员已经证明,市场上可以获得的面部识别算法在识别肤色较深的女性方面不太准确,部分原因是训练数据集缺乏多样性。
同样,研究人员表明,当残疾人使用轮椅等辅助技术时,人工智能算法更难识别这些个体。
在这方面,有偏见的人工智能系统可能不会被检测到,并继续支持可能导致歧视性结果的决定。
这在一定程度上是由于某些机器学习和深度学习算法的不透明性,即所谓的“黑箱问题”。
此外,基于深度学习技术的人工智能系统的复杂性导致其设计者和开发者往往无法理解和充分解释机器是如何做出某些决定的。这反过来可能会使识别算法中的偏见变得更具挑战性。
在人道背景下,使用有偏见的人工智能系统的后果可能很严重。例如,在面部识别技术是身份识别和身份核验的唯一手段的情况下,这种系统的不准确性可能导致对肤色较深的个体进行错误识别。如果以这些方式进行身份识别和身份核验是获得人道援助的先决条件,那么错误识别可能导致个体无法得到援助。如果用于分类的系统错误地显示某个人已经接受了有关的援助(如紧急食品供应或医疗服务),这种情况就可能发生,从而将对受影响的个体产生严重后果。如果知道人工智能系统的风险而不加以解决,就可能导致非法的种族歧视。这也可能违背人道的原则,根据这一原则,须努力应对人们的疾苦,不论这种痛苦发生在什么地方。
因此,必须制定保障措施,以确保用于支持人道工作的人工智能系统不会变成排斥需要援助的个体或群体的工具。例如,如果网上关于战争中儿童的照片倾向于显示大量有色人种儿童持有武器(即作为儿童兵),而将具有白人种族背景的儿童描述为受害者,那么根据这类数据集训练的人工智能算法可能会继续延续这种区分。这反过来又可能助长人道行动中对有色人种儿童的现有偏见,加剧武装冲突已经造成的痛苦。因此,对这种类型的偏见的认识和控制应贯穿于将在人道背景下使用的人工智能系统的设计和开发中。另一个例子涉及面部识别技术——只要这些技术在识别肤色较深的人方面仍然不准确,它们就不应被用于协助在决定人道援助提供方面至关重要的决策。
正如国际上所同意的那样,“人们在互联网下所享有的权利在互联网上同样应该得到保护”。
这一点应该适用于人工智能系统。
国际人权法律文件承认隐私权。
此外,具体的法律制度,如《通用数据保护条例》(以下简称《条例》),建立了保护个人数据的基本标准。虽然该《条例》是一项欧盟法律制度,并不约束全球所有人道参与方,但它在欧盟以外仍具有重要意义,因为它在全球范围内激发了类似规范的产生。
《人道行动中的数据保护手册》(Handbook on Data Protection in Humanitarian Action)也考虑到了《条例》中规定的原则,
该手册被认为是为人道背景下的个人数据处理设定最低标准的主要资源。这些原则包括个人数据处理中的合法性、公平性和透明度(《条例》第5条)。
个人数据处理有合法依据是一项法律要求(《条例》第6条)。在人道背景下,同意往往被用作个人数据处理的合法依据。根据法律标准,同意必须是充分知情的、具体的、明确的和自由的(《条例》第4条第11款)。但是,在人道背景下,由于人道组织和人道援助受益人之间所固有的权力不平衡性,同意可能不是完全明确的和自由的。拒绝同意收集和处理个人数据,实际上可能会导致被拒绝给予人道援助。
然而,由于语言上的障碍以及行政和制度上的复杂性,人道参与方可能难以确保人道援助的受益人实际上理解了同意的含义。
鉴于人工智能系统经常使用数据来进一步完善和开发其他人工智能解决方案,充分知情、具体、明确和自由的同意也可能很难实现。虽然个人可能同意将其个人信息用于与人道行动相关的特定目的,但他们可能不知道或不同意这些数据日后被用于开发其他人工智能系统。
对“监控人道主义”的批评进一步加剧了这种担忧,因为人道工作者收集越来越多的数据和使用越来越多的技术可能无意中增加需要援助者的脆弱性。
由于科技公司和人道组织之间的合作越来越普遍,这些做法需要受到更多的审查。
这些公司在这一领域发挥着核心作用,因为它们设计和开发了人道工作者之后将在一线使用的人工智能系统。可以说,科技公司的利益和世界观往往主要反映在人工智能系统的设计和开发上,从而忽视了用户的需求和体验。
这尤其关系到在人道背景下使用人工智能系统的问题,因为受冲突或危机影响的群体会面临很大风险。因此,有必要为在人道背景下应用人工智能制定一套明确的指导方针,特别是将“不伤害”的人道要求置于核心位置,这将在下一节中讨论。
为人道行动服务的人工智能:“不伤害”的人道要求
如前所述,虽然人工智能可能为促进人道行动带来新的机会,但它在人道背景下使用时也会带来重大风险。本节阐述了“不伤害”的人道要求,并就如何使人工智能支持人道行动而不损害受冲突和危机影响的群体提出了建议。
人工智能时代的“不伤害”
面对不断发展的人工智能技术,至关重要的是,人道工作者必须将“不伤害”作为人道行动中所有人工智能系统使用时的重中之重。不伤害原则长期以来被认为是生物伦理学的核心原则之一。
它最初是由玛丽·安德森(Mary Anderson)在人道领域提出的;
随后,各人道组织进一步发展了其应用。
今天,这一原则在技术伦理学和人工智能领域也被普遍引用。
“不伤害”原则要求人道参与方考虑其作为或不作为可能在无意中给他们计划提供服务的群体造成伤害或带来新风险的潜在方式。
例如,人道“创新”可能会给本已处于脆弱境况的群体带来不必要的风险:新引进的系统出现技术故障导致援助派发的延迟、中断或取消,就是其中一种风险。
因此,避免或防止伤害和减轻风险是这一人道要求的核心。
风险分析和影响评估可用于落实“不伤害”原则。风险分析有助于查明人道行动所产生的潜在风险,并为减轻风险提供明确的途径。影响评估可以提供确定具体人道方案负面影响的手段,以及避免或预防伤害的最佳方式。当人道组织预想将人工智能技术用于人道行动时,这些程序可能会帮助它们。有时,这些程序甚至可能得出这样的结论:在特定的情况下不应使用任何技术,因为这些技术对其受益人造成的伤害大于好处。在某些情况下,一项技术的存在并不意味着也必须使用它。
人工智能技术存在一些众所周知的风险,在将人工智能系统用于人道行动之前,人道参与方应该解决这些风险。例如,使用数据驱动的人工智能系统的人道组织应识别可能导致其工作人员及其受益人敏感信息泄露的数据安全漏洞风险。他们还应评估使用人工智能系统是否会对受影响群体产生负面影响——例如,在描绘冲突演变的情况时暴露他们的位置,从而在无意中使他们受到迫害。总之,人工智能系统的使用绝不应给受影响群体带来额外的伤害或风险。
因此,人道参与方不得过度依赖人工智能技术,特别是那些在某些情况下仍然不够准确的技术,如面部识别技术。
在采用人工智能系统之前,人道参与方应评估是否有必要在一线使用这些技术、这些技术是否增加了有关人道方案的价值以及这是否能够以保护弱势群体免受更多伤害的方式实现。
避免和减轻数据隐私损害的机制
在数字时代,避免或减轻伤害也需要保护数据隐私。数据隐私应该在人工智能从设计、开发再到实施的整个生命周期中都得到保护和尊重。
在这方面,“隐私设计”(privacy by design)原则提供了一个很好的起点。
它们基于以用户为中心的方法,提供了一套主动的(而非反应性的)和预防性的(而非补救性的)原则。这些都是构建更好的数据隐私保护的宝贵工具。
对于受欧盟法律管辖的人道组织,《条例》第25条对在设计和默认情况下的数据保护提出了更为全面的要求。
该条款要求实施适当的技术和组织措施,以将(《条例》第5条中列举的)核心数据保护原则纳入个人数据处理系统的设计和开发中。如前所述,这些核心原则是合法性、公平性和透明,以及目的限制(purpose limitation)、数据最小化(data minimization)、准确性(accuracy)、存储限制(storage limitation)、完整性(integrity)和保密性(confidentiality)以及可归责性(accountability)。这也符合红十字国际委员会提出的基本数据保护原则。
因此,设计人工智能解决方案或从私营部门供应商处采购人工智能系统的人道组织应确保这些人工智能系统是在设计和默认情况下实施数据保护的。例如,它们应确保在处理个人信息时获得同意,或依靠如数据主体或另一人的重大利益、公共利益、合法利益、合同的履行或法律义务遵守等其他法律依据进行处理。
同样,数据收集应保持在所需的最低限度,存储应是网络安全的(cyber-secure),个人数据一旦不再需要,就应将其销毁,而且个人信息应仅用于最初收集时的目的。
此外,开展数据保护影响评估也可能有助于人道参与方了解在人道方案中使用人工智能技术的潜在负面影响。影响评估是一种识别个人数据隐私保护风险以及减轻这些风险的方法的程序。
如果损害个人权利和自由的风险很高,受《条例》管辖的人道组织有义务在处理数据之前进行一次影响评估(《条例》第35条第1款)。即使该组织在法律上没有义务开展评估,这一程序仍可增加人道项目的价值。评估可以有助于提供一个清晰的路线图,以确定有关数据驱动人工智能系统的风险、解决方案和建议。
例如,影响评估可以用来确定被用于训练人工智能算法的匿名数据可能被重新识别从而重新成为个人信息并引起数据保护法律制度适用的情况。重新识别(re-identification)发生于最初匿名化的数据被去匿名化的时候。当不同来源的信息被用来匹配以识别原本匿名的数据集中的个体时,这种情况就会发生。例如,一项研究发现,有可能通过信息匹配从一份包含50万名网飞订阅用户的匿名电影评分列表中识别出个人,并同时了解他们明显的政治倾向和其他潜在敏感信息。
总之,研究表明,在某些情况下,即使数据集最初是匿名的,个体仍有超过99%的机会被重新识别。
在人道背景下,匿名化可能不足以防止对弱势群体身份的重新识别,并且如果不能以网络安全的方式保留信息,这些群体就有可能遭受迫害和伤害。影响评估则可有助于确定其他解决方案和组织措施以防止重新识别的发生。
透明度、可归责性和补救措施
“不伤害”的原则还意味着,人道参与方应考虑建立一个总体框架,以确保人道行动中人工智能使用所亟需的透明度和可归责性。
这里使用“透明度”一词是为了表明人道参与方应该就他们是否以及如何在人道行动中使用人工智能系统进行沟通。他们应该披露有关他们使用的系统的信息,即使在这些系统的工作方式不能得到完全解释的情况下。从这个意义上讲,透明度是一个比人工智能系统的可解释性(explainability)的狭义概念更广泛的概念。
例如,考虑这样一种情况:人工智能系统被用来对难民进行生物特征身份核验(biometric identity verification),作为在难民营派发援助的条件。
在这种情况下,使用这种人工智能系统的人道参与方应当告知难民他们正在这样做。同样重要的是,他们应向这些难民披露他们是如何使用人工智能系统的,以及其所带来的影响。例如,他们应该披露将收集什么类型的信息、出于什么样的目的、数据将储存多长时间以及谁将访问这些信息。同样,他们应就将采取哪些保障措施来避免网络安全漏洞进行沟通。
可归责性被理解为要求某人对自己的作为或不作为负责的行为。
这是一种以评估一个人或一个实体的作为或不作为是否必要或合理,以及该人或该实体是否可能对其作为或不作为的后果承担法律责任或义务为目的的过程。
可归责性也是一种涉及解释和合理化其行为的义务的机制。
在人道背景下,可归责性应体现在人道参与方及其受益人之间的关系中——特别是当人工智能系统被用于支持人道行动时,因为这些技术可能给他们的人权带来风险。例如,人道参与方应告知其受益人任何可能暴露受益人个人信息的数据安全漏洞,并说明为补救这种情况所采取的措施。红十字国际委员会最近对一个数据泄露事件作出的迅速反应,树立了这一领域良好实践的榜样。该机构以直接和全面的努力解释其所采取的行动,并向世界各地的受影响社区通报这一网络安全事件的后果。
最后,如果决策对个体的权利产生了不利影响,那么个体应该能够对自动化决策或人工智能系统支持下的人类决策提出质疑。
因此,司法或非司法的申诉机制都可以提供获得补救的法律途径,特别是在人道援助的受益人受到无意伤害的情况下。行政申诉或其他争议解决方案等非司法机制可能有助于那些或无力支付司法诉讼费用的个体。
数据驱动的人工智能技术正在逐步改变人道领域。它们有潜力支持人道参与方,因其实现了从反应性到预测性的人道行动方式的范式转变。因此,人工智能可能有助于人道行动的三个主要方面:准备、应对和恢复。
人工智能技术可以支持人道准备工作。它们可以通过快速分析大量的多维数据,识别数据中的模式,进行推断,并在危机或人道灾难发生之前提供关于潜在风险的重要判断。人工智能技术还可以为支持有效的人道救济应对行动和促进恢复方案提供机会,特别是在旷日持久的冲突局势中。
人道组织目前正在使用和测试若干基于人工智能的举措。其中包括使用用于预测人口流动、绘制受人道危机影响地区的地图和查明失踪人员的人工智能系统,从而为一线的人道行动提供信息和便利。然而,使用这些系统并非没有风险。本文分析了三大关切:用于训练人工智能算法的数据质量、贯穿于人工智能系统设计和开发中的算法偏见以及对数据隐私的尊重和保护。
虽然这些问题不是人道领域所独有的,但它们可能会严重影响因冲突或危机而本已处于脆弱境况的群体。因此,如果不希望以牺牲人道为代价使用人工智能系统,那么至关重要的是,人道参与方在实施这些技术时必须符合“不伤害”的人道要求。风险分析和影响评估可能有助于落实“不伤害”的要求。这两个程序对于减少风险和最大限度地减少或避免对受影响群体的负面影响可能都是有价值的。
在诸如目前蹂躏乌克兰、导致欧洲400多万人流离失所的武装冲突局势中,“不伤害”的要求尤为重要。
在这种情况下,人工智能技术可以在战场内外以有益和有害的方式被使用。例如,人工智能可用以支持分析社交媒体数据和评估信息的准确性,
但它也可用以支持使用深度伪造技术制作虚假视频,从而助长虚假信息运动。
因为人工智能系统本身并不是中立的,所以由于其使用方式,其可能会给本已处于脆弱境况的群体带来新的、不必要的风险。例如,人工智能驱动的聊天机器人可以帮助简化签证申请程序,以应对逃离冲突的大规模人员流动,
但如果这些系统在没有适当监督的情况下使用,它们可能会使个体的个人信息面临不必要的网络安全风险和潜在的数据泄露。因此,为了让人工智能服务于人道行动,在充分利用其益处的同时抵消其风险,人道组织应该意识到,没有现成的、适用于所有情况的“一刀切”的人工智能解决方案。其还应当评估在某些情况下是否应当使用人工智能系统,因为这种系统对其受益人造成的伤害可能大于其益处。在某些情况下,一项技术的存在并不意味着也必须使用它。
最后,在使用这些技术时,人道组织必须建立适当的框架,以促进在人道背景下使用人工智能的可归责性和透明度。总之,这种机制将有助于实现在人道行动中负责任地利用人工智能潜力的目标。
Harnessing the potential of artificial intelligence for humanitarian action: Opportunities and risks
author:
Ana Beduschi
Hacking international organizations: The role of privileges, immunities, good faith and the principle of State sovereignty
author:
Russell Buchan, Nicholas Tsagourias
Punishment and pardon: The use of international humanitarian law by the Special Jurisdiction for Peace in Colombia
author:
María Camila Correa Flórez, Andrés Felipe Martín Parada, Juan Francisco Soto Hoyos
Reparation for victims of serious violations of international humanitarian law: New developments
author:
Elizabeth Salmón, Juan-Pablo Pérez-León-Acevedo
The impacts of human rights law on the regulation of armed conflict: A coherency-based approach to dealing with both the “interpretation” and “application” processes
author:
Raphaël van Steenberghe
Supporting value sensitivity in the humanitarian use of drones through an ethics assessment framework
author:
Ning Wang, Markus Christen, Matthew Hunt, Nikola Biller-Andorno
A new understanding of disability in international humanitarian law: Reinterpretation of Article 30 of Geneva Convention III
author:
Priscilla Denisse Coria Palomino
“Safe zones”: A protective alternative to flight or a tool of refugee containment? Clarifying the international legal framework governing access to refugee protection against the backdrop of “safe zones” in conflict-affected contexts
author:
Harriet Macey