人工智能治理白皮书

类别:行业 机构:中国信息通信研究院 研究员:—— 日期:2020-09-29

人工智能治理展望

    人工智能的技术发展与产业应用是全球高度协作的成果,其未来的发展依赖世界各国优势互补、合作共享,而人工智能带来的社会风险也具有共生性、时代性、全球性的特点,没有一个国家能够独善其身,需要在全球范围内达成治理共识。因此,围绕全球人工智能治理的共同问题,需要立足未来,加强国际合作,构建全球人工智能治理的命运共同体。2019 年11 月,在联合国教科文组织(UNESCO)召开的第40 届大会期间,193 个会员国决定委托该组织就人工智能伦理问题制定第一份全球规范性文件,重点关注人工智能对公平正义和人类权利带来的挑战,强调以符合伦理的方式开发和使用人工智能,并支持推动可持续发展目标方面的国际合作。3(一)坚持包容、弹性的治理理念

    对于人工智能治理问题的纾解方式,应放在不同国家的人工智能发展路径下,以及不同的场景、业务下进行讨论,采取因事制宜,包容、弹性的治理理念。一方面,不同国家在解决人工智能治理相关问题(如隐私保护、算法透明、数据跨境流动等)时,由于具有不同的文化历史背景和产业发展基础,拥有不同的治理目的和价值,实行不同的法律和监管制度,因此所采取的治理方式可能存在一定的差异。

    以隐私保护为例,虽然各国都认同应该保护隐私,但不同国家对于隐私的理解,以及隐私的重要性排序有着明显差异,存在“隐私优先”(High-Privacy position)、“隐私平衡”(Balance-Privacy position)和“隐私限制”(Limited-Privacy position)不同的价值判断。因此,在现阶段开展的国际人工智能治理政策讨论和制定过程中,既需要突出全球各国的共同理想和追求,例如公平非歧视、最大化福祉等方面,也需要尊重和理解各国制度设计中存在的不同,才能在合作中寻求到良好的治理效果。另一方面,人工智能的发展具有不确定性,既有新的治理问题,也有老的监管问题,有些治理问题是传统法律调整后可以解决的,但一些新的监管问题,难以适用统一的规则或标准予以约束,应当从场景和领域出发进行具体的分析和讨论。根据人工智能使用场景、影响范围、可能的危害程度的不同,应当采用分类治理的思路。对涉及国家安全、人民群众生命财产安全、社会稳定重大敏感利益等“高风险”的人工智能应用场景,例如自动驾驶、智能医疗等领域,应当加强事前监管,按合理审慎的原则设置必要的准入限制和约束条件;对于与个人消费及服务相关的电子商务、物流、智能家居等“低风险”人工智能应用领域,采取基于结果的规制思路,侧重于事中事后的监管。

    (二)构建不同阶段的治理路径

    人工智能是人类社会的伟大发明,同时也存在巨大的社会风险,包括“技术—经济”决策导致的风险,或者是法律保护的科技文明本身带来的风险。法律与伦理作为两种重要的调整手段,可以通过不同方面、以不同方式、采用不同机制对社会生活的不同领域发挥各自的影响和作用。由于人工智能技术的特殊性,既需要以法律规则为代表的强制性要求,规制与国家安全、社会公共利益和个人权益密切相关的治理问题,也需要以伦理指南为代表的规范性要求,引导产业、企业进一步履行社会责任,增强产品和服务的安全性、可靠性和鲁棒性。

    在法律和伦理相互配合的基础上,可以通过区分人工智能各发展阶段,来明确不同的治理重点和目标。

    1. 近期应加快制定产品和服务标准,利用“数据治理”推动人工智能治理问题的解决

    这一阶段仍为“弱人工智能”,即人类主体能够以某种方式对人工智能产品、服务进行干预,避免其因为设计缺陷、使用不当,对社会和个人带来负面影响。也就是说,即使人工智能治理问题出现,某一方主体依然可以通过某种方式解释相关决策的不当,或通过经济手段弥补带来的过失。因此,现阶段的法律问题更多体现在传统法律适用,而不是创设新的人工智能法律制度,如《自动化决策法》《人工智能法》等。反而应突出技术治理发挥的作用,聚焦于影响人工智能决策结果的要素规制,最大程度地控制和减少人工智能带来的公共危险和对私人权利的侵犯。

    在治理重心方面,本阶段应重点关注人工智能应用数据对个人权益、国家安全和企业利益带来的影响,以及人工智能在重点行业领域的应用。一方面,应借助“数据治理”实现对于算法和应用的治理,加快个人信息保护、数据安全、数据跨境流动、数据共享交换等制度建设,平衡数据安全与数据价值之间的关系,充分挖掘数据潜在的价值,同时尽可能降低数据利用的成本和控制可能产生的风险。鉴于数据多元主体的现状,需要构建“多方参与、分层监管、合理担责”的治理体系,协调政府、企业和用户在数据使用中的关系。同时还应将宏观数据治理规则精确提现到具体的应用场景,充分发挥数据的作用,挖掘数据价值。另一方面,明确的行业规范是人工智能得以创新发展的前提。交通、医疗、金融、新闻等领域与个人生命健康、财产安全、社会稳定密切相关,可以借由行业协会或产业联盟对市场进行规范,以出台行业标准规范的方式提升产品和服务的稳定度与质量,同时辅以保险、承诺等手段弥补可能对个人或社会带来的损失。

    在治理方式上,企业负责产品的研发与运营,将是本阶段主要的治理主体,可以依托平台、技术等手段实现自我监督,政府监管部门并不需要过多干预产品和服务上线前的流程。针对人工智能的风险,企业需要有针对性的准备措施及预案,确保人工智能系统在其整个生命周期内安全、可靠、可控地运行。企业应当加强评估人工智能系统的安全性和潜在风险,不断提高系统的成熟度、稳健性和抗干扰能力,确保系统可被人类监督和及时接管,避免系统失控的负面影响。当产品和服务进入市场后,政府部门应结合监管需求,对数据市场竞争、个人信息保护、数据安全制度执行情况进行监管。

    2. 中远期应调整责任法律制度,实现法律与伦理相衔接这一阶段的特点是人工智能的自主性将进一步增强,可能脱离了设计者的目标和初衷,但人类仍可以通过某种方式对人工智能系统输出结果进行干预,但应遵循“非必要不干预”原则。在这一阶段下,人工干预与机器自主决策同时发挥作用,对于法律制度的影响更多将体现在责任机制的调整上,尤其是传统的产品责任能否适用于人工智能为代表的软件及系统服务。2020 年2 月19 日,欧盟委员会发布的《关于人工智能、物联网和机器人对安全和责任的影响的报告》提及了这一重要问题,进一步分析了人工智能、物联网和其他数字技术对欧盟相关安全和责任立法框架的影响,提出了包括人工干预辅助、强制算法透明度要求、供应链法律责任分配、联合产品安全立法等建议,为讨论下一阶段人工智能治理重点和方式提供了有益参考。

    在治理重心上,由于对于产业链上的不同主体实现公平有效的责任分配可能是很困难的,以伦理、治理指南等为代表的规制方式将是此阶段治理的中心。可以通过出台涉及国家、行业、企业的治理指南,出台标准指引等方式加强相关指南原则的落地实施,避免人工智能系统用于非法或违反伦理的目的。与此同时,各国应重新评估自发性的人工智能技术及应用对现行侵权责任、刑事责任体系带来的影响,明确人工智能研发、设计、制造、运营和服务等各环节主体的权利义务,研究在产品责任法律体系中纳入软件等新要素的可行性,同时在部分领域探索算法透明度的要求和程序。

    在治理方式上,政府应倡导相关企业和组织在法律框架下创建责任分担机制,合理分担人工智能可能带来的风险。企业应加强社会宣传教育,提升人工智能用户人群的自我权益保护意识,降低人工智能发展过程中可能存在的伦理风险。第三方行业协会及产业联盟将是政府、企业之外更加重要的治理主体。一方面,第三方机构可以更好体现产业发展的诉求,牵头撰写相关的治理原则及落地措施,避免强制性规则对产业发展带来不必要的阻碍。另一方面,在涉及政府部门对于算法等新技术要素监管方面,第三方机构能够发挥专业作用,组织开展相关的评估和测评工作,为监管提供有效的支持和帮助。此外,国际组织也需要提前考虑超人工智能时代对于人类权利和社会体系的影响,明确未来社会中的人类地位与基本权利,实现可持续发展的目标。

    (三)打造多元共治的治理机制

    人工智能治理的重要特征之一是治理主体的多元化、治理手段的多样化,需要打造多元主体参与、多措并举、协同共治的治理机制。

    这依赖于包括国际组织、政府、行业、企业、公众等多利益攸关方的参与合作,需要各方各司其职、各尽其能,以适当的角色、最佳的手段协同共治。可以说,人工智能这样的新技术正在催生社会治理体系和机制的变革,从传统的政府主导的权威式自上而下的单向管理走向多元主体协同共治的治理新范式,综合多个主体、多种手段的优势,保持开放灵活的状态,及时根据技术发展需要进行动态调整。

    从国际层面来看,政府间国际组织可以通过开展国际对话、协调与合作的方式,确保人工智能技术的发展和应用能够造福人类。国际合作并不意味着各国一定要遵循同一套人工智能规范、标准或者法规,也不意味着方方面面至始至终需要订立国际协定。4而是在充分尊重各国人工智能治理原则和实践的前提下,探索各国在人工智能规范及指导方针方面重叠共识的领域,从而确保人工智能对人类有益。可采取的合作方式包括:各国人工智能研究人员合作完成项目,确保人工智能安全可控;建立各国平等沟通的渠道,确保国际讨论能够汲取多样的国际视角;邀请各国利益相关者寻求共识、弥合分歧,参与制定治理规则等。

    从国家层面来看,政府应当肩负起对人工智能技术及服务监督管理的职责,为人工智能营造良好的发展环境。首先,人工智能作为一项集合多学科知识、高度复杂的技术,政府应当优化相关职能机构,选拔具有人工智能背景的专业人才参与到政府治理过程中,为人工智能治理体系的构建提供理论支撑,从而以务实审慎的态度推动人工智能的发展。其次,人工智能所带来的创新多样性和不可预测性,需要更具弹性、适应性和可操作性的监管方式。政府应当从基于具体规则的监管方式转变向基于原则的监管方式,避免过于详细、严格的事前监管,可以将监管细节留给人工智能指南、行为规范、认证规则等进行更加灵活的规定。同时,政府应加强与行业、企业的互动和交流,增强监管决策的针对性和有效性,避免在对人工智能主观预测的基础上做出决策。最后,政府应当建立健全配套体系,可以在先行试验基础上评估人工智能的社会影响,适时修订立法中与人工智能发展不相适应的部分,探索可能的算法监管路径,防范数据安全风险,构建结构合理且责任明晰的人工智能产品责任体系。

    从行业组织层面来看,行业组织可以通过制定技术标准、倡导行业自律等方式推动人工智能规范发展。人工智能治理需深入行业中去,从每个行业的实践中去探索和实践。一方面,行业组织可以推动构建动态的人工智能研发应用评估评价机制,围绕人工智能设计、产品和系统的复杂性、风险性、不确定性和可解释性等问题,制定测试方法和标准体系,推动人工智能安全认证。另一方面,行业组织可以制定行业自律公约,明确人工智能开发应用的基本原则和行动指南,为相关企业提供行业自律指导和建议,强化企业的社会责任意识,推动行业自律有效开展。

    从企业层面来看,企业可以通过建立内部自律机制、研发技术工具等方式,推动治理举措的落地实践。一方面,交通、医疗、金融等行业的相关领军企业在人工智能研发和应用过程中应当强化社会责任意识,推动行业自治,制定人工智能行业从业人员行为规范,加强从业人员自我约束,开展伦理审查,确保企业各环节严格遵守伦理规则。另一方面,企业加快推动人工智能安全可信技术研发,强化人工智能产品和系统的网络安全防护能力,全球企业的交流协作也至关重要,广泛的交流有助于解决人类共同面临的人工智能技术创新和探索。

    从公众层面来看,公众是治理过程中的重要参与者,可以适当介入到治理监督过程中,维护自身合法权益。一方面,公众可以通过人工智能产品的投诉举报等监督渠道,实现对人工智能技术的监督和意见反馈,为人工智能治理献计献策,使人工智能发展真正地“以人为本”。另一方面,公众可以参加人工智能公共伦理教育,减轻对于人工智能技术的恐慌,提高自身的伦理安全防范意识。公众还可以积极参与岗位被替代人员的数字劳动技能再培训活动,主动应对现有和未来的劳动力挑战问题。

    人工智能时代已经到来,各方主体要以伦理的力量、法律的理性引领和规制人工智能技术的发展,确保人工智能技术更加安全可控,更合乎伦理和法理,使人工智能成为促进社会有序发展、共享发展、公平发展、开放发展、和谐发展的生产力基础。