本周,由欧洲委员会任命的52名专家组发布了广泛的人工智能伦理指南(AI),旨在促进“值得信赖的AI”的发展(完全披露:我是52位专家之一)。这是一份非常雄心勃勃的文件。这是第一次,道德原则不会简单地列出,而是将在大规模的试点活动中进行测试。该试点得到了欧盟委员会的全力支持,该委员会批准了该指南,并呼吁私营部门开始使用该指南,希望将其作为全球标准。
在寻求人工智能的道德规范时,欧洲并不孤单。在过去几年中,加拿大和日本等国家发布了包含道德原则的人工智能战略,经合组织正在该领域采纳建议。诸如人工智能伙伴关系等私人倡议已经制定了道德原则,该伙伴关系由80多家公司和民间社会组织组成。AI开发商一致认为阿西洛马原则和电气电子工程师学会(IEEE)上的努力道德框架。大多数高科技巨头已经有自己的原则,民间社会也在处理文件,包括多伦多宣言的重点是人权。由牛津大学教授卢西亚诺·弗洛里迪(Luciano Floridi)领导的一项研究发现,尽管术语各不相同,但许多现有声明之间存在重它们也有一个与众不同的特征:它们没有约束力,也不是强制执行的。
欧盟的目标是为值得信赖的人工智能制定全球标准
盖蒂
欧洲指南也不能直接执行,但在许多方面比以前的尝试更进一步。他们专注于四个道德原则(尊重人的自主权,防止伤害,公平和可解释性)并超越,指出可信赖的AI也意味着遵守欧盟法律和基本权利(包括隐私),以及高水平的社会技术的稳健性。任何希望设计,培训和营销可信赖AI系统的人都将被要求仔细考虑系统将产生的风险,并对减轻这些风险所采取的措施负责。准则提供了一个详细的框架,可用作此类评估的指导。
对于那些寻求强有力的陈述的人来说,准则可能不是很好。你不会发现弗兰肯斯坦,不怕奇点,没有响亮的条款,如“人工智能应该永远可以解释”,“人工智能永远不应该干扰人类”,“应该总是有一个人在循环中”,或“人工智能”永远不要歧视“。这些陈述具有直观的吸引力,但与人工智能部署的现实相去甚远,并且在转换为政策框架时可能会证明不成比例。
用户不需要详细解释和理解启用AI的冰箱如何工作,甚至不需要自动驾驶汽车如何做出正常决策。他们需要相信将其带入市场的流程,并且能够依赖可能在出现问题时进行干预的专家。但是,用户应该有权知道为什么他们被拒绝访问政府档案,或者为什么有人会将其作为补贴或肾脏的接受者。同样地,在某些情况下,循环中的人将毫无意义(想想人类坐在自动驾驶汽车的方向盘上);然而,可能需要人类“在循环中”或“人类指挥”。虽然歧视往往是不可避免的,因为我们的社会已经存在偏见,过度,不合理的非法歧视应该被取缔,并应对受损的个人给予迅速补救。重要的是,该指南还包括“重大关注领域”的例子,这些领域最有可能达不到值得信赖的AI的要求:识别和跟踪具有AI的个人,部署隐蔽的AI系统,开发违反AI的公民得分违规基本权利,并使用人工智能开发致命自治武器(LAWs)。
可信赖AI的概念仍然只是高级别专家组措辞中的“理想目标”。欧盟机构将在未来几个月内决定是否将其作为具有约束力的框架,以及针对哪些用例。这可能需要使用硬法(例如修改后的侵权规则,特定行业的立法,在某些情况下使可靠的AI约束,临时竞争规则),以及更软的工具。在其他举措中,欧盟可以决定所有公共采购都限于可靠的人工智能;或要求医疗保健中的AI应用程序值得信赖。可能需要某种形式的认证以确保正确实施新系统,并且正确地向用户呈现信息。
另一个问题是该系统是否有助于欧洲制定全球AI标准,从而重新启动其竞争力。IBM已宣布他们将在全球范围内应用该框架。但鉴于(1)美国被认为是对最终用户的隐私保护不足,以及(2)美国平台经常被指责过度干扰用户的自主权和自主权,也可以使用可信赖的AI在不久的将来关闭不合规(或非欧洲)球员的大门。起草“准则”的专家组没有讨论任何此类工业和贸易政策方案。但欧盟委员会在最近的一份官方文件中提出了“在欧洲制造”的道德,安全和尖端AI的发展,暗示了这种可能性。。