C114通信网  |  通信人家园

人工智能
2019/12/26 12:06

Ovum:全球人工智能政策和法规发展介绍

Ovum智库  

引言

作为一个概念和技术,人工智能(AI)仍处于初期发展阶段,但其发展速度超过预期。全球已有几个国家宣布将AI作为国家技术战略的组成部分,还有几个国家已经开始了公众咨询过程。尽管如此,对AI的监管并没有跟上AI的发展步伐--有一些监管机构采取事后处理的方式,确保技术中立的方法,并制定伦理、隐私和安全准则。AI的发展将颠覆现有的传统商业模式,创造新的角色和机会。此外,政府和决策者将需要修改现有的政策和监管框架来支持无缝整合和采用AI。

本报告包括欧盟、日本、美国、英国和新加坡最初采用的AI监管方法。

Ovum观点

监管机构目前采取的是事后处理(而非事前处理)方法: AI仍处于早期开发和采用阶段。由于并不清楚AI将如何颠覆现有商业模式,全球监管机构和政府选择发布技术中立的指导方针。随着技术的发展,它能够支持更大的灵活性。由于决策者目前更倾向于采用事后处理方法,预计将有更多行业特定和成熟的框架随着时间的推移而发展,从而为这些指导方针提供补充。

发布的指导方针主要侧重于保护基本权利: 虽然几个国家的政府正在采取措施推出AI监管框架,但迄今为止发布的大多数临时指导方针都侧重于保护基本权利,比如伦理、隐私和安全。为了推出有效的框架,AI价值链上的决策者和利益相关方应该协同工作。最终目标应该是制定涉及AI各个方面的政策和法规。

AI将创造新的机会,政府应该做好抓住这些机会的准备: AI在各个行业拥有广泛的应用场景,而且正在用新方法颠覆现有的商业模式。尽管有些人认为这是一种威胁,但如果AI得到采纳,就可以在各行业和价值链上创造新的机会,包括新的技术和管理角色。为确保抓住这些机会,各国政府应拨出资金提高劳动力和公民的技能。此外,政府可以设立AI委员会,就采用AI所带来的机会向各自的政府部门提供建议,帮助它们制定路线图来协调政府做法和重新培训劳动力。

为了接受AI,政府将需要修改现有法规: 尽管政府仍在努力发布有关AI的监管政策和指导方针,一些保护消费者利益和竞争的法规已经出台。为了确保AI能够顺利融入各个行业,监管机构需要重新审视和修订一些现有的(在某些情况下是过时的)法规,尤其是在AI应用与现有政策存在冲突的情况下,比如数据保护法、过时的用户同意方法、许可协议以及特定行业的法律。

AI监管挑战及Ovum观点

如图1所示,Ovum确定了AI监管的七大挑战。

来源:Ovum

安全

安全是所有政府在批准部署AU、以及任何直接或间接威胁生命或财产、或造成经济或财政损失的机器或技术时考虑的最基本特性。AI的威胁指数更高,因为它具有独立行动的能力,而且几乎不受人类干涉。对AI软件实施安全标准与对AI本体实施安全标准同样重要。决策者需要特别关注某些领域的安全标准—在这些领域, AI部署将直接或间接对生命或财产构成更大威胁,比如航空、交通、采矿、物流和国防。在不久的将来,政府很有可能设立一个安全委员会或机构,并要求企业在部署AI的时候就安全问题获得这些授权实体的批准。

隐私

AI的决策基于基础数据及其算法,它们会随着时间的推移和经验的累积不断进化。数据量越大,AI就越容易形成有意义的模式并模仿人类行为。然而,获取有用的数据在世界各地引发了对隐私的担忧,大多数国家已经出台了数据保护法律,比如如《通用数据保护条例》。此外,数据保护法中的规定要求数据控制器和数据处理器披露数据收集的目的及其使用情况,这将是一个巨大的挑战--因为在将数据提供给AI应用时无法明确界定这一点。AI的逐步普及最终将迫使政府和决策者重新审视数据保护措施,对现有的数据保护法进行修订,以便在保护用户隐私和数据收集之间取得平衡。

可控性

目前AI的发展和部署仍处于初级阶段。虽然有一些AI系统完全自主,但大多数仍然需要人力监督和控制。随着时间的推移和技术的进步,人类的监督和干预将会减少,从而为更多完全自主的AI应用铺平道路。然而,系统失败归咎于外部因素(比如接触陌生场景、安全漏洞、组件和传感器损坏)或内部因素(软件故障和低效训练的系统等)会导致更大的破坏性, 尤其是在涉及关键决策的行业,如航空、汽车、国防和医疗行业。决策者应该在AI应用中强制执行可控性代码,使人类能够在不确定时期控制系统。此外,当AI系统偏离了应该执行的预期职责,或者识别出某项任务超出了限度,这种可控性可推动人工干预。同时,努力控制训练AI系统的输入数据有助于开发一个值得信赖的系统。

伦理

伦理道德在制定AI监管政策方面扮演着最关键的角色,世界各地的一些政府已经将伦理准则纳入了国家战略。由于AI系统的开发和训练是一个持续的过程,包括开发算法和输入数据,以及监控和更新系统,因此决策者在确定伦理准则时应该格外谨慎。指导方针应有助于避免不公平的偏倚,防止输入不合适的数据来训练AI系统,并保持对隐私的尊重—通过保密的纲领开发AI系统,以便构建AI应用的基础。

开发可信、稳健的AI系统涉及多方面的专业人员,比如开发人员、统计人员、学者和数据清理人员。决策者和政府应该携手合作,投资和培训专业人士,以便将最佳伦理实践纳入AI系统。可以说,这对政府来说并不陌生,因为在国家战略的指引下许多政府已经拨出了相当多的资金来培训公民提高数字技能。此外,在未来,预计AI公司将选择引入一个新的AI伦理官角色,甚至是一个AI伦理委员会,以便监控和保护被纳入AI系统的伦理价值观(类似于数据保护官的作用)。

给作者点赞
0 VS 0
写得不太好

免责声明:本文仅代表作者个人观点,与C114通信网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

热门文章
    最新视频
    为您推荐

      C114简介 | 联系我们 | 网站地图 | 手机版

      Copyright©1999-2024 c114 All Rights Reserved | 沪ICP备12002291号

      C114 通信网 版权所有 举报电话:021-54451141