正在阅读:

如何完善“AI+”的安全监管和评估?欧盟率先发布AI道德准则

扫一扫下载界面新闻APP

如何完善“AI+”的安全监管和评估?欧盟率先发布AI道德准则

AI科技的发展,让智能设备的应用更为广泛。环卫智能手表事件引发的道德风险等问题,如同管中窥豹,“AI+”落地,也需要一套适用它的道德规范。

文|AI报道

南京智能监控手表的出现,再度让“AI+环卫”陷入道德争议。

据报道,江苏南京河西区域的环卫工人近日配发了智能手表,除定位功能外,工人们只要在原地停留休息超过20分钟,手表就会自动发出“加油”的报警声,因为这在管理规定里属于“违规停留”。

不仅如此,在南京河西建环“智慧环卫”综合调度监控指挥中心,还有一块大屏可以精准显示所有环卫工作人员的所在位置、每天的工作轨迹。

前有深圳为环卫工装GPS定位器考核,里程不足视为出勤不合格;后有南京为环卫工配发智能手表,原地休息20分钟就自动提醒。虽然这些举措的初衷都是为了借助智能设备提高工作效率,但在实际执行过程中却存在忽视使用者的心理需求的问题,存在道德争议。

AI科技的发展,让智能设备的应用更为广泛。环卫智能手表事件引发的道德风险等问题,如同管中窥豹,“AI+”落地,也需要一套适用它的道德规范。

而就这一问题,“规则制定者们”在不断尝试。

谷歌AI道德委员会“试水”规范制定引争议

关于AI道德规范问题,3月26日,谷歌率先成立人工智能道德委员会,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的道德风险。该委员会将与谷歌就面部识别和公平性等人工智能的主要问题进行磋商。

当时,谷歌全球事务高级副总裁肯特·瓦克(Kent Walker)表示,该委员会将“为公司提供多元化的观点”。当时计划,从2019年4月开始,先进技术外部咨询委员会每年将举行四次会议,并编写报告,为谷歌的人工智能项目提供反馈。

第一届先进技术外部咨询委员会由8人组成,其中包括一位哲学家,一位经济学家,一位公共政策专家,以及来自数据科学、机器学习和机器人技术的几位研究人员。

然而,该委员会成员名单一经公布就遭到了各方指责。不少人工智能专家强烈反对,质疑Kay Coles James(凯·科尔斯·詹姆斯)和Dyan Gibbens(戴安·吉本斯)的加入。

仅仅十天之后,4月4日,在经历了内部员工联名抗议和外部专家的批评后,谷歌宣布取消其于上周二新设立的人工智能道德委员会。4日下午,一名谷歌发言人对美国《VOX》新闻网站表示,公司已经完全解散了先进技术外部咨询委员会。就此,谷歌AI道德委员会的尝试以失败收场。

落后技术竞赛的欧盟,欲成AI法律伦理规则制定者?

据The Verge报道,近日欧盟发布了一项关于人工智能的伦理指导方针,虽然目前这项指南还不具有法律约束力,但可能影响未来起草的相关法律。

除此之外,该项目还旨在收集反馈意见,促进“以人为本的人工智能”成为国际共识,以便在即将召开的七国集团(G7)和二十国集团(G20)会议上,就这一主题展开更多讨论。

早在去年,该委员会的人工智能高级别小组(由来自各行业、学术界和市民团体的52名专家组成)在12月发布了关于可被信赖的人工智能的道德规范草案。该文件的修订本已于3月提交至委员会。除了机器学习技术需要尊重的现有法律法规外,它将专家的咨询结果总结为人工智能的七个“关键要求”,即:

1.人类权利与监督:“人工智能系统应该通过支持人类的行动力和基本权利,成为公平社会的保障,而不是减少、限制或误导人类的自治。”

2.稳定性和安全性:“可信的人工智能要求算法足够安全可靠和稳定有力,能够在人工智能系统的所有生命周期阶段里处理错误或不一致性。”

3.隐私和数据管理:“公民应该完全掌控自己的数据,有关他们的数据不会被用来伤害或歧视他们。”

4.透明度:“确保人工智能系统的可追溯性。”

5.多样性、公平性和避免歧视:“人工智能系统应该全面考虑人类的所有能力、技能和需求,并确保人工智能的可访问性。”

6.社会和环境福祉:“人工智能系统应该被用来促进积极的社会变革,推动可持续性发展和生态责任的担当。”

7.问责制:“应该建立相应机制,确保人工智能系统及其应用的责任和义务得到承担。”

于此,数字单一市场(Digital Single Market)副总裁Andrus Ansip在一份声明中表示:“合乎道德的人工智能是一个双赢的主张,它可以成为欧洲的竞争优势——一个可以信赖的以人为本的人工智能领导者。”

此外,欧盟数字经济与社会(Digital Economy and Society)专员Mariya Gabriel在另一份支持性声明中补充道:“今天,我们为在欧盟实现安全和道德的人工智能,迈出了重要一步。基于欧盟的价值观,在企业、学术界和公民社会的众多利益相关方的广泛和建设性参与下,我们打下了坚实的基础。现在将把这些要求付诸实践,同时围绕以人为本的人工智能推动国际讨论。”

这次欧盟在AI道德标准制定上抢占先机,让很多人怀疑,欧盟是否试图通过伦理研究来塑造全球AI的发展方式?毕竟,欧盟在人工智能的技术竞赛上,无法与北美和亚洲竞争,但欧盟却另辟蹊径,通过对AI的监管上先行一步,来控制全球AI的发展方向。

对此,智库数据创新中心的高级政策分析师埃林·奇沃特表示,我们对正在采取的方法持怀疑态度,即通过为AI创造一个黄金标准,它将确认欧盟在全球AI发展中的地位。可是要成为AI伦理领域的领导者,必须在AI领域取得领先优势。

建立人工智能安全监管和评估体系,对AI负责

目前人工智能几乎还处于规范真空的环境当中。虽然有一些国家或地区已经制定了关于无人驾驶或无人机技术的规范,目前几乎没有法律专门应对AI可能带来的挑战,也几乎没有判决发展出相关的标准来解决“谁应对AI造成的伤害负责”的问题。

比如,Facebook曾陷入“用户数据隐私泄漏”以及“政治操纵”的指控,视频换脸也面临道德伦理以及侵犯肖像权等法律风险。

考虑到人工智能的颠覆性,一方面因为AI的科研和发展是“不显眼的、不连续的、分散的以及不透明的”,所以事前治理会非常困难;而另一方面AI又具有“不可预测和不可控的特性”,导致事后监管失灵,尤其是当AI系统崩溃可能导致灾难性后果的情形。

因此,仅在某一特殊领域中讨论人工智能的治理可能是片面且不充分的。传统的监管措施,例如产品许可 (product licensing)、开发监管 (research and development oversight) 以及侵权责任 (tort liability) 无疑存在适用性低的问题。

AI领域如何监管,AI应用如何符合道德标准,将是未来面临的一个大挑战,但也是促进行业发展和应用落地的必经之路。

本文为转载内容,授权事宜请联系原著作权人。

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

如何完善“AI+”的安全监管和评估?欧盟率先发布AI道德准则

AI科技的发展,让智能设备的应用更为广泛。环卫智能手表事件引发的道德风险等问题,如同管中窥豹,“AI+”落地,也需要一套适用它的道德规范。

文|AI报道

南京智能监控手表的出现,再度让“AI+环卫”陷入道德争议。

据报道,江苏南京河西区域的环卫工人近日配发了智能手表,除定位功能外,工人们只要在原地停留休息超过20分钟,手表就会自动发出“加油”的报警声,因为这在管理规定里属于“违规停留”。

不仅如此,在南京河西建环“智慧环卫”综合调度监控指挥中心,还有一块大屏可以精准显示所有环卫工作人员的所在位置、每天的工作轨迹。

前有深圳为环卫工装GPS定位器考核,里程不足视为出勤不合格;后有南京为环卫工配发智能手表,原地休息20分钟就自动提醒。虽然这些举措的初衷都是为了借助智能设备提高工作效率,但在实际执行过程中却存在忽视使用者的心理需求的问题,存在道德争议。

AI科技的发展,让智能设备的应用更为广泛。环卫智能手表事件引发的道德风险等问题,如同管中窥豹,“AI+”落地,也需要一套适用它的道德规范。

而就这一问题,“规则制定者们”在不断尝试。

谷歌AI道德委员会“试水”规范制定引争议

关于AI道德规范问题,3月26日,谷歌率先成立人工智能道德委员会,希望通过哲学家、工程师和政策专家组成的团队帮助解决人工智能带来的道德风险。该委员会将与谷歌就面部识别和公平性等人工智能的主要问题进行磋商。

当时,谷歌全球事务高级副总裁肯特·瓦克(Kent Walker)表示,该委员会将“为公司提供多元化的观点”。当时计划,从2019年4月开始,先进技术外部咨询委员会每年将举行四次会议,并编写报告,为谷歌的人工智能项目提供反馈。

第一届先进技术外部咨询委员会由8人组成,其中包括一位哲学家,一位经济学家,一位公共政策专家,以及来自数据科学、机器学习和机器人技术的几位研究人员。

然而,该委员会成员名单一经公布就遭到了各方指责。不少人工智能专家强烈反对,质疑Kay Coles James(凯·科尔斯·詹姆斯)和Dyan Gibbens(戴安·吉本斯)的加入。

仅仅十天之后,4月4日,在经历了内部员工联名抗议和外部专家的批评后,谷歌宣布取消其于上周二新设立的人工智能道德委员会。4日下午,一名谷歌发言人对美国《VOX》新闻网站表示,公司已经完全解散了先进技术外部咨询委员会。就此,谷歌AI道德委员会的尝试以失败收场。

落后技术竞赛的欧盟,欲成AI法律伦理规则制定者?

据The Verge报道,近日欧盟发布了一项关于人工智能的伦理指导方针,虽然目前这项指南还不具有法律约束力,但可能影响未来起草的相关法律。

除此之外,该项目还旨在收集反馈意见,促进“以人为本的人工智能”成为国际共识,以便在即将召开的七国集团(G7)和二十国集团(G20)会议上,就这一主题展开更多讨论。

早在去年,该委员会的人工智能高级别小组(由来自各行业、学术界和市民团体的52名专家组成)在12月发布了关于可被信赖的人工智能的道德规范草案。该文件的修订本已于3月提交至委员会。除了机器学习技术需要尊重的现有法律法规外,它将专家的咨询结果总结为人工智能的七个“关键要求”,即:

1.人类权利与监督:“人工智能系统应该通过支持人类的行动力和基本权利,成为公平社会的保障,而不是减少、限制或误导人类的自治。”

2.稳定性和安全性:“可信的人工智能要求算法足够安全可靠和稳定有力,能够在人工智能系统的所有生命周期阶段里处理错误或不一致性。”

3.隐私和数据管理:“公民应该完全掌控自己的数据,有关他们的数据不会被用来伤害或歧视他们。”

4.透明度:“确保人工智能系统的可追溯性。”

5.多样性、公平性和避免歧视:“人工智能系统应该全面考虑人类的所有能力、技能和需求,并确保人工智能的可访问性。”

6.社会和环境福祉:“人工智能系统应该被用来促进积极的社会变革,推动可持续性发展和生态责任的担当。”

7.问责制:“应该建立相应机制,确保人工智能系统及其应用的责任和义务得到承担。”

于此,数字单一市场(Digital Single Market)副总裁Andrus Ansip在一份声明中表示:“合乎道德的人工智能是一个双赢的主张,它可以成为欧洲的竞争优势——一个可以信赖的以人为本的人工智能领导者。”

此外,欧盟数字经济与社会(Digital Economy and Society)专员Mariya Gabriel在另一份支持性声明中补充道:“今天,我们为在欧盟实现安全和道德的人工智能,迈出了重要一步。基于欧盟的价值观,在企业、学术界和公民社会的众多利益相关方的广泛和建设性参与下,我们打下了坚实的基础。现在将把这些要求付诸实践,同时围绕以人为本的人工智能推动国际讨论。”

这次欧盟在AI道德标准制定上抢占先机,让很多人怀疑,欧盟是否试图通过伦理研究来塑造全球AI的发展方式?毕竟,欧盟在人工智能的技术竞赛上,无法与北美和亚洲竞争,但欧盟却另辟蹊径,通过对AI的监管上先行一步,来控制全球AI的发展方向。

对此,智库数据创新中心的高级政策分析师埃林·奇沃特表示,我们对正在采取的方法持怀疑态度,即通过为AI创造一个黄金标准,它将确认欧盟在全球AI发展中的地位。可是要成为AI伦理领域的领导者,必须在AI领域取得领先优势。

建立人工智能安全监管和评估体系,对AI负责

目前人工智能几乎还处于规范真空的环境当中。虽然有一些国家或地区已经制定了关于无人驾驶或无人机技术的规范,目前几乎没有法律专门应对AI可能带来的挑战,也几乎没有判决发展出相关的标准来解决“谁应对AI造成的伤害负责”的问题。

比如,Facebook曾陷入“用户数据隐私泄漏”以及“政治操纵”的指控,视频换脸也面临道德伦理以及侵犯肖像权等法律风险。

考虑到人工智能的颠覆性,一方面因为AI的科研和发展是“不显眼的、不连续的、分散的以及不透明的”,所以事前治理会非常困难;而另一方面AI又具有“不可预测和不可控的特性”,导致事后监管失灵,尤其是当AI系统崩溃可能导致灾难性后果的情形。

因此,仅在某一特殊领域中讨论人工智能的治理可能是片面且不充分的。传统的监管措施,例如产品许可 (product licensing)、开发监管 (research and development oversight) 以及侵权责任 (tort liability) 无疑存在适用性低的问题。

AI领域如何监管,AI应用如何符合道德标准,将是未来面临的一个大挑战,但也是促进行业发展和应用落地的必经之路。

本文为转载内容,授权事宜请联系原著作权人。