正在阅读:

微软前执行副总裁沈向洋受聘清华大学,首堂课谈AI责任

扫一扫下载界面新闻APP

微软前执行副总裁沈向洋受聘清华大学,首堂课谈AI责任

这是沈向洋离开微软赴清华就职的“第一堂课”。

图片来源:清华大学

记者 | 彭新

3月5日,清华大学宣布,通过视频连线为正在西雅图清华大学全球创新学院(GIX)大楼授课的沈向洋博士颁发双聘教授聘书,这也是清华大学首次以视频会议方式在线举行聘任仪式。

沈向洋是著名的计算机视觉和图形学专家,1996年加入微软,1999年回北京参与创立微软中国研究院。在微软期间,历任微软亚洲研究院院长兼首席科学家,微软全球资深副总裁、全球执行副总裁。

本次聘任仪式,是沈向洋在去年宣布离职微软后首次公开亮相。2019年11月13日,微软CEO萨提亚宣布沈向洋将在2020年初离开微软。2020年3月2日,“清华大学本科教学”官方公众号发布了题为《沈向洋双聘教授聘任仪式暨春风讲堂第四讲》的通知,正式确认沈向洋去向。

聘任仪式后,沈向洋在线发表了题为“Engineering Responsible AI”的报告并通过在线平台公开直播,这也被视为其在清华的“第一堂课”。

沈向洋称,近年来人工智能领域取得的进步已经超出了此前的预期。但是,许多人工智能领域的从业人员并未充分考虑其可能产生的社会影响。如今企业界、学术界和政府需要立即采取行动以应对相关的社会挑战。

所谓Responsible AI,即负责任的人工智能。2018年,微软发表《未来计算》(The Future Computed)一书,其中提出了人工智能开发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。在报告开始阶段,沈向洋再次引用该原则,重申其重要性。

在报告中,沈向洋回顾了当前AI的进展,他认为,如今AI技术已经可以做决策,这是AI技术发展过程中非常重要的一步,但是人们依然缺乏对AI做决定这一过程的理解。举例而言,当人类在生产电气零部件时,都会有相应的检查记录,哪里出现问题,就可以对操作文件进行分析,从而找出问题。但是,AI却没有这样的环节,导致问题很难排查发现。

AI这一特点在微软内部同样表现如此,“我们对微软 500名机器学习领域工程师进行了调查,我们问他们如何改善机器学习系统?在经过调查后,得出结论:如今机器学习工程师面临的最大问题之一是,他们知道出了一些问题,但是不知道具体是哪里出了问题,也并不知道为什么会出现问题。” 沈向洋说。

在对AI训练结果的解释性、AI的偏见上,研究人员的缺陷也在影响AI发展。沈向洋以图形识别狗举例,尽管研究人员可以创造准确率较高的识别算法,区别图像中的狼和哈士奇,但仍无法解释其中原理。实际上,AI的判断并非通过图片中的动物部分,而是通过图片中除了动物之外的部分进行的。

在AI的偏见上,一个经典例子就是黑色人种的人脸识别。通常,AI对黑人女性比白人的面部识别准确率要低。但经过调整再次训练模型后,这种识别率的差距可以降低,达到可接受水平。从不断的训练中,研究者得出结论,这种偏见来自于训练采用的样本数据。因为研究者人员更多采用非黑色人种的数据样本。

报告中,沈向洋还引用《麻省理工科技评论》的一则新闻报道,该报道称。通过评估算法,AI可能将错误的人送进监狱。在没有仔细评估的前提下,AI预测犯罪可能会加剧对深色皮肤人士的不平等,而非提高社会安全。

最后,沈向洋总结道,“我们是第一代和AI共存的人类,无论喜欢与否都别无选择,人类得决定怎么构建、使用AI。而一个由AI做决定、人类无法理解的世界是不能接受的。”

未经正式授权严禁转载本文,侵权必究。

微软

5.4k
  • 微软Xbox:因法院命令,推迟安卓版Xbox应用购买游戏等新功能的推出
  • 微软否认使用用户数据训练人工智能模型

评论

暂无评论哦,快来评价一下吧!

下载界面新闻

微信公众号

微博

微软前执行副总裁沈向洋受聘清华大学,首堂课谈AI责任

这是沈向洋离开微软赴清华就职的“第一堂课”。

图片来源:清华大学

记者 | 彭新

3月5日,清华大学宣布,通过视频连线为正在西雅图清华大学全球创新学院(GIX)大楼授课的沈向洋博士颁发双聘教授聘书,这也是清华大学首次以视频会议方式在线举行聘任仪式。

沈向洋是著名的计算机视觉和图形学专家,1996年加入微软,1999年回北京参与创立微软中国研究院。在微软期间,历任微软亚洲研究院院长兼首席科学家,微软全球资深副总裁、全球执行副总裁。

本次聘任仪式,是沈向洋在去年宣布离职微软后首次公开亮相。2019年11月13日,微软CEO萨提亚宣布沈向洋将在2020年初离开微软。2020年3月2日,“清华大学本科教学”官方公众号发布了题为《沈向洋双聘教授聘任仪式暨春风讲堂第四讲》的通知,正式确认沈向洋去向。

聘任仪式后,沈向洋在线发表了题为“Engineering Responsible AI”的报告并通过在线平台公开直播,这也被视为其在清华的“第一堂课”。

沈向洋称,近年来人工智能领域取得的进步已经超出了此前的预期。但是,许多人工智能领域的从业人员并未充分考虑其可能产生的社会影响。如今企业界、学术界和政府需要立即采取行动以应对相关的社会挑战。

所谓Responsible AI,即负责任的人工智能。2018年,微软发表《未来计算》(The Future Computed)一书,其中提出了人工智能开发的六大原则:公平、可靠和安全、隐私和保障、包容、透明、责任。在报告开始阶段,沈向洋再次引用该原则,重申其重要性。

在报告中,沈向洋回顾了当前AI的进展,他认为,如今AI技术已经可以做决策,这是AI技术发展过程中非常重要的一步,但是人们依然缺乏对AI做决定这一过程的理解。举例而言,当人类在生产电气零部件时,都会有相应的检查记录,哪里出现问题,就可以对操作文件进行分析,从而找出问题。但是,AI却没有这样的环节,导致问题很难排查发现。

AI这一特点在微软内部同样表现如此,“我们对微软 500名机器学习领域工程师进行了调查,我们问他们如何改善机器学习系统?在经过调查后,得出结论:如今机器学习工程师面临的最大问题之一是,他们知道出了一些问题,但是不知道具体是哪里出了问题,也并不知道为什么会出现问题。” 沈向洋说。

在对AI训练结果的解释性、AI的偏见上,研究人员的缺陷也在影响AI发展。沈向洋以图形识别狗举例,尽管研究人员可以创造准确率较高的识别算法,区别图像中的狼和哈士奇,但仍无法解释其中原理。实际上,AI的判断并非通过图片中的动物部分,而是通过图片中除了动物之外的部分进行的。

在AI的偏见上,一个经典例子就是黑色人种的人脸识别。通常,AI对黑人女性比白人的面部识别准确率要低。但经过调整再次训练模型后,这种识别率的差距可以降低,达到可接受水平。从不断的训练中,研究者得出结论,这种偏见来自于训练采用的样本数据。因为研究者人员更多采用非黑色人种的数据样本。

报告中,沈向洋还引用《麻省理工科技评论》的一则新闻报道,该报道称。通过评估算法,AI可能将错误的人送进监狱。在没有仔细评估的前提下,AI预测犯罪可能会加剧对深色皮肤人士的不平等,而非提高社会安全。

最后,沈向洋总结道,“我们是第一代和AI共存的人类,无论喜欢与否都别无选择,人类得决定怎么构建、使用AI。而一个由AI做决定、人类无法理解的世界是不能接受的。”

未经正式授权严禁转载本文,侵权必究。