广告

人工智能都会种族歧视了,人类都教了它些什么?

2016-07-18 16:04:00 Steve Taranovich 阅读:
根据《EE Times-Planet Analog》网站主编Steve Taranovich的观察,随着机器学习系统的出现,引发了人们可能从机器学习到偏见的道德争议。
广告

我最近拜读了微软研究院首席研究员Kate Crawford发表于《纽约时报》(NY Times)的大作,这则有趣的评论主题是“人工智能的白人争议”(Artificial Intelligence’s White Guy Problem)。作者是同时也是白宫举办“社会与人工智能研讨会”的共同主席。

在“人工智能”(AI)一词中的“智能”(I)基本上都来自于创造与教导该系统的人类输入。Crawford在评论中提到,种族主义以及其他各种形式的歧视都会被建置于机器学习算法中,形成许多“智能”系统的技术基础,最终发展成为我们如何归纳与呈现的方式。

作为一位设计人员,我们都会在设计中加入一点我们自己的“元素”,无论其本质有关模拟、电源或是像AI这样的软件,即使它可能是在无意识中发生的。但就算它可能不是故意的,但在采用AI的软件与学习过程中,被馈送至系统中的数据都可能存在某种偏见。

对于许多机器学习系统而言,AI的学习过程就像是婴儿学习一样,透过观察与模仿所选择的系统行为类型。如果系统中的某一部份是经由人为操纵的行为,那么就可能因为人们观察事情的角度及其所谓的偏见,而使得系统在执行任务时也加进了这些偏差。而在机器视觉系统中,它可能采用经由观看大量影像进行学习的神经系统算法;但这些影像是由人们所选择的,当然也在某方面加进了主观的人为偏差,最终影响了AI的决策偏颇。
20160715 AI NT01P1
“偏见”基本上是个存在已久的老问题了。但对于先进的AI技术来说则是新兴的,甚至更加放大了这个议题。设计人员与编程人员必须不断琢磨其软件算法,才能达到以无偏差方式执行服务任务的要求。因此,像Google的自动驾驶车曾经发生撞上公交车的意外,就必须持续修正其算法——这将会是一个反复的过程。

如今,我们正随AI进入一个全新的工程领域,必须发展出新的措施与原则,才能避免所谓的偏见。即使是“启发式程序设计算法计算机”(HAL)也会对于试图终止或派遣任务的任何人存在偏见;它可能会引用知名电影《2001太空漫游》(2001: A Space Odyssey)中的经典对话:"I can’t let you do that, Dave."

只要是人都会有某种偏见,例如总想回避高谈阔论的人,或不想去某些餐厅吃不喜欢的食物等。更严重的偏见则可能是反对某些种族、信仰或肤色等等。

MIT Press也出版了一本有趣的书——David J. Gunkel所写的The Machine Question,深入探讨这个议题。
20160715 AI NT01P2
你对这个问题有什么看法吗?

编译:Susan Hong

本文授权编译自EE Times,版权所有,谢绝转载

EETC wechat barcode


关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
Steve Taranovich
EDN资深技术编辑。Steve Taranovich是EE Time姊妹网站Planet Analog的主编,也是EDN的高级技术编辑。 Steve在电子行业拥有40年的从业经验。 他在纽约布鲁克林理工大学获得电子工程硕士学位,在纽约布朗克斯纽约大学获得BEEE学位。 他还是IEEE长岛教育活动委员会主席。 他在Burr-Brown和德州仪器公司工作多年,在模拟设计方面有丰富的经验,并有着嵌入式处理的教育背景。 Steve做了16年的电路设计工程师,随后他成为Burr-Brown Corp的首批现场应用工程师之一,并成为他们首批前往欧洲、印度和中国的全球客户经理之一。
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了