我最近拜读了微软研究院首席研究员Kate Crawford发表于《纽约时报》(NY Times)的大作,这则有趣的评论主题是“人工智能的白人争议”(Artificial Intelligence’s White Guy Problem)。作者是同时也是白宫举办“社会与人工智能研讨会”的共同主席。
在“人工智能”(AI)一词中的“智能”(I)基本上都来自于创造与教导该系统的人类输入。Crawford在评论中提到,种族主义以及其他各种形式的歧视都会被建置于机器学习算法中,形成许多“智能”系统的技术基础,最终发展成为我们如何归纳与呈现的方式。
作为一位设计人员,我们都会在设计中加入一点我们自己的“元素”,无论其本质有关模拟、电源或是像AI这样的软件,即使它可能是在无意识中发生的。但就算它可能不是故意的,但在采用AI的软件与学习过程中,被馈送至系统中的数据都可能存在某种偏见。
对于许多机器学习系统而言,AI的学习过程就像是婴儿学习一样,透过观察与模仿所选择的系统行为类型。如果系统中的某一部份是经由人为操纵的行为,那么就可能因为人们观察事情的角度及其所谓的偏见,而使得系统在执行任务时也加进了这些偏差。而在机器视觉系统中,它可能采用经由观看大量影像进行学习的神经系统算法;但这些影像是由人们所选择的,当然也在某方面加进了主观的人为偏差,最终影响了AI的决策偏颇。
“偏见”基本上是个存在已久的老问题了。但对于先进的AI技术来说则是新兴的,甚至更加放大了这个议题。设计人员与编程人员必须不断琢磨其软件算法,才能达到以无偏差方式执行服务任务的要求。因此,像Google的自动驾驶车曾经发生撞上公交车的意外,就必须持续修正其算法——这将会是一个反复的过程。
如今,我们正随AI进入一个全新的工程领域,必须发展出新的措施与原则,才能避免所谓的偏见。即使是“启发式程序设计算法计算机”(HAL)也会对于试图终止或派遣任务的任何人存在偏见;它可能会引用知名电影《2001太空漫游》(2001: A Space Odyssey)中的经典对话:"I can’t let you do that, Dave."
只要是人都会有某种偏见,例如总想回避高谈阔论的人,或不想去某些餐厅吃不喜欢的食物等。更严重的偏见则可能是反对某些种族、信仰或肤色等等。
MIT Press也出版了一本有趣的书——David J. Gunkel所写的The Machine Question,深入探讨这个议题。
你对这个问题有什么看法吗?
编译:Susan Hong
本文授权编译自EE Times,版权所有,谢绝转载
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。