Uber 自驾车第一次造成人类伤亡的前一天,麻省理工(MIT)Iyad Rahwan 教授在全球教育与技能论坛(GESF 2018)公布了对“道德机器”(Moral Machine)的首批研究成果。
2016年,MIT 媒体实验室的研究人员推出名为“道德机器”网站,上面提供各种道德难题,让玩家体验不久的未来,当自驾车上路时必须做出的选择。
自驾车是否应该为了拯救自己的乘客,而牺牲违规穿越马路的行人?还是应该冒着乘客的安全风险来拯救行人?这些生死决定至关重要,尤其很快就须交由机器决定时。
过去一年中,MIT 团队透过网站进行大规模的统计调查,接近 400 万人回答了许多场景出现的道德两难,场景中包含不同性别、年龄甚至是猫和狗等动物,以各种组合通过马路。
Rahwan 对 Forbes 表示,这是有史以来规模最大的全球道德研究,团队原先预计这项“道德机器”的统计结果将能在今年公布,并协助车商、科技巨头运用这些结果,更协助自驾车面临道德难题时做选择。
(Source:MIT Media Lab/Scalable Cooperation)
但结果非常明确,“道德机器”统计无法提供这项协助,因为结果显示,人们的道德看法并非绝对一致。
一些相对“简单”的选择,像是小孩和成人之间选择时,结果完全偏向一方,人们的道德明显倾向保护更年轻的性命,尤其随着行人年纪越大,被“牺牲”的可能性也就越高。
但是,当问题变成选择“保护乘客”或“保护行人”时,结果就更模糊不清;有近 40% 的人表示,比起乘客受到伤害,他们更宁愿自驾车撞上行人。
随着情况越复杂,选项间的差异也就越小,在“杀死一位合法过马路的人”和“杀死两位非法过马路的人”之间,人们选择的结果便十分平均分布。
要找到共同道德价值观究竟有多困难?除了群众意见分歧,对机器道德的结果也因国家和地区有差异,Rahwan 指出,他们光是将德国与东西方其他国家比较时,非常有趣的文化差异便显现出来。
举例来说,德国知名车商 Mercedes-Benz 一位CEO发表了“Mercedes-Benz 应该将自己乘客安全放在首位”言论,在当地成了一桩“丑闻”──即使与邻近欧洲地区相较,这个结果仍明显一面倒向一方。
(Source:MIT Media Lab/Scalable Cooperation)
“这突显出我们必许将许多不同因素纳入考虑,不同价值观间的冲突挑战我们自身的道德感,同时也挑战我们得将这些事一起弄清楚──因为我们无法在这些看法达成一致。”
而 Rahwan 认为这些结果也证明,知名科幻小说作家 Isaac Asimov 的作品创造出的知名概念:通用机器伦理“机器人三定律”(Three Laws of Robotics),大概永远无法成真。
随着自驾技术持续进步,不久未来自驾车势必会在路上面临这些困难的抉择,或许现在正是时候开始思考,这些机器究竟该进行怎样的道德和伦理判断,又或者该说,如何让机器的道德观符合多数人的期望。
如果我们希望建造反应自己价值观的机器,那么就必须更深入了解这些价值观,并进行量化和彼此讨论妥协,才能确定哪些是重要的。
如果你也对这些道德难题有兴趣,不妨到道德机器网站测试看看当自己面临这些处境时,究竟会做出怎样的选择。
本文综合自Technews、车云网报道
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。