如果我遇到某个眼睛有问题的人说我看起来像77岁,我可能会对他饱以“老”拳;就像任何一位到了某个年龄阶段就自尊心变很强的女性朋友,我对这种事情也是非常敏感。
要是这种情况发生在面对面的接触,我可能会瞪着那个笨蛋、暗地握紧拳头,让他知道我真的非常不爽;至少我知道那个我想扁的对象是谁…如果今天心情不错,我可能还会放下身段问他为何认为我看起来像77岁。
但是,如果那个令人发火的对象不是个人呢?如果那是一台机器,说我看起来像出生在美国总统罗斯福(Franklin Delano Roosevelt,通常以FDR为简称)第二任期(1937~41)那时候呢?这改变了一切…至少我这么觉得。
11月稍早,我在日本看到一台名为“FieldAnalyst”的影像辨识系统,是日本大厂NEC在年度嵌入式技术大会(Embedded Technology 2016)上展示的;该系统采用瑞萨(Renesas)的芯片。
而就在我站在FieldAnalyst前面对着它拍照,我发现自己的影像被机器扫描到、还在屏幕上标示我是“77岁女性”──你可以想象我有多惊恐!
上图可以隐约看到拿着相机的我,居然在FieldAnalyst影像辨识系统的屏幕上被标示为77岁女性
是因为我有眼袋吗?在日本看展的那几天,我因为时差还没调过来以及忙碌的行程累得像狗一样…还是因为我有几根来不及染的白头发?我忍不住在心里喊:“为什么是我?为什么是77岁?这台笨机器干嘛跳出这种信息?又没人问它!!!”
如果我直接把以上问题全问出口,那台机器…或是某个负责机器展示的人,八成会给的答案是:“那只是个算法,而且还不够完美。”
好吧。从我的皮相不能判断我真正的年龄,而我居然连个抱怨的对象都没有…我该如何跟一个算法争论?我又该怎么叫一台机器对它“程序编写出的视力不良”负责?
如果开发那些机器的公司只是叫你别在意,那只是算法...我又该怎么回应?该怎么讨回公道?好像没有能针对一个算法的完美反击,因为它根本感觉不到我怒了、连回个“糟糕”都不会…但在现今这个世界,我们已经被各种算法包围。
这些日子以来,机器帮我们做了很多的决策,它们知道我们想看什么新闻、或是可能想买哪本书,Google地图还知道我从A地到B地的最佳路线…或者试想,有些机器甚至能预测下一个可能暴力犯罪的嫌疑人。
还有,它们知道我几岁…或者是认为它们知道。
身为EE Times的记者,我知道众家科技业者包括Google、Facebook、Microsoft与Amazon,都在积极改善各种算法;毕竟算法就是王道,它们是科技业者的独门武器,是让他们的 各种服务与产品变得更聪明的关键。
但问题在于,我看不太出来有哪家公司会对他们的算法负责,更别说对于那些算法如何被使用而谨慎考虑;而且厂商们似乎会把算法当成挡箭牌,对于算法所做的、或是没做到的,只会把责任推给算法本身。
美国非营利新闻机构ProPublica最近公布了一系列实验,揭开了许多“黑盒子”的秘密;什么是“黑盒子”?该机构的记者表示:“当算法会在瞒着用户的情况下做决策,我们就叫它黑盒子…非内行人不可能知道黑盒子里面发生什么事。”
ProPublica所做的一系列报导中,最引人注意的内容之一,是指出Facebook的广告主可以在发布房地产广告时,排除特定种族对象(https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race);而这违反了美国联邦反歧视住居法规。
总之利用一种称为“种族偏好(Ethnic Affinities)”的设计,Facebook让广告主能在发布售屋广告时,瞄准或是排除特定使用者族群;ProPublica表示,Facebook还特别推出排除非裔、亚裔、拉丁美洲裔美国民众的广告项目。
算法是实用的工具,但到底谁有看到它们是如何被使用的?
而自刚结束的美国总统大选期间,Facebook就一直饱受抨击;有人指出,Facebook上充斥的假消息或是不实留言,可能直接影响了大选结果,甚至连Facebook创办人马克.扎克伯格(Mark Zuckerberg)将出任美国国务卿的传闻都有…
虽然Zuckerberg一开始反驳了上述抨击,他仍在日前于自己的Facebook页面上贴出了留言(https://www.facebook.com/zuck/posts/10103269806149061),简短叙述了Facebook正在考虑对策,以解决该问题;虽然他并未有任何结论,但提及的可能方案包括更严格的检测、第三方认证,以及对假新闻求偿等等措施。
显然对Facebook来说,打击假消息这个问题非常重要;我个人很赞赏Zuckerberg愿意分享他的看法,但身为一位记者,我仍对于Facebook无力在第一线抵挡假新闻感到沮丧。
这个难题的关键在于透明度,在“黑盒子”里,Facebook的算法到底能如何区别出假新闻?我们该如何知道Facebook的“严格检测”引擎是否内含自己的偏见?当任何一家公司要开始自己进行审查,他们就有责任解释他们会如何进行,以及审查的对象与内容为何。
而说到有哪家公司有权力替我们做决定,我想应该没有人会出声;当有人再把责任推给网络空间看不见的“黑盒子”,说“那只是个算法”,我们不该再只是耸耸肩膀,我们应该要求一个比“我的作业被狗狗吃掉了”更好的答案!
编译:Judith Cheng
本文授权编译自EE Times,版权所有,谢绝转载
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。