人工智能中的伦理并不是一个新概念。从科学家到学者,从企业到用户,每个人都在思考这个问题。每个人似乎都有自己的观点,而这些观点又不能完全被分解为 "支持 "和 "反对"。那么,我们如何简化辩论的利弊,以便更好地理解人工智能的伦理现状?
解决人工智能的伦理问题,不是通过关注什么或谁需要改革,而是通过其系统性问题的镜头--这确实反映了我们今天世界上普遍存在的更大的系统性问题。
人工智能正日益嵌入我们所做的一切,并将继续扩大其在我们生活中的影响。我希望能花更多时间研究并强调已经在实践中对社会和生态负责的人工智能的方式。现在,让我们关注一下这个看似简单的问题。人工智能首先应该建立起道德规范吗?
伦理对人工智能来说是必要的吗?
简短的回答是肯定的。如果不这样想,就是不道德的。但怎么做呢?谁的道德?
一篇关于 "美德经济学 "的文章问道:"......在目前的社会体系中,有道德的人工智能是否可能,如果是的话,对工程专业、公司董事、用户、政策制定者和其他人有什么要求?"
作者得出了一些有价值的结论,以度过这个棘手的局面。"集体重新定义问题,而不是通过单纯的技术参数,是关键的第一步。研究人员必须认识到,试图调和道德和商业利润之间的矛盾,通常会导致道德产品被塑造成消费者需求或'最终用户'的商业需求。这种需求来自于大科技公司本身的公平、多样性和公正的'产出',以及来自于大资本的其他场所对声誉缺陷的道德抚慰," Phan, et al.
现在,让我们转向眼前的问题。支持和反对人工智能伦理的论点是什么?
谁会争辩说,不,道德不应该是人工智能的一部分?我不打算为坏演员或那些从人工智能的滥用中获利的人做论证。让我们重新研究一下这个问题。人工智能中的伦理学有哪些批评意见?
人工智能中的伦理学缺点
著名媒体理论家、作家、纽约市立大学媒体教授道格拉斯-拉什科夫(Douglas Rushkoff)写道:"......我认为人工智能不会以道德方式发展的原因是,人工智能是由希望赚钱的公司开发的--而不是为了改善人类状况。因此,虽然会有一些简单的人工智能用于优化农场的用水,或帮助管理其他有限的资源,但我认为大多数是用在人身上。. 我担心的是,即使是有道德的人,也仍然在考虑将技术用于人类,而不是反过来。因此,我们可能会开发出一个 "人性化 "的人工智能,但这意味着什么?它以最'人性化'的方式从我们身上提取价值?" 雷尼等人,2021年
我发现,大多数人只是想舒适地生活,自由地做出自己的决定。我支持这一点。通常情况下,人们的个人道德与其他个人和整个社会的道德相矛盾,而且,在我们目前的世界中,很难完全按照自己的价值观生活。如果人工智能要通过观察我们自己的人类道德来学习,我想象它出来的时候会相当困惑。
自动驾驶汽车可以向我们展示一些潜在道德冲突的例子。埃齐奥尼和埃齐奥尼指出,"......无人驾驶汽车可以通过某种聚合系统,从数以百万计的人类司机的道德决定中学习,作为一种群体思维或吸取众人的智慧。然而,人们应该注意到,这很可能导致汽车获得一些相当不道德的偏好。. . 如果他们学会了许多人的做法,智能汽车很可能会超速、追尾和参与路怒症...。也就是说,观察人们不会教这些机器什么是道德,而是什么是普通。" 埃齐奥尼,2017
"......也就是说,观察人不会教这些机器什么是道德,而是什么是普通。"
还有人质疑人工智能向人类学习伦理的实用性。斯坦福大学经济学教授、民主、发展和法治中心高级研究员Marcel Fafchamps评论说:"人工智能只是一个大系统中的小齿轮。目前与人工智能相关的主要危险是,机器学习复制了过去的歧视--例如,在设定保释、判刑或假释审查的司法程序中。但如果一开始就没有歧视,机器学习就会运作良好。这意味着,在这个例子中,人工智能提供了比不受管制的社会过程更多的改进可能性"。Rainie等人,2021年
鉴于我们明显倾向于个人主义而非集体主义,谁能决定人工智能遵循什么道德准则?如果它受到大科技公司的影响(通常是这样),它就会为支持某些公司的道德规范服务,而这些公司一般都以赚钱为主要目标。
"大科技公司已经将道德转化为一种资本形式......"
利润高于一切的价值观需要转变。"大科技公司已经将道德转化为一种资本形式--一种组织外部的交易对象,是当代资本家必须驯服和采购的许多'东西'之一。" (Birch & Muniesa, 2020)Phan, et al. 2021 此外,"......通过参与美德经济,不是公司变得更有道德,而是道德变得公司化。也就是说,道德沦为一种资本形式--维持生产系统的另一种工业投入,只要符合现有的盈利结构,就能容忍变化。" 范氏等人,2021年
根据我的理解,这只是资本主义接管道德的下一个阶段,作为一种货币形式被利用和货币化。价值观和道德观不应该这样运作。它们不是可以被货币化、交换或分配一个标准化的价值的东西。它们的价值在一个完全不同的尺度上,当然不应该被出售。
那么,可以做什么呢?让我们来看看一些观点,这些观点明确主张道德是人工智能的一个必要原则。
关于人工智能伦理的论点
人工智能需要伦理调整的原因有很多。首先,让我们试着理解当我们谈论人工智能的伦理时,伦理的真正含义。
"当我们认为事情可以是道德的,也可以是不道德的时候,我们误解了道德,认为它是二元的......"
正如数据与社会研究所的创始人和主席(以及微软的首席研究员)Danah Boyd所解释的,"当我们认为事情可以是道德的或不道德的时候,我们就误解了道德,把它当成了二进制。对道德的真正承诺是对理解社会价值和权力动态的承诺--然后努力实现正义。" Rainie等人,2021年
大多数数据驱动的系统,特别是人工智能系统,通过使用训练数据建立模型,将现有的结构性不平等固化在其系统中。这里的关键是要积极识别和打击这些偏见,这需要数字上的赔偿。. . 这些系统也主要是在晚期资本主义的背景下建立的,它崇尚效率、规模和自动化。对人工智能的真正道德立场要求我们关注增强、本地化的环境和包容," Rainie等人,2021年
"对人工智能的真正道德立场要求我们关注增强、本地化的环境和包容"
我想强调那些确实在为正义而努力的人和团体:利用他们所有的力量来做好事。其中一个例子是ACM公平、责任和透明度会议(ACM FAccT),这是一个每年一次的会议,汇集了一群不同的学者,思考社会技术系统的公平、责任和透明度,主要是人工智能。他们所做的工作令人难以置信,具有变革性,而且非常必要。
挑战
有些时候,人们会因为错误的原因而将伦理道德放在首位,通常,这些原因是经济上的。
人工智能中的偏见是人们普遍认为需要关注的东西,而且众所周知,它是有害的,特别是对已经被边缘化的人群。因此,当涉及到人工智能中的伦理问题时,这一点引起了辩论。在提到FAccT的工作时,Phan等人说:"......识别和改善偏见的工具本身已经成为一类新的工业产品;例如,IBM的AI Fairness 360、Google Inclusive ML和Microsoft FairLearn。这些产品使企业能够在道德上声称他们已经解决了偏见问题。通过将社会问题重塑为一系列技术挑战,这些解决方案将道德的意义限制在个人行动和决策领域。这又对企业有利,因为这使他们能够 "整齐地提出和解决暴力问题"(Hoffman, 2020: 10)。Phan, et al. 2021
伦理必须从某处开始。社会变革可以自下而上,自上而下,或者在大多数情况下,两者的结合。科技公司关注道德问题,因为消费者要求它。也许他们最终会做一些好事,但在我看来,资本主义的更多让步将使事情保持现状,同时保持不断使事情变得更好的外表。
我们需要的是人工智能中更高的伦理道德标准。比社会的道德标准更高,比我们成长的道德标准更高。有道德的人工智能在实践中需要制衡,不断改进,永远不要安于现状,因为事情总是在变化,人工智能需要保持其尖端的能力。
推翻现有的系统,实施全新的系统,相信人工智能可以实现这一点。在人工智能中提出支持和反对道德的理由不是一件容易的事。大多数人都会同意,在设计人工智能时,道德、社会责任和问责制是需要考虑的。大多数人可能会同意,确保机器人不会伤害任何人,算法不应该有不公平的偏见,自动驾驶汽车应该尽量不打人,这一点至关重要。问题不在于是否应该在人工智能中加入道德规范,而在于如何加入,以及由谁来决定。就像许多社会问题一样,人们往往可以就什么是错的达成一致,但如何解决这个问题是分歧重重的地方。
"问题不在于是否应该在人工智能中加入道德规范,而在于如何加入,以及由谁来决定......"
参考
36, R. I. T. A. F. (2020, June 4). Wef_global_risk_report_2020. Issuu. 2021年11月30日检索,来自https://issuu.com/revistaitahora/docs/wef_global_risk_report_2020。
ACM公平、问责和透明会议(ACM FACCT)。ACM FAccT. (n.d.). 2021年11月30日检索,来自https://facctconference.org/。
美德经济:大科技中 "道德 "的流通。Taylor & Francis. 2021年11月30日,从https://www.tandfonline.com/doi/full/10.1080/09505431.2021.1990875。
将伦理学纳入人工智能 - Philpapers. (n.d.). 2021年11月30日,从https://philpapers.org/archive/ETZIEI.pdf。