美国与欧盟被数千英里的大西洋分割开来,它们对人工智能(AI)的监控方式也不同。美国方面的最新变化在1月27日推出——大约是欧盟采取重大举措后七周的时间。
大西洋两岸的风险都很高,在实践中产生的影响与决定入狱判决和挑选谁被雇用一样截然不同。
欧盟的人工智能法案(AIA)已于去年12月6日获得欧盟理事会批准,最早将于今年3月由欧洲议会审议,该法案将根据风险等级制度对人工智能应用、产品与服务进行监控。风险越高,则规定越严格。如果通过,欧盟的AIA将是世界上第一个横向、跨越所有部门与应用的人工智能监管法案。
相比之下,美国没有专门监管人工智能使用的联邦法律,而是依靠现有的法律、蓝图、架构、标准与法规,可以衔接来引导人工智能在使用的道德层面问题。然而,虽然企业与政府能有架构可遵循,而这些架构是自愿的,当人工智能被用来与消费者对抗时,并没有为受到伤害的消费者提供保护。
再新增联邦行动的补救措施后,地方与州政府颁布法律,以解决人工智能在就业方面的偏误,如纽约市与整个加州,以及保险业在科罗拉多州的法律。没有任何提议或颁布的地方法律在新闻媒体上出现,以解决在监狱或监狱判刑中所使用人工智能的问题。然而,根据《纽约时报》的报导,2016年,威斯康星州的一名男子Eric Loomis因与人工智能软件相关的六年监禁判决而起诉该州,但未获胜诉。Loomis认为,他程序的正当权利受到侵犯,因为他无法检查或质疑软件的算法。
“我想表达的是,我们仍然需要依靠联邦政府,”DataRobot全球人工智能伦理学家Haniyeh Mahmoudian告诉《EE Times》。“涉及隐私的事情,几乎每个美国人都有权利,这是联邦政府应该处理的事情。”
NIST信息技术实验室参谋长Elham Tabassi (来源:NIST信息技术实验室)
最新的国家标准已由美国国家标准与技术研究所(NIST)在今年1月27日发布。
NIST的自主性架构主要在帮助总部设在美国的组织管理可能影响美国个人、组织与社会的人工智能风险。该架构透过将可解释性与减轻有害偏见等可信度考虑纳入人工智能产品、服务与系统。
“在短期内,我们想做的是培养信任,”NIST信息技术实验室参谋长Elham Tabassi提到。“而我们透过了解与管理人工智能系统的风险来做到这一点,以便能够帮助维护公民自由与权利,加强安全‘同时’提供创新与创造机会。”
以长远的眼光来看,“我们所谈论的架构是让人工智能团队,无论他们主要是设计、开发还是安排人工智能的人,都能从考虑到风险与影响的角度来思考人工智能,”NIST信息技术实验室研究科学家Reva Schwartz提到。
NIST信息技术实验室研究科学家Reva Schwartz (来源:NIST信息技术实验室)
在NIST的架构发布之前,美国总统Joe Biden领导的白宫在去年10月发布了“人工智能权利法案蓝图”。提出了五项原则,以规范人工智能的使用道德:
- 系统应是安全与有效的;
- 算法与系统不应该有区别性;
- 人们应该受到保护,不受滥用数据行为的影响,并能控制其数据如何被使用;
- 自动化系统应该是透明的;
- 选择不使用人工智能系统而采用人类干预应该是一种选项。
Biden的轻监管方法似乎是直接沿用前任所青睐的轻监管方式。
不要等待立法
律师事务所DLA Piper合伙人Danny Tobey告诉《EE Times》,美国没有人工智能法,因为该技术变化太快,立法者无法将其固定够长的时间,以起草立法。
律师事务所DLA Piper合伙人Danny Tobey (来源:DLA Piper)
“每个人都在提出架构,但很少有人提出实际的规则,你可以围绕这些规则进行规划,”Tobey提到。“我们承诺会有人工智能的权利法案,但我们得到的是一个没有法律效力的‘人工智能权利法案的蓝图’。”
Tobey认为,全球的监管建议围绕着第三方审议与影响评估,用以测试人工智能的应用程序的安全性、非区别性与其他道德人工智能的关键层面。他提到,这些是公司已经可以使用的工具。
他指出:“解决方案是,公司甚至在立法最终确定之前就开始针对这些预期标准来测试人工智能技术,以建立具未来性、合乎人工智能系统,并预测未来的法规。”
在欧盟,至少有一家公司与Tobey的想法一致。位于荷兰的NXP半导体已经制定了自己的人工智能道德新措施。
美国是否需要特定的人工智能法律?
难道美国已经有了保护公众免受人工智能不道德使用的法律?
2022年9月,美国证券交易委员会主席Gary Gensler在麻省理工学院人工智能政策论坛峰会上谈到了这个问题,以探讨部署人工智能政策的挑战。
“透过我们的立法机构,我们经由法律来保护公众,”他提到。“这些法律是安全、健康、投资者保护与促使金融稳定。而这些仍是久经考验的公共政策。”
Gensler并指出,与其认为我们需要一部新的法律,因为我们有一个新的工具——人工智能——立法者与其他人应该关注现有法律的适用方式。
美国证券交易委员会参考了现有的投资者保护法,而银行产业的必然结果是平等信贷机会法案(Equal Credit Opportunity Act);公平住房法(Fair Housing Act)保护人们在申请抵押贷款时不受歧视。
自我监管是答案吗?
Diveplane的领导者想为Biden的蓝图、欧盟的AIA与更多在商业和国防领域提供人工智能驱动的软件开发商。
Diveplane首席执行官Mike Capps (来源:Diveplane)
“这将有助于保护消费者,”Diveplane法律顾问与法务总监Michael Meehan告诉《EE Times》。“人们认为这与公司可能想要的东西相悖。但事实是,大多数公司,包括Diveplane,都希望得到受到指导。”
Meehan指出,政府在人工智能法律或法规中都没有规定“安全港条款”(safe harbors),以减少用户的风险。
安全港条款是法律中的一项规定,在满足某些条件的情况下,给予免于惩罚或责任的保护。例如,如果一个正确的实施、基于实例的人工智能贷款审批系统检测到的错误,可以将此事标记为人工审查。
Diveplane首席执行官Mike Capps也欢迎监管,但他也是该产业自我监管的支持者。
为了说明原因,他举美国的患者隐私法(patient-privacy law)为例。1996年的健康保险可移植性与责任法案(HIPAA)为从医疗记录中清除识别信息的用户提供安全港条款,不幸的是,将其已辨识过的数据库与另一个数据库交叉比对,可以协助找出那些本该匿名人的身份。
这可能是20世纪立法者没有预料到的。“如果你对今天的计算机如何工作设定了一些硬性规定,你就没有能力适应……你写的时候还不存在的技术,”Capps提到。
这种想法促使Diveplane共同创立了数据与信任联盟(Data & Trust Alliance),此为非营利性的联盟,其成员“学习、开发与采用具有信任性的数据与人工智能实际作法”,据其网站所介绍。Capps是该联盟领导委员会的成员,其代表来自NFL、CVS Health与IBM等实体企业。
该组织在制定人工智能的道德标准。“这些规则将继续改变与发展,因为它们需要这样。”Capps说到,“我会把它写入法律吗?不,我肯定不会,但我肯定会把它作为一个案例,提到如何建立一个灵活的系统来尽量减少偏差。”
Mahmoudian提到,随着新数据的出现,欧盟的AIA有重新审查分配给申请风险等级的语言。她表示,这对于像Instagram这样案例是很重要的,例如,Instagram曾经被认为是无害的,但在出现的几年后被证实对青少年的心理健康有负面影响。
(参考原文:EU, U.S. Making Moves to Address Ethics in AI,by Ilene Wolff)