特斯拉机器人(Tesla Bot)的华丽亮相又将人工智能的安全性问题摆上了台面,如何在自动化系统走进城市街道和工厂车间之前对其进行测试和验证成了一个大问题。
在第一轮对人工智能夸张的担忧想法中,主要包括担心它的恶意、可自我复制,以及类似HAL的机器(电影“2001太空漫游”中的超级计算机)最终超越它的创造者或在战场上不受控制地攻击。但自那以后,对人工智能的讨论变得更加务实,更多地聚焦于最受关注的安全性问题上。具体而言,讨论的焦点是,如何让人类操作员在应用场景中信任自主机器系统来改善AI的安全性?尽管这些应用目前还远未达到关键性任务的级别,可能不需要99.999%的可靠性。
汽车行业分析师和EE Times 专栏作家Egil Juliussen指出,监管机构已经迈出了积极的第一步,认识到采用驾驶辅助系统的车辆所造成的AI事故是“碰撞(crash)”,而不是“意外(accident)”。 Juliussen表示,“汽车行业越来越关注‘碰撞’,因为这是某个人的错误或责任。而‘意外’这个词常常让人推辞逃脱责任。”
在一系列关于人工智能安全的政策简报中,乔治城大学安全与新兴技术中心的研究人员在尝试识别出实现安全AI系统的工程要求。
“如今尖端的AI系统在很多方面都很强大,但在某些方面却极度脆弱,”该政策简报的起草人Zachary Arnold和Helen Toner指出。“AI系统往往缺乏很浅显的常识,很容易被愚弄或破坏,并以意想不到和不可预测的方式出现故障。
研究人员总结道,“人们通常很难或不能理解它们为什么会这样,”对不可靠的人工智能系统的信任度“很可能造成可怕的后果”。
和善的特斯拉人形机器人Tesla Bot(图片来源:特斯拉)
核心问题在于了解黑盒AI系统如何运作,或者称之为AI的“可解释性”,就像数学老师要求学生“展示解题过程”一样。
因此,AI研究人员建议成立一个国家AI测试平台,设置参数以确保基于深度学习的人工智能系统的安全。“现在并没有普遍接受的安全AI定义,也没有标准方法来测试真实世界AI系统的意外风险,”Arnold和Toner总结道。
尽管现在已经有经过验证的方法,可以测试用于飞机自动驾驶仪等故障安全应用的早期专家系统,但却没有类似的人工智能方法。“那些方法都不能用于深度学习,”Toner在接受采访时强调。
“当我们开始在某些地方应用这些系统,而错误或故障可能造成非常严重的影响时,我们应当投入更多的精力来开发新的方法,”她补充道。“我们应当有方法可以提前测试AI系统,并确保我们知道它们可以做什么,不能做什么,以及它们何时工作,何时不工作。”
像特斯拉这样的先驱者可能会使用Tesla Bot这样的原型推动人工智能技术的发展。特斯拉首席执行官Elon Musk表示,Tesla Bot原型可能会在明年推出。
在最近的特斯拉AI Day活动期间,Musk宣布了特斯拉机器人计划,他在鼓吹Tesla Autopilot具有“出奇好”的可预测性时,监管机构开始提出质疑,他承认Autopilot可能会产生的意外后果。
但特斯拉机器人“当然是友好的,” Musk保证道。“我们将它设置为处于机械层面,即物理层面,你可以逃离它,”当然这只是个玩笑,“但最大可能是制服它。希望这永远不会发生,但谁知道呢。”
Musk稍稍回避了一下,实际上他也应当这样做。人工智能安全研究人员指出,原因之一是特斯拉机器人和其他一些最近出现的例子都代表了早期的AI机器人尝试。
“人工智能的工程规范实际上并不存在,”乔治城人工智能中心的Toner说。“人工智能没有技术标准,我们想要实现怎样的性能并没有普遍共识,也无法判断我们是否能实现它。”
Toner补充到,人工智能的发展到了一个转折点。“它显然对很多事物都有益处,但到目前为止,大多用于极低风险的任务。问题就在于,我们能否解决人工智能可靠性和可信度方面的挑战,释放其潜能,将之应用于更广阔的高风险应用?
“对我来说,这依然是个问题。”
(参考原文:AI Safety Moves to the Forefront)
责编:Amy Guan
本文为《电子工程专辑》2021年10月刊杂志文章,版权所有,禁止转载。点击申请免费杂志订阅