人工智能(AI)产业已经响应了来自「生命未来学院」(Future of Life Institute)由多位AI学者与科技产业界重量级人物所签署、要求暂停训练比GPT-4更强大AI系统6个月的公开信;签署该公开信的包括图灵奖(Turing Award)得主Yoshua Bengio、美国加州大学伯克利分校(UC Berkeley)计算机科学教授Stuart Russell等知名AI学者,还有Apple共同创办人Steve Wozniak,以及Twitter首席执行官Elon Musk。
“这样的暂停应该是公开、可验证的,而且包括所有关键参与者;”该公开信指出:“如果暂停不能迅速实施,政府部门应该要介入并执行。”在信中,专家们针对像是OpenAI的ChatGPT等GPT-4引擎AI代理人(agent)在近期被炒热的强大功能带来的阴影提出忧虑,包括AI可能“以宣传性或不实内容淹没信息通路”、“让包括能实现个人抱负的各种职业被自动化取代”,以及“使得人类丧失对文明控制权的风险”。
“此种决策不能委托给由未经选拔的科技领导者,”该公开信也提及:“功能强大的AI系统应该只能在我们确信其效应是正面的、风险是可控的情况下才能被开发。”
开发强大AI系统须确保风险可控?
上述公开信签署者之一、美国加州大学伯克利分校教授Stuart Russell在一篇投稿《The Observer》(EETT编按:一家英国媒体)的文章中写道:“核心问题在于无论OpenAI或是其他任何人,实际上都不知道GPT-4是如何运作。”
“有理智的人应该会认为,在全球大规模部署一套根据未知内部原则运作的系统是不负责任的,这显示‘通用人工智能’(artificial general intelligence,AGI)的火花,而且可能会或不会追求其内在目标;”Russell引述了一篇微软(Microsoft)所发表、标题带有挑衅意味的论文“Sparks of Artificial General Intelligence: Early experiments with GPT-4”,指出GPT-4“可以合理地被视为是AGI系统的初期(仍不完整)版本。”
Russell进一步指出,OpenAI自己的测试都显示,GPT-4可能会刻意欺骗人类,以通过被设计用来阻挡机器人程序的图片验证测试(captcha test)。而根据他的说明,要求暂停开发的提议,基本想法是认为在开发者能证明他们不会导致不当风险之前,该类系统不应该被发表。
其实是“吃不到葡萄才说葡萄酸”?
AI加速器芯片新创公司Cerebras首席执行官Andrew Feldman则在接受《EE Times》访问时表示,若不考虑签署者的利益以及质疑他们的动机,很难读懂那封公开信。“公开信呼吁暂停开发超过某个特定大小的模型…这或许是个好主意,但很难解析出自我利益;”他指出:“拥有最大规模网络的人不会签署那封信,没有的才会是最忧虑的。”
“他们的忧虑很合理,但不幸的是,看起来是那些没有尖端技术的人在说,‘嘿,让我们停火并且把所有供应物资搬到前线去吧!’…”Feldman补充,人们需要决定像是ChatGPT这样的AI应用程序,是否应该要被列为被监管的类别──它应该被像是飞机那样被美国联邦航空管理局(FAA)管辖,还是更接近不应该被限制的书籍与信息?
“这些都是不恰当的比喻,因为没有好的例子…”他认为:“但从社会的层面我们必须决定它该怎么归属;这个决定应该要公开做出──但不该透过公开信的形式──而且应该包括那些有能力成为最大的人,以及那些对所造成之冲击有最深刻忧虑的人。”
而Feldman虽然认为OpenAI的团队“是非凡且深思熟虑的科学家,”他也警告,让这些公司自己监督自己的产品是错误的做法;“对该封公开信之目的,一个愤世嫉俗想法是,这些是真的真的很聪明的人,他们知道公开信不会做任何事,除了可能开启对话,以及发动监管。”
学界与科技产业界的重量级人物签署了一封公开信,呼吁暂停开发比GPT-4与ChatGPT更强大系统六个月的时间。
(来源:Shutterstock)
AI不同于散播传染病的病毒
Google Brain专案(EETT编按:2011年在Google AI旗下成立的项目,后来该团队在2023年并入由Google收购的DeepMind)共同发起人、目前兼任美国史丹佛大学(Stanford University)教授的吴恩达(Andrew Ng),以及图灵奖(Turing Award)得主、Facebook母公司Meta首席AI科学家Yann LeCun则是透过一场在线对谈做出回应。
吴恩达与LeCun都没有签署暂停先进AI开发的公开信,也不支持该呼吁,但他们终究还是认为需要恰当的监管。LeCun的看法是:“呼吁延迟技术开发在本质上有种新一波愚民政策(obscurantism)的味道──为何要放慢知识与科学进步的速度?”
“然后是产品的问题,”LeCun指出:“我完全赞成需要监管人们可拿到手上的产品,但我不懂监管研发的意义何在,我不认为这能满足任何目的,只是降低我们实际上可以用来让科技更好、更安全的知识。”
他将该公开信比喻为15世纪时对天主教廷对印刷机发明的反应,而虽然天主教廷是对的,该技术确实“颠覆社会”并导致持续数百年的宗教战争,它也催生了现代科学、理性主义及民主。“当一种像这样的新技术就定位,我们需要做的是确保其优势与正面效应的最大化,以及负面影响的最小化;这并不一定表示需要停止它。”
吴恩达则以一个更广为人知的类似案例,将暂停大型语言模型开发6个月的呼吁,与1975年在美国加州Asilomar举行之一场生物学会议对重组DNA (recombinant DNA)技术研发原则的决策进行比较;在该场会议上,生物学界建立了约束机制,以避免先进技术的开发导致潜逃病毒可能传播的风险。
“在我看来这并不是一个很好的比喻,”吴恩达表示:“理由是我并不认为有任何‘AI潜逃’的实际风险,那与传染性病毒的逃逸是不同的。AI的逃逸不只可能意味着我们将实现AGI──这需要花费数十年时间──也代表AGI的狡猾与聪明胜过不希望AI伤害甚至杀害人类的数十亿人,那会是几十年、几个世纪或更长时间都不太可能发生的情境。”
LeCun猜测公开信签署者的动机,有些人是真心忧虑AGI的启动将在短时间内消灭人类,但更理智的人们是认为存在着需要处理的伤害与危险。“直到我们能绘制出至少有机会达到人类智能的某种系统蓝图之前,对于如何确保它们是安全的讨论,我认为是为时过早;因为在车子根本不存在时,你如何能设计出安全带?”他指出:“有一些问题是为时过早,而我想那些对未来的恐慌是有一点被误导了。”
而吴恩达还表示,暂停开发6个月一个最大的问题是可能无法实施;“我感觉有些事情是可行,举例来说,呼吁我们该做更多事情来安全地研究AI,或是更透明化、可审计,建立更多像是美国国家科学基金会(NSF)的公共资金来资助AI的基础研究──这些都是具建设性的提案。”
“唯一比要求AI实验室放慢研发速度更糟糕的,会是政府部门介入推动立法来暂停AI开发,这会是真正可怕的创新政策;”他指出:“我无法想象政府部门藉由通过法案来减缓技术演进速度会是好注意,而且该技术甚至是政府部门并不完全了解的。”
(参考原文:AI Industry Responds to Call for Pause on AI Development,by Sally Ward-Foxton)