近日,欧盟达成了一项广泛的人工智能(AI)监管协议,谈判代表已经同意对OpenAI旗下的ChatGPT和谷歌旗下的Bard等生成式AI工具进行一系列控制。据悉,来自欧盟委员会、欧洲议会和27个成员国的代表们在12月6日开始的会议上达成了折衷方案,使该集团接近就更广泛的AI法案达成正式协议。
在AI的发展道路上,价值与风险始终并存。尽管未来人工智能将带来更多的科技产品和服务,但同时也存在很大的潜在的风险。这主要体现在:一是人工智能可能会对个人隐私造成侵犯和泄露,甚至被用于监控和追踪;二是由于技术壁垒和巨头企业的优势,人工智能可能会导致市场垄断和不公平竞争,影响市场的竞争公平性;三是一旦出现超级智能,以及出现自我进化和控制的能力失控,可能会对人类产生威胁。
科技狂人马斯克就不止一次呼吁加大对人工智能的监管,甚至认为“在我看来,人工智能比核弹更危险。我们监管核弹。你不能在自家后院制造核弹。”谷歌CEO桑达尔·皮查伊也曾表示,有关人工智能危害的担忧让他“夜不能寐”。而OpenAI CEO奥特曼则建议,全球可能需要一个国际组织来监管AI系统——类似管理核技术的国际原子能机构。
目前,在AI监管上,欧盟在全球走在前列。今年6月,根据欧洲会议的公告,欧洲议会通过了一项名为《AI 法案》的法律草案,议员们以499票赞成、28票反对和93票弃权的结果,确定了会议的协商立场。
这是全世界第一部通过会议程序、专门针对人类智能(特别是AIGC)的综合性立法。这也意味着通过这项监管AI的重要法律迈出了重要一步。在各国决策者努力为这项快速发展的技术设置“护栏”之际,这项法律可能会成为其他国家的模版。
然而,由于欧盟立法本身的复杂性,AI立法仍然面临一些挑战。据悉,欧盟议员在AI法案的关键议题上存在分歧,特别是在对待类似ChatGPT的Foundation Models(基础模型)的规范方面。这也成为12月6日欧盟进行的最终谈判的主要障碍。Foundation Models是一种生成式人工智能系统,例如由OpenAI支持的模型。法国、德国和意大利主张让生成式AI模型自我监管,而其他国家则主张实施更为严格的规则。
据外媒援引一份联合文件称,法国、德国和意大利已就如何监管人工智能达成协议。该协议承诺,仅会监管人工智能的应用而非这门技术本身,同时,会在查明AI应用出现不当行为之后才对其进行制裁。也就是说,德法意三国达成AI监管协议,反对过度限制技术发展。
目前,欧盟达成了人工智能(AI)监管协议,标志着向具有里程碑意义的人工智能政策获批迈出了关键一步,此举为发达国家对生成式AI工具的监管定下基调。