8月1日,欧盟《人工智能法案》正式生效。该法案是全球首部全面监管人工智能的法规,标志着欧盟在规范快速发展的人工智能应用方面迈出了重要一步。
该法案旨在通过风险导向的方法对人工智能系统进行分类和管理,确保其安全性和透明度,并保护基本权利和民主制度。根据这项法案,所有人工智能系统,包括聊天机器人,都必须清楚地告知用户他们正在与一个AI系统进行交互。
同时,AI技术供应商有责任确保由人工智能合成的音频、视频、文本和图像能够被识别为AI生成。法案还明确禁止使用那些可能明显威胁用户基本权利的人工智能系统。
此外,法案还规定了高风险人工智能系统的特别要求,包括在上市前进行严格评估和持续监测。
据悉,欧盟《人工智能法案》基于风险预防的理念,为人工智能制定了一套覆盖全过程的风险规制体系。该法案采用风险分级的管理措施,将人工智能系统的风险划分为不可接受的风险、高风险、有限风险和轻微风险四种类型,并针对不同类型施加了不同的监管措施。
比如,高风险人工智能系统在投放市场之前将受到严格的义务约束,包括透明度要求、数据治理、准确性、鲁棒性和网络安全等方面的规定。例如,生成式基础模型如GPT必须有充分的保障措施以确保其符合欧盟法律,并且在文本是AI生成的情况下必须进行披露。
法案还明确禁止使用那些可能明显威胁用户基本权利的人工智能系统。这类风险的人工智能系统将被禁止使用。任何违反此规定的活动都将受到严厉的法律制裁。
值得注意的是,尽管某些条款将在两年内全面适用,但其中一些将更早实施。例如,学校和工作场所不得使用实时情绪识别系统,并且聊天机器人等人工智能系统必须明确告知用户他们在与机器互动。
欧盟作为全球首部全面监管人工智能的法律,其影响力不仅限于欧洲内部,还可能对全球范围内的AI企业产生重大影响。这包括谷歌、OpenAI等公司,它们需要适应新的合规要求和标准,从而推动全球人工智能产业向更高水平的规范化发展。
因此,欧盟《人工智能法案》的生效不仅为人工智能的发展提供了法律框架,也为其他国家和地区的监管提供了参考。