数年前,欧盟对AI技术的态度主要以严格监管为主,但自2023年以来,其在人工智能领域的政策风向发生显著转变。
近日,欧盟委员会主席冯德莱恩在巴黎人工智能峰会上宣布了2000亿欧元的AI投资计划,强调欧洲需要在AI领域追赶美国和中国,并希望通过大规模资金投入和技术布局,成为全球AI发展的领先地区。
在加大投资的同时,欧盟也将通过放松规则来吸引更多投资和创新。2月14日,欧盟数字主管Henna Virkkunen表示,欧盟希望在应用人工智能规则时“帮助和支持”公司,而推动放松管制是出于欧盟自身增强竞争力的雄心而不是“依赖于美国”。

当前,人工智能被视为未来经济增长的关键驱动力。面对中美在AI竞赛中的强势地位,欧盟近年来开始改变此前以严格监管为主的策略,推出系列政策松绑措施,试图通过简化规则、加大投资、激活数据资源等方式,重振本土人工智能产业竞争力。
从“守门人”向“助推者”的角色转变,欧盟正试图利用AI技术推进欧洲科技复兴,更进一步重塑全球AI治理格局。
欧盟AI监管政策正在转向
此前,欧盟对人工智能(AI)进行严格监管,主要缘于AI技术的快速发展可能带来隐私侵犯、算法歧视、就业市场冲击等风险。因此,欧盟采取了以风险为基础的监管方法,优先保护公民的基本权利和价值观。
长期以来,欧盟以《通用数据保护条例》(GDPR)和《数字市场法案》等严格法规闻名,但在人工智能领域,严苛的合规门槛导致大量初创企业外流。
2023年,欧盟通过制定全球首部全面监管AI的法律——《人工智能法案》,试图在全球范围内树立高标准。该法案不仅适用于欧盟内部,还要求在欧盟境内运营的国际公司遵守相关规定。这种做法体现了欧盟在全球AI治理中的领导地位,并试图通过严格的监管框架推动全球AI技术的健康发展。
欧盟认为,AI技术可能被滥用,尤其是在高风险领域,如社会评分系统和生物特征识别系统。高风险的AI系统,如在医疗、交通、就业等关键领域应用的系统,将面临更为严格的监管要求,包括需要进行风险评估、确保数据质量和透明度等。这种严格的监管措施反映了欧盟对社会公平和公民权利的高度重视,试图在AI技术的创新和应用与社会的稳定和可持续发展之间找到一个平衡点。
为此,欧盟引入了特别监管措施,要求相关企业承担更高的责任义务。同时,欧盟也关注AI技术对市场垄断的影响,比如对大型科技公司(如谷歌和OpenAI)的审查。
当然,欧盟的严格监管政策也引发了国际争议。一些国家认为欧盟的监管过于严格,可能阻碍AI技术的全球发展。在近日的巴黎人工智能峰会上,美国副总统猛烈抨击了欧盟“过于繁重的国际监管”规则,特别是针对科技巨头的部分条款。
但实际上,欧盟《人工智能法案》在很大程度上标志着其在AI技术发展与监管上发生重大转折。特别该法案三大核心内容支持了这一转变:
一是分级监管取代“一刀切”。高风险AI系统(如医疗、司法)仍受严格审查,但通用AI和低风险应用的开发门槛大幅降低,企业可自主选择伦理审查程序。
二是沙盒机制激活创新。在法国、德国等成员国建立监管沙盒,允许企业在受控环境中测试自动驾驶、生成式AI等前沿技术,测试期违规行为可豁免处罚。
三是百亿欧元基金落地。“数字欧洲计划”追加45亿欧元AI专项基金,重点支持芯片制造、边缘计算等基础设施,弥补欧盟在算力领域的短板。
进一步AI技术发展“松绑”
相对于欧盟,美国在AI技术发展更加“开放”,更注重支持行业的快速发展。比如,美国通过《2023年人工智能促进法案》等政策,推动AI技术的创新和应用,同时减少对企业的繁琐合规要求。
2025年1月20日,特朗普就任美国总统后,更是进一步废止前总统拜登要求为人工智能企业制定监管规则的行政令。1月21日,他又宣布,美国开放人工智能研究中心、日本软银集团和美国甲骨文公司将共同推进“星际之门”项目,今后4年将投资5000亿美元,在美国建设数据中心,以支持人工智能发展。
正是宽松的AI政策以及美国科技巨头推动,美国在美国在全球人工智能生态系统中处于领先地位。根据斯坦福人文中心人工智能研究所(Stanford HAI)发布的一份报告,美国、中国和英国在全球人工智能发展潜力排名中位居前三。
目前,欧盟在人工智能领域落后于美国和中国,尤其是在AI技术应用、初创企业数量以及相关基础设施建设方面。为此,欧盟将采取一系列措施,缩小与中美之间在AI技术发展上的差距。
在巴黎人工智能峰会上,欧盟委员会推出了“InvestAI计划”,计划通过公共和私人投资增加资金支持,总额达到2000亿欧元。此外,欧盟还计划设立新欧洲基金,用于建设高计算能力的人工智能超级工厂。这些举措表明欧盟希望通过政策和资金支持来加速AI技术的发展。
除了加大投资之外,欧盟也将为AI技术监管“松绑”。法国总统马克龙和欧洲联盟高级官员在法国巴黎人工智能行动峰会上就表示,欧盟将放松对人工智能技术开发的监管,以助其在欧盟地区蓬勃发展。
Henna Virkkunen也表示,欧盟希望在实施人工智能相关法规时能够支持企业的发展,特别是在提升竞争力的同时,确保不会错失这一技术的机会,“我们有太多重叠的监管。我们将减少繁文缛节和行业的行政负担。”她还强调,欧盟必须确保不会增加更多的报告义务,给企业带来负担。
值得一提的是,欧盟《人工智能法案》此前仍然对涉及医学或公共交通领域等高风险AI应用进行严格监管,即风险类别越高,企业需要承担的报告义务就越大。不过,欧盟委员会近日已经宣布,撤回原本计划中的AI责任指令。这是“更广泛放松管制”的举措的一部分。
Henna Virkkunen也提到,预计将在四月发布的AI行为规范将严格限制报告要求,仅涉及现有法规所规定的内容。
AI监管和发展的平衡点
从进行严格的监管措施,到给AI技术发展不断松绑,欧盟的目标并非限制AI的发展,而是通过规范性措施促进技术创新与社会稳定的平衡。
实际上,欧盟拥有强大的资源,包括快速成长的AI初创企业、大学和研究中心,具备高质量教育、优秀研究者和坚实的科学基础,为AI创业和创新生态系统的发展提供了有利条件。欧盟也注重AI领域的教育和人才培养,通过建立数字教育生态系统和提供技能培训,提升公民的数字技能。
然而,尽管欧盟拥有全球最完整的工业数据库和医疗数据资源等,但碎片化的数据主权体系长期制约其价值释放。随着AI技术的普及,隐私保护、数据安全和伦理问题成为重大挑战。欧盟虽然通过《人工智能法案》加强了对这些问题的监管,但如何平衡技术创新与伦理责任仍需进一步探索。
同时,欧盟在AI技术开发中面临数据集中化的问题,许多研究和应用集中在少数大型科技公司手中,这可能导致市场垄断和创新机会的不平等。
此外,欧盟在AI领域的竞争压力来自美国、中国等国家和地区。这些国家或地区在AI技术的研发和应用上具有较强的优势,而欧盟需要通过加强合作和创新来缩小差距。
值得关注的是,欧盟在放松技术管制的同时,并未放弃“伦理优先”的核心理念。Henna Virkkunen就表示,欧盟没有计划削弱其网络平台规则的执行,这些规则正在发挥作用,以确保公平的竞争环境。
从以上表述可以看出,欧盟正在尝试开辟不同于中美的发展模式:既不效仿美国完全市场化,也不照搬中国的国家主导,而是试图通过“监管赋能创新”找到平衡点。
如果欧盟能成功证明“严格伦理框架与技术创新可共生”,或将催生AI治理的欧洲范式,即“让欧盟AI列车既能高速行驶又不脱轨的智能轨道系统”。
