在全球人工智能(AI)竞争持续升温的背景下,欧盟内部有关AI监管的质疑不断增多。4月19日,德国总理默茨在汉诺威工业博览会上,将现行的欧盟AI智能监管框架描述为一套“过于狭窄的紧身衣”,他直言欧盟当前AI监管“过于严格”,应当为工业领域AI应用提供更宽松环境,以提升效率和竞争力。无独有偶,瑞典首相克里斯特松此前亦公开批评欧盟AI规则“复杂且难以执行”,呼吁欧盟暂停或调整实施节奏,以避免拖累产业发展。这些表态得到了欧洲工业界的广泛支持。包括西门子在内的诸多欧洲企业高管指出,目前的欧盟AI规则会将投资推向美国等监管环境更宽松的地区。
在此背景下,最新政策动向显示,欧盟人工智能的监管路径正在经历一轮实质性的再评估:在不放弃风险控制原则的前提下,逐步向“降低监管负担、强化产业竞争力”的方向悄然转变。
这一转向首先体现在监管节奏的调整上。作为欧盟AI监管核心的人工智能法案,虽然已于2024年通过,并计划在前后逐步实施,但进入以来,欧盟内部对于其执行节奏的讨论明显升温。当前,欧盟决策者正在考虑延后部分“高风险AI系统”的合规义务,将实施时间推迟至2027年前后,同时对监管沙盒等机制的落地节奏进行重新安排。此外,针对技术文档、透明度披露以及风险评估等方面的要求,欧盟也有意进行适度简化,以降低企业尤其是中小企业的合规负担。分析人士表示,这背后的核心逻辑在于,监管推进的速度不应明显快于产业发展,否则可能抑制技术创新与商业化进程。
更深层次的变化来自立法结构本身的重构。欧盟此前提出的AI责任单独立法路径已经被放弃,取而代之的是一个更为简化的制度框架:一方面,以人工智能法案为代表的前端监管体系,通过风险分级与合规义务对AI系统进行事前约束;另一方面,则通过产品责任指令,将软件与AI纳入“产品”范畴,在损害发生后提供责任追究与赔偿机制。这种“前端合规+后端责任”的双支柱结构,意味着欧盟在AI责任问题上不再追求新增复杂立法,而是倾向于通过现有法律体系的扩展来实现监管目标,从而降低制度重叠与法律不确定性。
对比而言,在早期欧盟AI监管阶段,欧盟以“可信AI”为核心目标,强调通过严格规则降低风险、保护隐私与基本权利;去年以来,欧盟政策重心开始转向在风险可控的前提下促进创新与产业发展。有评论人士表示,当下,欧盟不再单纯追求“全球最严格监管者”的定位,而是试图在规范与发展之间寻找更具现实性的平衡点。
专家表示,欧盟AI监管路径的再调整,将会带来多重影响。首先,随着合规成本预期下降,欧洲科技企业的盈利前景有望得到一定修复,从而对估值形成支撑;其次,如果监管环境趋于友好,欧洲在全球AI投资版图中的吸引力或将有所提升;再次,欧盟监管模式的变化,也可能对其他地区产生示范效应,推动全球AI治理从“刚性规则”向“弹性框架”演进。但与此同时,欧盟AI监管放松同样可能带来新的风险争议,尤其是在数据安全、算法歧视与责任界定等领域,相关讨论仍将持续。
汇盈策略提示:文章来自网络,不代表本站观点。