欧盟通过全球首部《人工智能法案》 分级监管体系确立

一、分级监管体系概述

欧盟《人工智能法案》将人工智能系统根据风险等级分为不可接受风险、高风险、有限风险和最小风险四个等级,并分别采取针对性监管方式。这种基于风险分级的监管模式,能根据不同风险等级的人工智能系统精准地配置监管资源,既有效防范了高风险人工智能应用带来的潜在危害,又为低风险的创新型人工智能应用预留了足够的发展空间。

34865970f6b3e837e5550d4af1b5d506.jpeg

二、各风险等级的具体要求

不可接受风险等级

定义‌:对人的健康、安全和基本权利构成明显威胁的人工智能系统。

具体类型‌:包括介入个人潜意识、用于社会评价、实施大规模监控和跟踪的人工智能系统;利用或扭曲弱势群体行为,具有种族、性别或宗教偏见,用于非法活动系统和具有不可预测性和高度危险性的自主武器系统等。

监管措施‌:绝对禁止在欧盟境内使用、禁止将其投放市场和投入服务。

高风险等级

定义‌:对人的健康、安全和基本权利产生较高威胁的人工智能系统。

具体类型‌:包括作为产品或产品安全部件的人工智能系统(如机械、玩具、电梯及其安全组件等),以及涉及生物识别、关键基础设施、教育、就业、公共服务、执法、移民和司法八大关键领域的人工智能系统。

监管措施‌:高风险等级的人工智能系统在投入使用时,应保持足够的透明度,并达到准确稳健的网络安全水平;应建立风险管理系统和进行符合性评估;部署高风险AI系统的组织必须在市场监管机构进行注册,并遵守市场监管机构的监督和审查。

有限风险等级

定义‌:对人的健康、安全和基本权利产生较低威胁的人工智能系统。

具体类型‌:主要包括与自然人存在互动的人工智能系统,可以生成图像、音频、视频等内容的人工智能系统,情感识别系统和生物特征分类系统四种类型。

监管措施‌:主要通过透明度规则来进行约束,如提供者需要确保自然人知道其正在与人工智能进行互动,并告知自然人与之接触的人工智能系统的运行情况。

最小风险等级

定义‌:对人的健康、安全和基本权利不构成威胁的人工智能系统。

具体类型‌:通常应用于简单的智能生活辅助领域,如语音助手、智能推荐等。

监管措施‌:不对其作义务方面的规定,但鼓励有限风险等级和最小风险等级人工智能系统的提供者自愿遵守针对高风险等级的人工智能系统的规定。

三、监管主体与职责

欧盟层面‌:包括欧盟委员会和人工智能委员会,有权确定人工智能系统是否具有风险,发布并更新具有系统性风险的通用人工智能模型清单,对存在系统性风险的通用人工智能模型的提供者采取具有约束力的措施等。

成员国层面‌:包括通报机构、符合性评定机构、市场监管机构、司法机关和认证机构,负责评估和监督符合性评定机构对人工智能系统的测试、认证和检验工作,向符合性评定机构颁发认证证书等。

四、实施时间表与处罚措施

实施时间表‌:该法案于2024年7月12日发布于《欧盟官方公报》,并于2024年8月1日正式生效。法案将分阶段实施,某些规则将在该法律通过6个月后或12个月后生效,而大部分规则将于2026年8月2日开始生效。

处罚措施‌:对违规行为处以重罚,最高可达3500万欧元或涉案公司全球总营业额的7%。

欧盟为何制定《人工智能法案》?

、保障公民基本权利

随着人工智能技术的迅猛发展和广泛应用,其创作过程的不可解释性、输出结果的不确定性和不稳定性,以及系统安全性的难以评估等问题日益凸显。未经监管的人工智能系统可能带来滥用风险,以及个人隐私泄露、算法歧视等问题。因此,欧盟出于保护公民基本权利的需要,制定了《人工智能法案》。

该法案禁止了一些对用户基本权利构成明显威胁的人工智能系统,如试图操纵人类行为、利用人性弱点或支持政府社会评分的人工智能系统等。

二、推动人工智能创新与发展

欧盟在制定《人工智能法案》时,不仅注重监管,还鼓励相关技术的创新与发展。法案为整个人工智能产业链上的相关方提供了一个合规义务框架,以规范人工智能的开发和使用,同时保持欧洲在人工智能领域的竞争力。

法案还提出了对于包括初创企业在内的中小企业的支持创新措施,如AI监管沙箱等,为开发、测试和验证创新的AI系统提供受控环境。

三、争夺国际治理话语权

欧盟作为全球重要的经济体和科技中心,在人工智能领域也具有重要影响力。通过制定《人工智能法案》,欧盟旨在为全球人工智能行业监管治理提供样本,争夺国际治理话语权。

该法案的实施将对全球人工智能治理和监管格局产生深远影响,甚至可能为全球AI治理建立新的标准。

四、应对人工智能带来的风险与挑战

人工智能技术的发展带来了诸多风险与挑战,如失业、不平等、就业歧视、社会排斥、不知情的监督和操纵等。欧盟通过制定《人工智能法案》,旨在降低使用人工智能系统给人类带来的风险,确保人工智能技术的安全、可靠和负责任使用。

法案对不同人工智能的风险程度进行分级并采取不同的监管措施,将人工智能的风险等级区分为不可接受的风险、高风险、有限风险、低或轻微风险,其中前三类将受到法案的监管。