据国际媒体综合报道,面对人工智能(AI)技术快速进步带来的各种风险和挑战,欧盟官方于当地时间周五取得了一项具有深远影响的临时协议——《人工智能法案》(AI Act),这被认为是迄今欧洲乃至全球范围内最为全面的AI监管框架。
这一里程碑式的法案,是欧盟对AI领域的最新监管动作,旨在确立对AI技术及其广泛应用的规范性指导原则。欧盟内部市场主管Thierry Breton表示,得益于欧洲委员会、欧洲议会和27个成员国的共同努力和协调,双方已就这项法案达成共识。根据协议,将对生成式AI工具如ChatGPT、Bard等按指令生成内容的技术进行严格的管控。
这项政策的提出,不仅体现了欧盟对于AI在教育、就业、医疗保健等领域应用的深刻关注,也预示着AI技术的未来发展将被归入不同的风险类别进行管理。具体来说,将把AI应用分为四个类别:最小风险、有限风险、高风险以及禁止类别。其中,对权力滥用或侵犯个人隐私权的AI应用,如面部识别技术,将被明令禁止;而与人们生活息息相关的关键基础设施、法律和就业等领域的AI应用,将被列为高风险类别,受到更为严格的监管。
欧盟委员会强调,这份《人工智能法案》的核心理念在于确保AI技术的发展必须服务于人类,其设计和运用应当遵循“以人为本”的原则。这意味着任何进入欧盟市场或影响欧盟公民的AI产品和服务都将被要求确保安全性、合规性。
值得注意的是,尽管这一立法草案已经在欧盟官方层面取得了突破性进展,但其正式生效还需经过欧洲议会和各成员国的审批程序。此外,实施过程中如何确保监管措施得到有效执行,以及如何在保护公众利益的同时,不影响AI技术创新发展,也将是始终贯穿其中的关键问题。
尽管还面临着众多的挑战和未知因素,但欧洲此番在全球舞台上就AI治理展开的主动和前瞻性措施,无疑将为未来全球AI监管体系的构建,提供有益的参考和可能的范本。随着AI技术变得越来越复杂和普及,如何在保护消费者权利、个人隐私和社会安全的前提下,制定合适的规则和标准,确保技术的可持续发展,这是摆在全球许多国家和地区面前共同的挑战。而欧盟这一新的政策举措,显然是在AI伦理和治理问题上迈出的重要一步。