在快速发展的技术背景下,欧盟正在采取一项历史性举措:推出革命性的人工智能法案(我会将您链接到文本)。这一新的监管框架预计将于 2024 年进行投票,旨在为包括 OpenAI 等在内的人工智能开发者建立新的安全性和透明度全球标准。为了平衡创新和基本权利,《人工智能法案》可能成为全球人工智能监管的一个重大转折点。
《人工智能法案》代表什么?
如前所述,《人工智能法案》是欧盟技术政策的一个转折点,因为它为人工智能的安全性和透明度引入了全面的框架。
经过超过36个小时(实际时间)的激烈讨论,欧盟官员最终敲定了一套指导方针,这是目前全球最严格的。该法案为欧洲在人工智能监管领域树立了榜样。
新的人工智能法案有哪些要点?
AI法案的核心是AI工具和应用的分类 分为三个“风险类别”。 风险最高的人工智能面临着严格的监管审查。 其中包括自动驾驶汽车、关键基础设施工具、医疗设备和生物识别系统。
这些“高风险”系统将需要进行基本权利影响评估、严格的透明度要求,并且需要在欧盟公共数据库中注册。
禁止和制裁
除了定义风险类别外,《人工智能法案》还明确禁止人工智能的某些用途。其中,实时人脸识别(一段时间以来追求的目标)、情感识别和“社会信用”系统被禁止。
美国主要科技公司(如 OpenAI 和谷歌)运营“通用人工智能系统”,将必须遵守欧盟实施的新标准。其中包括更新欧盟当局的模型培训方法以及制定遵守欧盟版权法的政策。
违反这些规则的科技公司可能会面临巨额罚款,具体情况各不相同 占其总营业额的 1,5% 至 7%。 很多? 小的? 足以劝阻,还是不劝阻? 目前,这些问题注定仍然没有答案。
这里出现了疑问
尽管得到广泛支持,《人工智能法案》还是引起了欧洲隐私专家的担忧。一些人认为,与 GDPR 等之前的方法相比,该框架很少强调基本人权。再次强调:人们担心基于风险的方法可能无法全面了解看似低风险的人工智能工具的未来影响。
在 2024 年最终投票(或许还有一些变化)之前,这项规定对人工智能领域的影响仍然是一个猜测的话题。人工智能的快速发展对其应用和长期有效性提出了重大挑战。
尽管如此,《人工智能法案》代表了欧盟在技术创新与保护基本权利之间实现复杂平衡的雄心勃勃且值得称赞的尝试。尽管路径仍不确定,但《人工智能法案》可以作为全球人工智能监管的典范,对技术和社会的未来产生重大影响。