谈判激烈,欧盟达成协议:禁止使用
财经
财经 > 财经资讯 > 正文

谈判激烈,欧盟达成协议:禁止使用

作 者丨肖潇

编 辑丨王俊

图 源丨视觉中国

经过历时3天的激烈谈判,当地时间12月8日,欧洲议会、欧盟成员国和欧盟委员会三方就《人工智能法案》(下称《法案》)达成了临时协议,该法案预计会成为世界上第一部全面监管人工智能的法规。

该法案按照不同的风险类别为人工智能技术应用进行了分类,其中对人类安全具有不可接受的风险的人工智能系统将被禁止使用。

根据欧洲议会发布的新闻稿,临时协议主要达成了三点共识:

第一,明确了被归类为高风险的人工智能系统的义务,且提出公民应该有权提出投诉,并有权获得有意义的解释;

第二,一致认为通用型人工智能系统和模型(General Purpose AI;GPAI)必须保持透明度,包括创建技术文档和“有关训练内容的详细摘要”。对于具有高风险的GPAI,必须满足包括风险评估、对抗性测试的一系列更加严格的标准;

第三,就在公共场所出于执法目的使用生物特征识别系统,达成了执法豁免的例外情况和保障措施。

新闻稿还透露了罚款框架。

罚款将根据违规行为和公司规模裁定,范围从 3500 万欧元或全球收入的 7% ,到 750万欧元或全球营业额的1.5%。完整协议目前并未公开,谈判还将在幕后完善技术细节。

该份《法案》是全球第一部对人工智能的全面监管法规,于2021年4月首次提出,今年6月获欧洲议会高票通过,进入欧洲议会、欧盟成员国、欧盟委员会的三方谈判环节。

此前通过的《法案》采取了四类风险等级分类的方法,对不同风险的人工智能系统采取不同的限制措施和义务,并规定了严格的前置审查程序和合规义务。不过根据21记者的此前报道,如何监管如ChatGPT这样的基础人工智能模型,内部始终存在很大分歧。外媒透露,在周五宣布之前,谈判一直未达成共识,导致新闻发布会迟迟未召开。

自从去年发布的ChatGPT引起人工智能潮流,监管行动变得紧迫,各国政府都在寻找发展和安全的平衡。拜登政府于今年10月发布了一项行政命令,重点关注人工智能对国家安全的影响。欧洲将自己定位为“全球标准制定者角色”,旨在获得监管领域的先锋地位。

《法案》临时协议的达成,标志着欧盟在人工智能监管方面迈出了关键一步,可能为全球人工智能的监管方式定下基调。接下来会开展更多谈判来敲定技术细节,包括议会内部市场委员会和公民自由委员会的投票。《法案》预计在今年年底通过,最早在2025年生效。

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载