首页 > AI > AI资讯> 正文

欧盟在加强人工智能立法意味着什么?

zhangxinxin 责任编辑:wangkeyue 发布于:2024-02-23 09:59

欧盟国家准备通过世界上首套全面的法律来规范人工智能(AI)。《欧盟人工智能法案》对风险最高的人工智能模型制定了最严格的规则,旨在确保人工智能系统的安全,并尊重基本权利和欧盟价值观。

加州斯坦福大学(Stanford University)研究人工智能社会影响的Rishi Bommasani表示:“就塑造我们对人工智能监管的看法和树立先例而言,这项法案意义重大。”

这项立法出台之际,人工智能发展迅速。预计今年将推出新版本的生成式人工智能模型——比如GPT,它为加利福尼亚州旧金山的OpenAI开发的ChatGPT提供动力——现有的系统正在被用于诈骗和传播错误信息。中国已经在使用一系列法律来指导人工智能的商业用途,美国的监管也在进行中。去年10月,乔·拜登总统签署了美国第一个人工智能行政命令,要求联邦机构采取行动管理人工智能的风险。

欧盟各国政府于2月2日批准了这项立法,现在这项法律需要得到欧盟三大立法机构之一的欧洲议会的最终批准;预计这将在4月份发生。如政策观察人士预计的那样,如果文本保持不变,该法律将于2026年生效。

一些研究人员对该法案表示欢迎,因为它有可能鼓励开放科学,而另一些人则担心它可能会扼杀创新。《自然》杂志探讨了这项法律将如何影响研究。

欧盟的做法是什么?

欧盟选择根据人工智能模型的潜在风险对其进行监管,对风险较高的应用实施更严格的规则,并对通用人工智能模型(如GPT)制定单独的法规,这些模型具有广泛且不可预测的用途。

该法律禁止带有“不可接受风险”的人工智能系统,例如那些使用生物识别数据推断敏感特征(如人们的性取向)的系统。高风险应用,如在招聘和执法中使用人工智能,必须履行某些义务;例如,开发人员必须证明他们的模型是安全的、透明的、对用户可解释的,并且他们遵守隐私规则,不歧视用户。对于低风险的人工智能工具,开发人员仍然需要告诉用户何时与人工智能生成的内容进行交互。该法律适用于在欧盟运营的模特,任何违反该规定的公司都有可能面临高达其全球年利润7%的罚款。

“我认为这是一个很好的方法,”Dirk Hovy说,他是意大利米兰博科尼大学的计算机科学家。他说,人工智能已经迅速变得强大和无处不在。“建立一个框架来指导它的使用和发展是绝对有意义的。”

柏林非营利组织AlgorithmWatch的政治学家Kilian Vieth-Ditlmann表示,一些人认为这些法律做得不够,给军事和国家安全目的留下了“空白”豁免,也给人工智能在执法和移民方面的应用留下了漏洞。AlgorithmWatch是一家研究自动化对社会影响的组织。

它会对研究人员产生多大影响?

理论上,非常少。去年,欧洲议会在法案草案中增加了一项条款,该条款将豁免纯粹为研究、开发或原型而开发的人工智能模型。在柏林赫蒂学院(Hertie School)研究人工智能及其监管的Joanna Bryson表示,欧盟一直在努力确保该法案不会对研究产生负面影响。“他们真的不想切断创新,所以如果这将成为一个问题,我会感到震惊。”

但该法案仍有可能产生影响,通过使研究人员考虑透明度,他们如何报告他们的模型和潜在的偏见,Hovy说。他说:“我认为它会过滤并促进良好的实践。”

Robert Kaczmarczyk是德国慕尼黑工业大学的内科医生,也是非盈利组织LAION(大规模人工智能开放网络)的联合创始人,担心这项法律可能会阻碍推动研究的小公司,这些公司可能需要建立内部结构来遵守法律。“作为一家小公司,适应环境真的很难,”他表示。

这对于像GPT这样强大的模型意味着什么?

经过激烈的辩论,政策制定者选择将功能强大的通用模型——比如生成图像、代码和视频的生成模型——纳入自己的两层分类。

第一层涵盖了所有通用模型,除了那些仅用于研究或在开源许可下发布的模型。这些将受到透明度要求的约束,包括详细说明他们的训练方法和能源消耗,并且必须表明他们尊重版权法。

第二层更为严格,将涵盖被认为具有“高影响能力”的通用模型,这些模型会带来更高的“系统性风险”。Bommasani说,这些模型将受到“一些相当重要的义务”的约束,包括严格的安全测试和网络安全检查。开发者将被要求发布他们的架构和数据源的细节。

对于欧盟来说,“大”实际上等于危险:任何在训练中使用超过1025个FLOPs(计算机操作次数)的模型都被认为是高影响。Bommasani说,训练一个具有如此计算能力的模型需要花费5000万到1亿美元,所以这是一个很高的门槛。它应该捕获像GPT-4(OpenAI目前的模型)这样的模型,并可能包括Meta的开源竞争对手LLaMA的未来迭代。这一层的开源模型受到监管,尽管仅用于研究的模型不受监管。

一些科学家反对监管人工智能模型,他们更愿意关注它们的使用方式。“更聪明、更有能力并不意味着伤害更大,”德国利希超级计算中心(Jülich Supercomputing Centre,JSC)的人工智能研究员、LAION的另一位联合创始人Jenia Jitsev表示。Jitsev补充说,将监管建立在任何能力的衡量标准上都没有科学依据。例如所有需要一定工时的化学物质都定义为危险的。“就像这样毫无成效。”

该法案会支持开源人工智能吗?

欧盟政策制定者和开源倡导者希望如此。该法案鼓励人工智能信息的可用性、可复制性和透明度,这几乎就像“阅读开源运动的宣言”,Hovy说。Bommasani说,有些模式比其他模式更开放,但目前还不清楚该法案的语言将如何被解释。但他认为立法者希望通用模型,如LLaMA-2和巴黎初创公司Mistral AI的模型,可以免税。

Bommasani表示,欧盟鼓励开源人工智能的做法与美国的战略明显不同。“欧盟的理由是,开源对于欧盟与美国和中国竞争至关重要。”

该法案将如何执行?

欧盟委员会将成立一个人工智能办公室,由独立专家提供建议,监督通用模型。该办公室将制定评估这些模型能力和监测相关风险的方法。但是,即使像OpenAI这样的公司遵守规定并提交,例如,他们的庞大数据集,Jitsev质疑公共机构是否有足够的资源来充分审查提交的文件。他们表示:“透明的要求非常重要。”“但很少有人考虑如何执行这些程序。”

原文《What the EU’s tough AI law means for research and ChatGPT》

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部