数智化转型网szhzxw.cn 各地政策 欧盟发布全球首个人工智能监管法规

欧盟发布全球首个人工智能监管法规

与全球关注人工智能的顶尖精英一起学习!数字化转型网建立了一个专门讨论人工智能技术、产业、学术的研究学习社区,与各位研习社同学一起成长!欢迎扫码加入!

在2024年3月,欧洲联盟(EU)的立法者通过了世界上第一套关于使用人工智能(AI)的全面法规[1]。欧盟的AI法案,经过两年半的制定,最初被视为一项具有里程碑意义的法案,旨在减少在医疗保健、教育和安全等领域中AI被认为对人们构成最大风险的危害,并禁止构成“不可接受风险”的使用,包括操纵人类行为和基于个人特征评估个人的可信度。根据这些将在未来两年内分阶段生效的法规,“高风险”的AI系统将需要风险缓解策略、高质量的数据集、透明度、更好的文档记录和人类监督。目前最常见的AI使用,如增强推荐引擎和电子邮件垃圾邮件过滤器,将受到更少的监督。

对于许多专家来说,新规定的到来并不算太早。“如果你想到几乎任何产品,例如牙膏,它必须经过大量的测试和监管批准,从其成分到其营销方式,”Chirag Shah说,他是信息科学教授,也是华盛顿大学(美国华盛顿州西雅图)人工智能系统和经验责任中心的联合主任。“对于像AI这样有如此大的潜力以好和坏的方式改变生活的东西,没有问责制一直是非常令人不安的。”

在技术公司OpenAI(美国旧金山)发布其ChatGPT聊天机器人近一年后,各家公司都在激烈竞争,以开发更强大的生成式人工智能(GAI)系统。通过响应人类的询问,生成文本、图像、视频和计算机程序,GAI系统可以使信息更易于获取,并加速技术发展(见图1)。然而,它们也与有害结果的大量风险相关联[2]。

图1. 强大的新AI工具有望帮助人类解决许多最艰巨的挑战。但如果使用不当或恶意使用,它们也有很大的潜力造成重大伤害。这种风险导致欧盟立法者在2024年3月通过了AI法案,这是世界上第一套全面的AI使用管理规定。图片来源:Gerd Altman/Pixabay (CC0)。

GAI系统可能会在互联网上充斥着错误信息和“深度伪造”——计算机生成的面孔和声音的视频,这些视频可能与真实个体的面孔和声音无法区分(见图2)。此外,商业“黑箱”AI工具的广泛使用——那些无法解释其结果如何产生的工具——已被证明会引入偏见和不准确性,从而削弱公共和科学知识的有效性,同时看起来真实且权威[3], [4]。“如果没有更多关于其制造方式的数据,我们就无法有效地管理AI,因为它是一个黑箱,而且它变得越来越不透明,”美国乔治华盛顿大学(美国华盛顿特区)国际事务教授、美国国家科学基金会可信赖AI研究所法律与社会联合首席研究员Susan Aaronson说。

图2. 教皇弗朗西斯穿着蓬松的冬季外套的形象展示了强大的GAI系统产生误导和虚假信息的能力。许多人相信这张AI生成的作品是一张真实的照片,它在社交媒体上迅速传播,被数百万人分享和查看。请注意,该图像已被视为公共领域(不受任何版权保护),因为“它是计算机算法或人工智能的作品,并且不包含足够的人类作者身份来支持版权声明。” 致谢:维基共享资源(public domain)。

从长远来看,AI的潜在缺点可能会削弱人们对政治家、媒体、其他机构以及彼此之间的信任。“我们正处于AI的十字路口,”美国杜克大学(位于美国北卡罗来纳州达勒姆)的法学教授Lee Tiedrich表示,他也是位于法国巴黎的专注于AI负责任使用的智库——全球AI伙伴关系的一员。Tiedrich指出,AI对社会公益和国家安全有许多潜在的好处,他提到预测估计AI每年可以增强全球经济超过15万亿美元。但是,他说:“如果AI不是以负责任的方式开发和部署,它可能会造成很大的伤害。”数字化转型网www.szhzxw.cn

人工智能已经迅速且广泛地渗透到全球数字生态系统中,在ChatGPT发布的第一年,就有超过17亿人使用它[6]。这个聊天机器人和其他类似的产品都是由所谓的基础模型驱动的,这些模型通过从互联网上抓取数据来生成响应。然而,根据斯坦福大学(美国加利福尼亚州帕洛阿尔托)的基础模型研究中心创建和维护的基础模型透明度指数,2023年十大基础模型中没有一个是透明度得分及格的。得分最高的模型是Meta的Llama 2,在指数评估的100个不同的透明度指标中,它只达到了54分[7]。

虽然科技公司可能会声称他们可以自我监管,但这可能期望过高。尽管几乎所有的人工智能公司都有内部的“负责任的人工智能”团队,其目标是减少潜在的伤害,但Shah表示,在裁员或急于抢占市场时,这些团队往往是首先被考虑裁减的对象。科技公司也可以随时改变他们的AI伦理政策。最值得注意的是,例如OpenAI,最初是一个“开放”的人工智能研究实验室,承诺通过向任何人提供其专利和研究来与其他机构自由合作。但在2023年3月,当它推出了最新一代的GPT-4聊天机器人[2],一个强大的多模态版本,可以分析文本、音频和图像时,该公司效仿了许多其他人工智能初创公司的做法,开始隐瞒有关其模型训练方式和所使用的硬件的所有信息,以保护其竞争优势[7]。

为了实现其减少伤害的目标,欧盟的AI法案建立了一个基于风险的框架来监管AI产品和应用。该法规施加了具有法律约束力的规则,要求科技公司在与聊天机器人或生物特征分类或情绪识别系统交互时通知人们;它还要求公司用数字水印标记AI生成的媒体[8]。数字化转型网www.szhzxw.cn

所有提供基本服务的组织,如保险和银行,都必须对其AI系统对人们基本权利的影响进行评估[9]。此外,公司必须遵守欧盟版权法,更好地记录其代码的工作原理,并分享更多关于其模型训练数据的信息。然而,后者的规定可能会给一些公司带来问题。Tiedrich说:“分享训练数据可能会造成紧张,因为一些数据可能是专有的或包含个人信息,使公司面临法律诉讼的风险。”然而,根据新法律,不分享这些信息的公司可能会面临其产品从市场上被移除的风险。

对于最强大的AI模型,目前由训练它们所需的计算能力来决定,有一些额外的规定。例如,技术公司必须分享他们的AI模型的安全性和能源效率[9]。但是,这些额外的规则如何适用于像GPT-4或Google的Gemini这样的模型仍然不明确,因为这些公司还没有透露训练他们的模型使用了多少计算能力[10]。然而,随着AI技术的不断发展,欧盟可能会改变这些规定如何衡量AI系统的“能力”[9]。

欧盟可能最终也需要改变该法案的其他方面,Aaronson说:”我对AI法案的问题是,它将很快过时。”例如,她说,规则的早期草案没有提到“基础模型”这个词。直到2023年,当GAI系统首次大张旗鼓地亮相时,这些规则才开始特别提及这些模型。

值得注意的是,AI法案明确禁止认知行为操纵、从互联网或闭路电视监控录像中不加选择地抓取面部图像、社会评分以及使用生物特征分类系统来推断种族、性取向以及政治和宗教信仰[11]。科技公司现在有两年时间来实施所有规则,尽管对不可接受使用的禁令将在六个月后生效,而开发基础模型的公司将必须在一年内遵守法律[9]。数字化转型网www.szhzxw.cn

有些人担心新规定可能会减缓进展。“大公司可以雇佣很多律师来帮助建立监督结构,但一些较小的创业公司可能没有足够的资源来遵守。”Tiedrich说,“人们担心的是,监管的数量可能会对创新产生不利影响。”

目前,AI法案并不适用于军事和国防用途的AI。然而,欧洲警察部队只有在首先获得人类法院官员的批准后,才可以在公共场所使用生物识别系统,并且仅限于16种特定的犯罪,包括恐怖主义、对儿童的性剥削、贩毒以及“与公共安全有关的特殊情况”[9]。

为了跟踪所有这些,AI法案设立了一个新的欧洲AI办公室,用于协调合规性、实施和执行。对不合规的罚款是严厉的:从公司全球销售额的1.5%到7%,取决于违规的严重程度和公司规模[11]。该办公室还将征求公民对AI系统的投诉,并回应公众对AI系统如何生成答案的解释请求[8]。然而,当模型不合规或模型得出某些结论时,确定谁有过错可能是棘手的,Shah说:“例如,将责任归咎于AI系统产生歧视性结果可能会带来挑战,因为系统中没有特定的代码说,‘不要批准这种类型或那种类型的人的住房贷款’。”Shah说,“相反,系统可能从许多来源生成的训练数据中自行学习。这不是开发人员的错。同样,学习是无监督的,这意味着你无法真正控制权重的分配和模型的调整方式。很可能有许多情况下,根本无法解释模型是如何做出特定决定的。”数字化转型网www.szhzxw.cn

就像欧盟最近在技术监管方面的其他开创性举措一样,包括维修权[12]、设备充电标准[13]以及在个人数据处理中保护个人隐私偏好的《通用数据保护条例》(GDPR)[14],AI法案也有可能成为一个全球标准。该法案将真正影响AI系统的开发方式,因为它影响到如此多的公司,Tiedrich说:“如果公司创建满足全球所有规定的基线产品规格,我不会感到惊讶——这比为不同监管水平的地区提供不同产品更有可能。”

尽管如此,其他国家仍在继续探索实施自己的AI法规。虽然一些美国国会关于AI的听证会关注的是为AI创建一个新的联邦监管机构的可能性,但美国总统Joe Biden在2023年10月签署了一项行政命令,将AI治理的责任分配给几个联邦机构,每个机构负责监督其职权范围内的AI方面[15]。例如,美国国家标准与技术研究院将开发数字水印系统并推出“红队测试”,其中良性参与者试图滥用系统以评估其安全性,以帮助确保强大AI系统的安全性和可信度。Biden政府在2024年3月进一步建议联邦机构增加对AI系统的使用,但对这些使用对受影响的人要有更高的透明度[16]。2023年11月,英国举办了一次AI安全峰会,但目前没有像欧盟那样立法的计划[3]。非洲[17]以及包括巴西、加拿大和日本在内的国家[15]也在考虑其他的监管行动。

在2023年8月,中国国家互联网信息办公室宣布,将要求GAI系统的开发者防止传播误导信息或挑战中国社会主义价值观的内容[18]。中国政府还要求公司注册他们的算法,并披露有关训练数据和性能的信息[3],并且目前正在制定一套更广泛的法规和测试方法以供执行[18]。

新批准的欧盟法规的全面影响仍有待观察,尽管仅仅吸引人们对真正潜在危害的关注是一个良好的开端。“我希望从AI法案中看到的一件事是消费者变得更加意识到。”Shah说,他以欧盟的GDPR为例,“每次我访问欧洲,我都必须同意所有的cookies,这让我意识到我正在被跟踪,他们正在使用我的信息。”他说,“意识到AI可能做的事情可能会产生类似的积极影响。”数字化转型网www.szhzxw.cn

引用信息:Chris Palmer, European Union Issues World’s First Comprehensive Regulations for Artificial Intelligence, Engineering, Volume 38, July 2024, Pages 5-7.

英文原文链接:https://www.sciencedirect.com/science/article/pii/S2095809924003758?via%3Dihub=

数字化转型网人工智能研习社

与全球关注人工智能的顶尖精英一起学习!数字化转型网建立了一个专门讨论人工智能技术、产业、学术的研究学习社区,与各位研习社同学一起成长!欢迎扫码加入!

本文由数字化转型型网(www.szhzxw.cn)转载而成,来源:网络;编辑/翻译:数字化转型网默然。

数字化资料下载-思思

免责声明: 本网站(http://www.szhzxw.cn/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。 本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等) 版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。http://www.szhzxw.cn/39392.html
联系我们

联系我们

17717556551

邮箱: editor@cxounion.org

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部