人工智能(AI)的监管与规制——以AI大模型为着眼点
2023.11.08
作者: 中银律师事务所 金姗姗、樊春朋
一、人工智能预训练大模型的概念
人工智能预训练大模型,又称AI大模型,这是一种新的人工智能方法。这些模型使用大规模数据和复杂网络结构构建,参数量庞大,通常需要数十亿甚至上百亿个参数。与传统的小规模模型相比,大模型具有更高的容量和表达能力。通过在大规模数据集上的训练,它们能够实现更准确的预测和更高的性能,同时能够根据特定任务的指导实现各种目标。ChatGPT和PaLM2是典型的语言类大模型,例如ChatGPT基于Transformer模型,包含1750亿参数。 根据目前的情况来看AI大模型主要的模式有:一是企业选择自主构建基础模型,但这需要极高的训练大型模型的成本和技术挑战;二是通过行业内的数据优势,利用通用基础模型,打造出适用于特定行业的大模型;三是在通用基础模型和特定行业大模型的基础上,开发各种AI应用。
二、人工智能预训练大模型的优势
第一,AI大模型具有数据引导,参数庞大的特点。人工智能大型模型在参数规模上远超传统模型。这种大型模型使用深度学习技术,透过增加网络深度和参数数量来提升其表达能力和提高准确性。 第二,在跨模态理解和生成方面,大型模型在自然语言处理任务中具备强大的能力,相较于传统基于规则或统计方法,它更擅长处理语言的上下文信息,生成更为自然、连贯和逻辑丰富的文本结果。 第三,特殊的训练和微调机制也是AI大模型的一个显著特征。大型模型首先在预训练阶段使用未标记的大规模数据对其进行初始化,使其具备一定的语言和知识理解能力。然后,通过微调阶段,利用特定领域的标记数据来进一步优化模型,使其在具体任务上表现更出色。 第四,AI大模型具有类似人类的表达和推理能力。依托庞大的参数规模,大型模型展现出更为强大的表达能力,几乎媲美人类,有时甚至在某些领域胜过人类。这些模型能更好地捕捉数据中的复杂模式和特征,从而提高了模型的准确性和性能。 第五,AI大模型具有更多资源和计算方面的需求。由于大型模型的巨大参数规模,它对计算资源和存储空间的需求也相应增加。训练和部署大型模型需要强大的计算设备和高速存储系统,这在一定程度上提高了开发和应用人工智能大型模型的成本和技术挑战。 综上, AI大模型降低了使用人工智能的门槛,能够融入各种应用场景,提高工作效率。这些模型处理大规模复杂数据的能力使企业更准确地了解市场需求、优化业务流程,并做出更明智的决策,提高效率和竞争力。
三、人工智能预训练领域可能存在的法律问题
从目前看来,大型模型具有广泛的应用前景,正在改变各行各业的商业模式。中国市场提供了丰富的机会,推动了大型模型的发展。它们在不同垂直领域提供智能解决方案,降低应用成本和门槛,推动企业的创新和效率提升,促进各行业的数字化转型和智能化提升。但是,伴随着AI的快速发展正在改变我们的社会和商业环境,也出现了各种法律问题和挑战。我们从法律角度探讨AI大模型领域可能存在的法律问题,从目前来看,有以下几个关键领域: 1、隐私和数据保护 使用AI大模型通常需要访问和处理大量的个人数据,这引发了对隐私和数据保护的合规性问题。在许多国家,隐私法规已经制定,旨在保护个人信息的隐私和安全。然而,AI大模型的使用对这些法规提出了新的挑战。例如,当机器学习算法用于个性化广告或内容推荐时,它们需要访问用户的个人信息,这可能与隐私法规相冲突。因此,确保AI系统的数据处理符合法规是一个重要的法律问题。另外,公司是否能够控制住人工智能输出,如果人工智能数据分析系统无意中泄露了用户的个人信息,可能将导致公司面临索赔和行政处罚,因此,有关AI大模型的功能设置,以及限制应当与法律法规相适应。 2、安全责任 在大型模型领域,确定责任是一个复杂的问题。当AI系统自主作出决策并导致不良结果时,谁应该承担责任?是开发者、运营商还是机器本身?这需要法律明确规定。此外,AI系统的决策过程通常是黑盒的,难以理解。透明度是一个法律问题,因为它涉及到决策如何作出、是否受到人工干预以及如何满足法规要求的问题。在人工智能系统中,系统或设备故障的风险可能是巨大的。例如,如果由人工智能的决策是错误的,则最终生产的工作成果是错误的,可能会破坏公司的业务。尤其是在关键领域如医疗和交通中,AI系统的安全性是一个法律问题。如果一个自动驾驶汽车发生交通事故,是谁承担责任?一个付费的人工智能医疗出现误诊,是否需要承担责任?这需要法律界明确规定,以确保AI系统的安全性,同时为可能的事故制定明确的法律责任。 3、知识产权 AI大模型的训练通常基于大量的数据和算法。这引发了知识产权问题,包括数据所有权、算法专利和版权。例如,争议可能涉及到数据集的所有权,或者某个AI算法是否侵犯了他人的专利权。知识产权问题需要法律界明确定法规来保护创新,同时避免滥用知识产权以限制AI的发展。 4、就业和劳工法 AI技术的广泛应用可能导致工作职位的消失,这还可能会引发了有关劳工法的问题。工人如何应对自动化?如何确保公平的就业机会?这需要法律规定来平衡技术发展和劳工权益。 5、道德和伦理 AI大模型可能引发伦理和道德问题,尤其是在决策和生命影响领域。例如,医疗决策系统可能需要决定谁有资格接受紧急医疗护理。这些伦理问题需要法律法规来引导,同时遵循社会价值观。 总之,人工智能领域可能存在的法律问题,也会出现在AI大模型中,想要解决这些法律问题,使预测更准确、性能更高效的大型模型为人类工作生活提供帮助,就不得不加强人工智能的监管与规制。前几天在英国举办的人工智能安全峰会上,英国科学、创新和技术大臣米歇尔·唐兰发表讲话宣布了《布莱切利宣言》。她说:“各国现在第一次一致认为,我们不仅需要各自面对,而且需要共同审视前沿人工智能的风险。”“我们申明,为了所有人的利益,人工智能应该以安全、以人为中心、值得信赖和负责任的方式设计、开发、部署和使用。”宣言写道,并特别呼吁人们关注OpenAI、Meta和谷歌等公司正在开发的大型语言模型,以及它们可能因滥用而造成的具体威胁。这次峰会的召开,更是将人工智能的监管与规制的重要性上升至更高的优先级。
四、人工智能监管与规制的现状与趋势
1、境外人工智能监管趋势 欧盟于2021年4月发布了《人工智能法案》,规定了人工智能系统的定义、分类、监管、责任等方面的内容,强调了人工智能系统的合法性和符合欧盟价值观。适用对象包括人脸识别、舆论操纵等具有特定用途的人工智能,但ChatGPT的横空出世提出了全新议题。今年5月,欧洲议会市场委员会和公民自由委员会通过欧盟委员会于2021年4月提出的《人工智能法案》提案的谈判授权草案。 《人工智能法案》授权草案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。草案将人工智能风险分为不可接受的风险、高风险、有限的风险和极小的风险四级,对应不同的监管要求。其中高风险人工智能的使用必须受到严格监管,系统提供者和使用者都要遵守数据管理、记录保存、透明度、人为监管等规定,以确保系统稳定、准确和安全。对于违反规定者,草案设定了最高3000万欧元(1欧元约合人民币7.895元)或全球年营业额6%的罚款。 草案严格禁止对人类安全造成不可接受风险的人工智能系统,包括部署潜意识或有目的操纵技术、利用人们弱点或用于社会评分的系统,并扩大了人工智能高风险领域的分类,将对人们健康、安全、基本权利或环境的危害考虑在内。草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统,还针对ChatGPT等生成式人工智能设立专门监管制度。每个欧盟成员国都将设立一个监督机构。 欧盟试图建立一个统一的人工智能法律监管框架,是全球人工智能发展进程中一个重要的标志性事例。欧盟对人工智能进行有效法规约束的探讨和尝试都将产生全球性影响,可能引发越来越多的国家尝试跟进相关法规的探索。2023年,欧洲议会提出对人工智能的使用采取新措施,如要求聊天机器人开发商报告是否使用受版权保护的材料,这将是推行人工智能立法的重要一步。 目前,美国国会领导人正在加速对人工智能技术的立法和监管进程,但是美国的立法框架一直强调注重在不牺牲创新的情况下提供安全保障。“何人”“何处”“如何”与“保护”是监管框架的四道护栏。前三道护栏共同作用,使用户知情并提供保护,并使政府获取信息以制定未来的监管规则。该提案将要求科技公司在发布人工智能程序之前进行审查和测试,并向用户公布测试结果。最后一道护栏将使不断发展的人工智能系统与美国的价值观相协调。这些措施将共同提高透明度,解决人工智能系统中潜在的滥用与偏见问题。 2、境内人工智能监管趋势 随着国内生成式人工智能技术的兴起,促使国家相关部门对于人工智能的日益关注。宏观层面,我国人工智能治理已经初步形成了从法律、部门规章到地方性法规的多层次规范治理结构。在生成式人工智能治理方面,2023年7月10日,国家互联网信息办公室联合国家发展改革委员会、教育部、科技部、工业和信息化部、公安部、广电总局公布《生成式人工智能服务管理暂行办法》( 以下简称《人工智能服务管理暂行办法》) ,自2023年8月15日起施行,旨在对生成式人工智能服务展开全方位的综合治理。该办法共21条,主要对办法的适用范围、生成式人工智能定义、责任主体认定进行了规定,除此之外还为生成式人工智能服务主体设置了数据合规责任。生成式人工智能服务主体在一定程度上也是算法服务提供主体和深度合成技术服务提供主体。因此,与生成式人工智能治理密切相关的法律还可以追溯到此前颁布的两项部门规章,《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)和 《互联网信息服务深度合成管理规定》 (以下简称 《服务深度合成管理规定》)之中。《服务深度合成管理规定》旨在加强互联网信息服务深度合成管理,以保护国家安全、社会、公民和组织的合法权益。至此,我国形成了对人工智能法律治理框架的基本雏形。 在个人信息数据治理方面,《人工智能服务管理暂行办法》设置了一系列专制性条款,将生成式人工智能个人信息数据的监督检查和法律责任归拢到我国网络安全和数据隐私保护领域的三部基础性法律,即《网络安全法》《数据安全法》和《个人信息保护法》之中。《算法推荐管理规定》与《服务深度合成管理规定》虽然没有直接对生成式人工智能做出规定,但其内容仍可成为对生成式人工智能个人信息数据治理的重要补充。 总体而言,我国对生成式人工智能的法律规制走在世界前列,无论是对生成式人工智能本身的规制,还是与其息息相关的算法和深度合成技术都不乏法律指引。就个人信息保护方面来说,虽然相关条款散列分布于不同的法律文件中,但在法律层面仍能够做到与《个人信息保护法》等相关法律的有效衔接。 目前,我国对人工智能的监管和规制正在如火如荼地展开,并呈现出明显的分段性特征: 第一阶段,2017年至2022年上半年,该阶段的研究较单一且集中,着重探讨了人工智能生成作品的知识产权问题:一方面,讨论人工智能生成作品在著作权法中的定位,以及对著作权法的冲击;另一方面,探究生成式人工智能给专利制度带来的冲击和挑战,以及专利法应该如何顺应人工智能的发展而与时俱进以缓和和应对此冲击。 第二阶段为2022年下半年至今,针对人工智能的相关研究呈现出“百花齐放、百家争鸣”的繁荣态势,涵盖范围包括生成式人工智能风险规制、类案裁判、数据和内容安全、责任承担、伦理道德等诸多方面。国外学理研究则围绕以 Chat GPT 为代表的新一代生成式人工智能,分析该类人工智能的风险类别、级别,探讨其对诉讼律师的影响,以及相关的版权问题、侵权责任追究等。尽管关于生成式人工智能的法律规制研究逐渐增多,但仍存在研究深度和广度不均衡、实践指导不足、缺乏案例和数据支撑等问题,使得整体研究暴露出前瞻性过度,现实性关注不足的缺陷。对人工智能的规制和监管在“仰望星空”的同时,还应当兼顾“脚踏实地”。 3、人工智能国际治理的最新发展——《布莱切利宣言》的颁布 人工智能安全峰会于2023年11月1日至2日在英国举行,中国科技部副部长吴朝晖参会,并在开幕式全体会议上发表讲话。代表团期间积极参与了有关人工智能安全等议题的讨论,同时积极宣传习近平主席提出的《全球人工智能治理倡议》,并计划与相关国家展开双边会谈。中国代表团与英国、欧盟、美国等29个国家和地区共同签署了该会议的重要文件——《布莱切利宣言》,该文件涉及人工智能国际治理等重要问题。《宣言》将前沿AI风险的监管重点分为以下两个方面:(一)识别共同关注的AI安全风险,建立对这些风险的基于科学和证据的共同理解,随着我们的能力不断提高,拓展对AI对社会的全球影响的认知;(二)各国应根据这些风险制定相应政策,以确保安全,鼓励在适当情况下的国际合作,同时理解不同国家可能因国情和法律框架的不同而采取不同的方法。除了提高私人机构在前沿AI开发方面的透明度要求,还包括制定适当的评估标准和安全测试工具,同时促进公共部门的相关能力和科学研究的发展。
五、人工智能的监管和规制路径探索
人工智能技术的蓬勃兴起极大地改变了信息获取、人机交互的方式,引领人类走向数字时代,其发展逻辑必然颠覆传统的社会治理模式,已经突破了现代性的国家/社会的二元框架和法律—伦理—宗教三元规范结构,全新的技术带来全新的治理模式,全新的治理模式召唤全新的规制和监管路径。 对人工智能的监管体系之构建应当贯彻落实透明度原则,建立健全公开透明的人工智能监管体系,增强对人工智能的设计问责及应用监督的双层监管,充分做好对人工智能算法设计、产品开发和成果应用等全过程监督,督促人工智能行业及企业自律;以个人信息数据及隐私保护为核心,保护公民的个人信息和数据安全;减少偏见因子,确保技术中立,并强化人工智能治理机构之间的协调性和能动性,建立多元有序的规制体系。前文中提到的《布莱切利宣言》的颁布就是人工智能监管和规制路径探索道路上的一个里程碑式发展。 全球人工智能治理面临着从道德伦理约束向法律规制新阶段的转变。我国生成式人工智能的立法虽然走在世界前列,但是其治理模式仍应秉持谨慎态度,既不能只做回应型立法,也不能推行过于严苛的制度框架以免限制人工智能的发展。因此,我国在人工智能的发展路上,应当继续探索合理的人工智能治理模式,在有序的制度框架内完善数据算法的纠偏功能,在实现生成式人工智能技术的创新与进步的同时,保障我国的数据安全与数字经济的发展。
上一篇: 已经是第一篇了
下一篇: 已经是最后一篇了
推荐文章
相关律师
金姗姗
jinshanshan@zhongyinlawyer.com
-高级合伙人
樊春朋
fanchunpeng@zhongyinlawyer.com
-执业律师