欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOCX文档下载  

    大模型合规白皮书2023-金杜律师事务所&上海人工智能研究院-2023.11_市场营销策划_重点报告.docx

    • 资源ID:1108217       资源大小:197.49KB        全文页数:80页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    大模型合规白皮书2023-金杜律师事务所&上海人工智能研究院-2023.11_市场营销策划_重点报告.docx

    大模型合规白皮书2023年11月Ok”tI>WHit,川第思UAilraCNWrw-L-.-.HUAWEI大模型合规白皮书金杜律师事务所上海人工智能研究院华为技术有限公司上海昇思Al框架&大模型创新中心2023年11月大模型作为人工智能发展脉络中的里程碑,引发了新一轮的科技创新浪潮,其以强大的计算能力和深度学习技术,极大地提高了内容生产效率,促进内容生产方式颠覆式变革。各行各业纷纷布局大模型应用,把握智能化发展的机遇。然而,大模型也面临隐私泄露、侵犯第三方权益以及违背伦理等潜在风险,引发了社会各界的关注和担忧。随着大模型的广泛应用,加快完善大模型的立法监管以确保大模型的应用与发展符合伦理道德和社会价值观,推动人工智能科技的健康发展变得迫在眉睫。世界上主要国家和地区均着手并加快完善大模型相关的法律监管。例如,欧盟以人工智能法案为核心,结合大模型可能涉及的其他领域的立法,逐步建立起专项法案为主、现存法规为辅的人工智能法律监管框架;美国对于人工智能大模型的立法较为分散,各州分别各自推进人工智能立法,联邦政府则试图在现有的立法框架及监管规则内对大模型及人工智能进行规制,但同时,人工智能相关的联邦专项立法提案也在推进当中。我国围绕网络安全、数据安全、个人信息保护等重点领域制定了法律法规,并及时跟进人工智能技术创新发展态势,先后针对互联网信息推荐、生成式人工智能等技术领域出台了管理办法,建立了法律法规和标准规范相协调的人工智能监管制度体系。在此背景下,本白皮书在我国人工智能法律监管框架下进一步梳理了大模型相关方的合规义务及要点,并展望未来大模型法律监管体系的发展趋势与特征,对政府、企业、社会共建大模型治理体系提出切实建议,从而为社会各界了解大模型立法最新动态和立法趋势提供有价值的参考,并为相关单位开展大模型业务提供法律解读及合规指引,保障大模型相关业务的合规经营以及行业的健康规范发展。目录前言一、大模型的发展历程(一)早期模型的探索与局限性8(二)深度学习的崛起11(三)GPT等代表性大模型的影响121 .大模型带来的效率与准确度革命142 .大模型带来的机会与挑战15二、全球大模型监管现状(一)主要国家和地区加快完善大模型监管171 .欧盟172 .美国253 .英国354 二)我国对于大模型的监管现状381 .立法现状382 .合规要素473 .大模型业务中各方合规义务一览表59614 .运营角度的其他考量三、未来展望与发展建议(一)未来展望:大模型合现的前沿701 .大模型技术创新发展与合规风险并存702 .大模型合规框架走向标准化与国际化703 .社会文化和伦理逐渐与合规体系相融714 .行业应用面临不同合规挑战与监管725 .治理路径分阶段、有弹性地构建73(二)发展建议:构筑大模型合规生态741 .政府推动构建行业新秩序742 .企业创新与责任担当783 .社会组织加强协同合作80一、大横型的发展历程(一)早期横型的探索与局限性从早期的符号逻辑到现代的深度学习1模型,Al领域经历了数十年的探索和迭代,为后续突破打下了坚实基础。随着大数据的发展和Al计算能力的爆炸式增长,深度学习模型的崛起显得尤为突出。然而,尽管这些模型在特定任务上取得了令人瞩目的成就,其在初期也面临着许多局限性,如存在数据依赖、计算消耗大、缺乏可解释性等。这些局限性不仅为Al领域带来技术挑战,也引发了对模型偏见、安全性和应用范围的深入思考。1956年6月举行的达特茅斯夏季人工智能研究项目,被广泛认为是人工智能作为一个研究学科的开端。自“人工智能”概念被提出,大模型的发展经历了三个阶段:早期发展期(1956-2005):该阶段主要是传统神经网络模型的阶段,例如循环神经网络(ReCUrrentNeuralNetwork,uRNN"),深度学习(Deep learning)是机器学习(Macme learning)中的一类算法,指利用多层神经网络,模仿人脑处理信息的方 式从原始输入中逐步提哪表达数据的域征。2023年11月22日.2循环律经网络(Recurrent Neural Ntvork . RNN)是具有时间联结的前愎神经网络feedforward Neural Networks),特点 是必须按顺序处理,并且上一层的神经细胞层输山和麋18状恣具有较大的权重影响卡一层的运算。循环神经网络必须完成 上一步才就进行下一步,只挺串行不能并行,因此循环神经网络具有'短时记忆'的特点.技术上把这个现象阱为梯度消失 或梯度爆炸.气环神经网络不擅长处理和旃捉长文本中的语义.network .最后访问于2023年11月22日。、卷积神经网络(COnVOlUtiOnalNeuralNetworks,uCNN,')卷积神羟网络(ConVOIUtional Neural Networks , CNN)是一类包含卷枳计算且具有深度结构的前愦神经网络(FeedfOrWard Neural Networks).是深度学习(Deep learning)的代表算法之一。neraLnetwfk ,最后访问于2023年11月22日。“机器学习(Machine Iearnin3),作为人工智能的一个分支,是指不需要进行显式承程,而由计算系统基于算法和数据集自 行学习,做出识别.决策和福利的过程。2023年11月22日. LeNet又称LeNel-5 .由Yann Leoin提出,是一种经典的卷枳神经网络,是现代卷积神经网珞的起京之一.https:/ n.wik>pdia.orgwikiLNet,最后访词于 2023 年 11 月 2?日. Transformer是一种于注意力机制的序列横型,最初由Google的研究团队提出并应用于机器期泾任务.o起初,Al发展主要基于小规模的专家知识,然后逐渐转向机器学习4,1980年和1998年诞生的CNN和LeNet-55奠定了深度学习模型的基础。 快速成长期(2006-2019):该阶段是全新的神经网络模型阶段,模型的发展方向主要聚焦长序列的处理和计算效率的提升,以TranSfOrme卢架构的出现为代表。从2013年的WOrd2Vec7到2。17年的TranSfOrmer,都标志着深度学习模里正走向一个全新的时代。在该阶段,如GPT8和BERT Word2vec ,是一群用来产生调向的相关模型。这些模里力漫而双层的神经网络,用来训练以重新建构语言学之词文本。 2023 年 11 月 22 B. GPT ,全称Generative Pre-Trained Transformed生成双预训炼Transformer模S!).是一种于互联网的、可用数据来 训球的、文本生成的深度学习模型。2023年11月22日。BERT(Bidirectional Erwoder Representations from TransformersL是一种预训练的深度学习模型,用于自然语言处理任务.基于 TranSfOnner架构的双向箱码器,通过无监督的学习方式预训球宿官我示,以便能够搞提语言的上下文信息。,0 OpenAI是在美国成立的人工智能用究公司,梭心宗旨在于“实现安全的通用人工智能(AftifiCial General Intelligence . AGI)”,使其有益于人类。2023年11月22日.等Bi训炼模型逐渐成为主流。 全面爆发期(2020-至今):该阶段是预训练大模型阶段。以GPT为代表,预训练大模型处于快速发展的阶段,特别是OPenAl1。推出的GPT-3和GPT-4,标志着大模型技术正迈向新高度。机器学习有三种主要的方式,分别是监督学习、无监督学习、强化学习。 监督学习(SUPeMSedLeaming):“模板规范”(投喂好的资料),我们向模型投喂带有标签的数据(包括数据特征和期望的输出值),让算法学习输入和输出之间的映射关系。经典的监督学习包括分类和回归。分类:例如学习大量猫和狗的图片和标签,当模型接收新的动物图片时可以将其根据特征识别是猫还是狗;回归:例如学习猫的产地、毛色、习性等特征,并将猫的价值作为输出标签进行训练,当模型接收新的猫咪图片时可以根据特征预测猫的价值。,无监督学习(UnSUPerViSedLearning):“开卷有益”(多投喂资料),我们向模型投喂不带标签的数据,让模型自行寻找其中的规律,并进行处理。经典的无监督学习包括聚类和降维。聚类:例如学习大量房屋的信息,模型自行寻找其中的价格、面积、户型的规律,并自动将相同类型的房屋进行汇总。降维:例如学习大量房屋的信息,模型自行寻找其中用户决策最关心的因素,在保留价格和其他少量辅助数据的同时对房屋数据进行压缩,以便简化建模。,强化学习(ReinfOrCementLearning):“创意引导"(进行条件反射),我们向模型设置特定环境,让模型在其中采取行动,我们再对其进行反馈,让模型从反馈中学习以便优化下一次的行动。这一过程就类似以条件反射的方式训练小狗。在机器学习领域的早期阶段,研究者们的主要关注点是基于统计、线性回归和决策树等的简单模型。早期模型具有以下特点:简单性。早期的模型,如线性回归和逻辑回归,是基于明确的数学方程,使其容易被理解和解释。计算消耗低。由于模型的简单性,其在计算上相对高效,不需要大量的计算资源。表示能力存在上限。虽然早期模型在特定方面表现良好,但其表示能力有限,尤其体现在处理复杂任务和非线性问题上。大模型早期所面临的主要局限性包括: 存在数据依赖:早期的模型对于大量高质量数据有极高的依赖性。在没有足够训练数据的情况下,这些模型往往难以达到令人满意的性能,但获取、清洗、标注这些数据却昂贵且极为耗时。 缺乏可解释性:大模型通常被视为“黑盒”,即模型的内部工作原理很难被理解。由于用户需要理解模型的决策过程,模型的解释性不足在很多关键领域(如医疗和司法)构成障碍。 泛化能力不足:尽管早期的大模型在特定任务中表现性能优秀,但其在新数据或新场景中的泛化能力仍受到质疑。 存在环境和任务依赖:早期的Al模型通常需要根据特定任务定制和调整,这意味着为特定任务训练的模型可能难以直接应用于其他任务。 模型具有一定偏见:由于训练数据往往包含现实世界的偏见,大模型可能反映这些偏见,导致应用于实际场景时出现歧视或不公平的决策。 安全性和稳定性不足:由于早期大模型的复杂性,其易受到对抗性攻击或在特定条件下表现不稳定。以上局限性不仅为Al领域的研究者和工程师带来挑战,也为Al技术的未来发展和应用提出反思和探索的方向。随着技术发展,许多问题已经得到解决或缓解。(二)深度学习的起深度学习从其最初的简单尝试到现今所达到的辉煌高峰,不仅展现了技术的快速发展,更揭示了人类在追求智慧和知识上的不懈努力。深度学习源自人类对人脑工作原理的好奇和模仿,意图借助数学和算法的力量,赋予计算机对信息的处理和认知能力。随着技术日益成熟,深度学习赋予计算机识别图像、处理自然语言甚至复杂决策的能力,不仅体现技术进步,也标志人工智能正逐步走向更加深入、广泛的应用领域,为人类生活带来无尽可能性。因此,深度学习的崛起可以被视为人类科技史上的一大里程碑。神经网络的早期探索。1957年,FrankRosenblatt提出感知器模型,被称为最简单的神经网络,通过简单的线性组合实现分类任务。尽管当时的应用领域有限,但其为后续神经网络的发展奠定了基础。19世纪80年代,Rumel-hart.Hinton及其团队引入了反向传播算法,通过多层神经网络训练,为复杂模型和任务提供强大工具。数据与计算能力的融合。21世纪初,互联网的广泛传播和智能设备的普及,使得数据呈现指数级增长,为深度学习提供丰富的训练数据。同时,硬件技术也在飞速发展,NVIDIA等厂商投入GPU研发,其能够大幅度加速数值计算,尤其是深度学习中的矩阵运算,软硬件的进步大大加速了模型的训练过程。关键技术突破与模型创新。1997年,Hochreiter和SChmidhUber提出长短时记忆网络(LongShort-TermMemory,LSTM),解决了循环神经网络的梯度消失/梯度爆炸的问题,使得神经网络可以更好的处理长文本内容,为序列数据的处理开辟了新天地。1998年,YannLeCun及其团队提出LeNet-5,但真正让深度学习走向世界舞台的是2012年由AlexKrizhevsky等人设计的AIexNet,其在ImageNet挑战赛中大胜,展示了深度学习在图像处理上的潜力。2014年,生成式对抗网络(GenerativeAdversarialNetworks,"GAN")被提出。GAN的原理是通过竞争机制来逐步提高生成器的准确性。2016年横空出世击败围棋世界冠军李世石的AIphaGo,就是基于GAN架构训练的模型。2017年,Google提出TranSfOrmer架构,此后BERT、GPT等模型皆以其为基础,在自然语言处理任务中达到新高度。(三)GPT等代表性大模型的影晌TranSfOrmer架构的优点是可以并行处理输入序列的所有元素,能够捕捉长序列内容的关联关系,因此TranSfOrmer架构不再受到“短时记忆”的影响,有能力理解全文,进而TranSformer成为自然语言处理的主流架构。一个原始的Transformer架构由编码器(Encoder)和解码器(Decorder)两部分构成,其中编码器用于将输入序列转换为一系列特征向量,解码器则将这些特征向量转换为输出序列,即:输入内容编码器解码器输出内容。如果给编码器输入一句英语“Sheisastudent",解码器返回一句对应的中文'她是一名学生"。Transformer的架构和自注意力机制能够实现这些的关键在于“将词汇转换为词向量,并通过多头注意力机制(Multi-HeadAttention)和前馈神经网络(Feed-ForwardNetwork)两个子层进行处理第一步:模型对接收到的输入序列文本Token化,Token可以被理解为文本的基本单元,短单词可能是一个Token,长单词可能是多个Token0Token是GPT的收费单元,也是源于此。第二步:将Token转换成一个数字,成为TokenID,因为计算机语言只能存储和运算数字。第三步:将TOkenID传入嵌入层(EmbeddingLayer),转换为词向量(WOrdEmbedding),词向量是一串数字。可以将这个过程想象为将一个单词放到多维空间中,每个数字就表达了这个单词某个维度的含义,一串数字所能表达和蕴含的信息量远多于TokenlD的一个数字,可以记载这个单词的词义、语法和不同语境、语序中的变化关系。第四步:对词向量的语序和语境进行位置编码,形成位置向量。上文提到语境和语序对理解词义至关重要。之后将词向量合并位置向量,将合并后的结果传给编码器,这样模型既能理解词义也能理解语境和语序。第五步:接收到上述信息后,编码器中的多头注意力机制将会运作,捕捉其中的关键特征,编码器在处理时不仅会关注这个词与临近的词,还会关注输入序列中所有其他词,将输入的信息根据上下文进行调整,输出了降维后的向量。第六步:进入编码器的前馈神经网络处理,前馈神经网络“思考”之前步骤中收集的信息,并增强模型的表达能力,尝试进行预测。第七步:降维后的向量将继续传输给解码器运算。解码器具有带掩码的多头注意力机制,解码器在处理时仅关注这个词及其之前的词,遮盖输入序列中后面的内容,并结合已经生成的文本,保持未来输出文本的时间顺序及逻辑连贯性。第八步:进入解码器的前馈神经网络处理,解码器中的前馈神经网络与第六步类似,也是增强模型的表达能力。第九步:解码器的最后处理环节经过linear层和softmax层,这两个子层将解码器输出内容转换为词汇表的概率分布,概率分布反映下一个Token生成概率。通常模型选择概率最高的Token作为输出,生成输出序列。因此解码器本质上是在做“单词接龙”的游戏,猜下一个输出单词。Evolutionary图1近年来大语言模型进化树r从图1可以看出,经过演变,大模型大致分为三种:其一是舍弃Decoder、仅使用Encoder作为编码器的预训练模型,以Bert为代表,但Bert未突破ScalingLaws,Encoder-Only分支在2021年后逐渐没落。其二是同时使用Encoder,Decoder的预训练模型,代表模型有清华大学的ChatGLMo其三是舍弃Encoder、仅使用DeCoder作为编码器的预训练模型,以GPT为代表,其通过预测下一个单词,基于给定的文本序列进行训练。GPT最初主要被视为文本生成工具,而GPT-3的推出成为该分支发展的历史性时刻。自GPT-3问世后,不断涌现出诸多如ChatGPT、PaLM、GPT-4等优秀的大模型,DeeOderQnly分支现发展势头强劲。1.大模型带来的效率与准确度革命GPT及其他大模型为当今的生产效率带来了前所未有的革命性提升。传统11SeeJinfengYangetal.Harnessinj(thePoverofLL!sinPractice:SurveyonChatGPTandBeyond.orpdf2304.13712.pdf.上,数据处理、内容生成、决策支持等任务都需要大量人力支持,且伴随着可能的人为错误和效率不高等问题。然而,大模型通过其强大的计算能力和广泛的知识基础,使得这些任务在短时间内得以高效完成。无论是企业内部的行政管理、市场分析,还是产品设计、客户服务,大模型都能够提供快速、准确且高质量的输出。这种技术驱动的生产效率革命不仅大幅度减少企业的运营成本,也为新商业模式和新机遇创造可能性。大模型的出现也标志着信息处理和知识推断的准确性革命。大模型代表了可以更深入、更广泛地理解和处理人类语言的能力,使得很多任务的执行准确性得到前所未有的提高。大模型背后的深度学习算法使得系统能够从大量数据中提取规律和关系。与此同时,模型的庞大规模意味着它们能够记忆和处理的细节越来越丰富,这确保了其在诸如文本解析、情感分析和复杂问题回答等任务中的出色表现。传统的机器学习模型通常需要针对特定任务进行训练,而GPT之类的模型由于其通用性,可以被微调以适应特定的领域或任务,从而在医学、法律、工程等专业领域中展现出惊人的准确性。在机器翻译、图像识别等许多应用场景中,大模型相较过去错误率显著降低,准确性的提高对于如医疗诊断和自动驾驶汽车等关键领域具有特殊重要性。2.大模型带来的机会与挑战大模型当前已经覆盖了许多领域,为我们的日常生活、工作和娱乐带来了深刻的变革。例如,在零售业,大模型能够根据消费者的购买记录和浏览习惯为其生成个性化的购物推荐;在新闻和媒体领域,它可以快速地为记者生成初稿或摘要,加速新闻的传播速度;在娱乐领域,音乐、艺术和电影制作人开始尝试利用Al生成原创作品。同时,大模型在医疗、金融和交通领域的应用也都在逐步展开,为我们的健康、财富和出行安全提供了前所未有的支持。例如:医药行业:在药物研发领域,传统方法需要合成大量化合物,并且研发时间长、成本高,大模型的引入大大加快了药物的研发速度,其中以蛋白质结构预测为典型。例如,生物技术公司安进使用NVlDIA的BioNe-Mo模型,显著减少了分子筛选和优化的时间。 金融服务:金融服务行业正在经历技术驱动的数字转型,其中大模型在客户服务、营销优化、投资指导、风控与反欺诈等环节扮演重要角色。例如,FinancialTranSfOrmer能够理解非结构化的金融数据,对市场深度分析、投资决策提供支持。 零售行业:零售商正使用大模型以提升客户体验,实现动态化定价、细分客户、设计个性化推荐以及可视化搜索。例如,生成式Al会使用包含产品属性的元标签以生成更加全面的产品描述,包括“低糖”、“无越质”等术语。 高等教育:智能辅导系统、自动化论文评分以及各学科相关的大语言模型已经陆续在各大高校得到应用。例如,佛罗里达大学的研究人员使用超级计算机开发了一种自然语言处理模型,使计算机能够读取和解释存储在电子健康记录临床笔记中的医学语言,甚至实现自动绘制图表。此外,基因组学大语言模型等专业大模型也已经有落地案例。 公共服务:政府机构人员可以使用生成式Al提高日常工作的效率,大模型的分析能力能够帮助其处理文件,加快办事效率。由大语言模型驱动的Al虚拟助手和聊天机器人可以即时向在线用户提供相关信息,减羟电话接线员的压力。然而,这些应用也带来了诸多争议。例如,数据隐私是公众最大的关切之一,原因是生成式Al的许多应用都依赖于大量的个人数据。大模型内容生成也可能会模糊真实和虚构的界限,从而引发道德和法律上的困境。大模型的透明性和公正性也是广大公众、企业和政府关心的焦点。在数据收集、处理到跨境传输的全过程中,每一个阶段都存在特定风险,如侵犯隐私、泄露商业秘密或跨境数据违规流通等。另外,随着人们对大模型的使用频次逐渐增加,可能出现人们对大模型过于依赖而不再进行批判性思考的现象,从而引发人们对于自身思维能力倒退、价值创造能力降低的担忧。二、全球大模型监管现状(一)主要国家利地区加快完大模坦监管2023年11月1日,首届人工智能安全全球峰会在布莱切利园正式开幕,会上包括中国、美国、欧盟、英国在内的二十余个主要国家和地区共同签署了布莱切利宣言(TheBletchleyDeClaratiOn)”,承诺以安全可靠、以人为本、可信赖及负责的方式设计、开发、部署并使用Alo布莱切利宣言肯定TAl的广泛应用前景,同时指出了Al(尤其是包括大模型在内的前沿高功能通用Al模型)在包括网络安全和生物技术等领域所可能造成的风险,以及需要解决的包括保护人权、透明度和可解释性、公平性、问责制、监管、人类监督与控制、歧视与偏见、隐私与数据保护、合成欺骗性内容、Al滥用等问题,并确认Al开发者需要对该等风险及问题承担重大责任。各国家和地区共同承诺在国际层面识别共同关注的前沿Al安全风险,并承诺在各国家和地区制定各自的基于风险的政策。最后,布莱切利宣言表达了支持建立一个具有国际包容性的前沿Al安全科学研究网络的决心。布莱切利宣言作为目前全球针对Al监管的前沿文件,显示了全球对于Al发展的密切关注。目前,就欧盟、美国及英国而言,其均将大模型作为人工智能的一部分进行监管,因此,对于境外大模型的监管现状的梳理,需要与整体人工智能监管现状相结合。1.欧盟(1)立法现状2016年10月,欧盟议会法律事务委员会颁布欧盟机器人民事法律规则(EuropeanCivilLawRulesinRobotics)dclaration-by-coutris-attnding-th-ai-safety-summit-1-2-r)Vmbr-2023 .最后访问于 2023 年 11 月 22 日. 2023 年 11 月 22 日.,正式揭开了欧盟人工智能与大模型合规监管的立法篇章。此后,欧盟陆续颁布了与人工智能和大模型合规监管宓切相关的一系列法案及政策,其中尤以人工智能法案(ArtifiCialIntelligenceAct)日最值得注意。目前,人工智能法案已经进入最终谈判阶段,一经通过,其可能成为全球第一部专门针对人工智能进行综合性立法的区域性法规。总体来看,欧盟针对人工智能与大模型合规监管的政策采取了专项法案为主、现存法规为辅的结构,以人工智能法案作为治理核心,结合可能涉及的其他相关领域的立法(包括数据及个人信息、市场监管等),共同构成了包括大模型在内的人工智能监管体系。(a)人工智能法案2021年4月,欧盟发布了人工智能法案的提案。2022年,欧盟委员会综合各方意见,对人工智能法案进行了进一步修正。2023年6月,人工智能法案再次修正,并经欧洲议会投票通过(“人工智能法案”)15。按照欧盟立法程序,修正法案下一步将正式进入欧盟委员会、议会和成员国三方谈判协商的程序,并确定最终版本。人工智能法案是欧盟首部有关人工智能的综合性立法,其以人工智能的概念作为体系原点,以人工智能的风险分级管理作为制度抓手,以人工智能产业链上的不同责任主体作为规范对象,以对人工智能的合格评估以及问责机制作为治理工具,从人工监管、隐私、透明度、安全、非歧视、环境友好等方面全方位监管人工智能的开发和使用,详细规定了人工智能市场中各参与者的义务,主要内容如下:(i)以人工智能(ArtificialIntelligence,mA)概念为体系原点根据人工智能法案,mAI系统”是指一种以机器为基础的系统,该系统在设计上具有不同程度的自主性,可以为实现明确或隐含的目标生成如预测、建议或决策等的输出结果,对物理或虚拟环境造成影响。而“大模型”是指在广泛的数据上进行规模化训练的人工智能模型,其设计是为了实现输出的通用性,并能适用各种不同的任务。值得注意的是,较为狭窄、不普遍的、无法适应广泛任务的预训练模型不属于人工智能法案所规制的大模型。“详见下文第I(I)(a)段.”2023年11月22Bs(ii)以责任主体为规范对象人工智能法案将Al系统的责任主体划分为提供方、部署方、进口方、分销商四种主要角色。其中,“提供方”指开发或拥有已经开发的Al系统,以自己的名义将其投放市场或在欧盟投入服务的自然人或法人;“部署方”指在欧盟境内在其权限范围内使用Al系统的自然人或法人(不包括在个人非专业活动过程中使用),包括使用Al系统以提供用户服务的商业机构等;“进口方”指在欧盟设立或者位于欧盟境内,并将带有欧盟境外自然人或法人名称或商标的Al系统投放到欧盟市场的自然人或法人;“分销商”指供应链中提供方和进口方之外的在欧盟市场中提供Al系统且不改变其系统属性的自然人或法人。(iii)风险分级标准对于Al系统涉及的风险,欧盟主要区分为“不可接受的风险”、“高风险”、“有限风险”和“最小风险”四类,具体如下:存在不可接受风险的Al系统。存在下列情况的Al系统均可能属于存在"不可接受的风险”的Al系统,欧盟成员国内将完全禁止该等Al系统投入市场或者交付使用:(1)采用潜意识技术或有目的的操纵或欺骑技术;(2)利用个人或社会群体的弱点(例如已知的人格特征或社会经济状况、年龄、身体精神能力);(3)利用人的社会行为或人格特征进行社会评分;(4)在公众场所的“实时”(包括即时和短时延迟)远程生物识别系统。高风险Al系统。存在下列情况的Al系统均属于存在“高风险”的Al系统,其投放市场及交付使用均受到严格的管控并需履行评估及备案要求:-Al系统同时满足下述两项条件:(1)属于欧盟统一立法规制范围内的产品的安全组件或为该范围内的产品本身;并且(2)根据欧盟统一立法规制需要就健康或安全问题经过第三方合格评估方可投放市场或交付使用;-Al系统同时满足下述两项条件:(1)存在可能损害环境或损害人类健康、安全、基本权利的重大风险;并且(2)符合分级标准且在规定的领域内使用,包括生物特征识别Al系统、关键基础设施Al系统、可能决定人的受教育或职业培训机会的Al系统、作为超大型在线社媒平台16抵在其用户内容推荐中使用的Al系统等。 有限风险Al系统。不属于存在不可接受的风险或高风险的Al系统,但需要履行一般合规要求,属于存在“有限风险”的Al系统,主要包括与人类互动的Al系统、用于情绪识别的Al系统、用于生物特征分类的Al系统以及生成深度合成内容的Al系统。 最小风险Al系统。在上述三种类型之外的Al系统,均属于存在“最小风险”的Al系统,主要包括允许自由使用Al的电子游戏、邮件过滤器等。(iv)风险分级监管对于前述不同的风险等级,人工智能法案采取了不同程度的监管措施,具体包括: 对于存在不可接受风险的Al系统,严厉禁止使用; 对于高风险Al系统,要求其同时履行:(1)高风险Al系统的特殊合规要求(“特殊合规要求");以及(2)AI系统的一般合规要求(“一般合规要W指根妪欧盟第2022/2065号法规第33条的解定的超大型在姣平台的社交媒体平台.主要为用户数超过4500万的社交媒体平台。求”)。其中,特殊合规要求主要包括内部合规及外部认证措施:-内部合规措施须贯穿系统全生命周期,包括:(1)形成风险管理体系;(2)实施数据治理;(3)形成技术文档;(4)自动记录运行日志;(5)保证透明度;(6)保证人工监督;(7)保证系统的准确性、稳健性和网络安全性。-外部认证措施均应当于上市前完成,包括:(1)根据系统功能不同,进行自评估或者第三方评估;(2)在欧盟公共高风险Al系统数据库中备案;(3)使用CE(COnfOrmityEuropean,"CE")标识。 对于有限风险Al系统,履行一般合规要求即可。就一般合规要求而言,主要为透明度要求,具体要求根据Al系统的不同类型而有所区分:-针对与人类互动的Al系统,系统使用者需要告知人类其正在与Al系统进行互动;-针对情绪识别及生物特征分类Al系统,系统使用者需要告知系统识别对象上述系统的存在,并且需要就生物识别数据的获取取得系统识别对象的同意;-针对生成深度合成内容的Al系统,系统使用者需要对外告知该等内容是由Al生成或操纵的,而并非真实内容。 对于最小风险Al系统,不作强行性干预。(V)各类责任主体的义务总体而言,提供方是Al系统的最终负责人,其需履行的义务最为全面,责任承担亦为最重,部署方需履行风险防范义务,其他参与者需履行以审查义务为核心的一系列的合规义务,具体如下: 提供方的义务主要包括:(1)执行前述所有特殊合规要求;(2)在系统上标明其名称、注册名称或注册商标,以及其联系信息;(3)确保执行人工监督的人员精通自动化或者算法偏见的风险;(4)执行数据保护,包括数据保护影响评估并发布摘要,以及提供输入数据或所使用的数据集的任何其他相关信息的说明;(5)建立书面质量管理体系;(6)日志及文档保存;(7)对不当行为采取纠正措施并告知有关机构;(8)提交欧盟合格声明,并在系统上市后由国家监督机构和国家主管部门保管;(9)境外提供方应在欧盟境内设置代表(“授权代表”),以全权履行人工智能法案项下提供方的义务并配合主管机构的工作。 部署方的义务主要包括:(1)监督与风险控制;(2)数据保护;(3)履行备案,作为欧盟公共当局或者欧盟机构、团体(“公共当局”)的部署方或者属于数字市场法案17守门人的部署方,需要在使用系貌前在欧盟公共高风险Al系挑效兖府中备案,其余高风险AI系蜕的部看方可自患备案:(4)届行高风险Al系蜕的基本权利影响评估.以确定系跳在使用环境中的影喃。都看方为公共当局的,应公布评估的结果摘要,作为上述备案的一部分. 进口方主要义务包括:确保Al系统提供方履行了自评估或第三方评估义务、形成技术文档义务、授权代表任命义务(如需),并确保Al系统带有CE标识,附有所需的说明文件。(Vi)大模型的特殊合规义务大模型的提供方在大模型上市前,应确保该模型符合下述要求:(1)以适当的方法识别、减少重大风险,并记录剩余的不可缓解的风险;(2)只纳入经过适当的大模型数据治理措施的数据集,且须审查数据来源的活当性和可能的偏差以及缓解措施;(3)在设计和开发期间进行测试及评估,以在其整个生命周期内达到适当的性能、可预测性、可解释性、可纠正性、安全性和网络安全水平;(4)减少能耗及浪费,提高整体效率,具有测量和记录能耗以及可能产生的其他环境影响的能力;(5)制定技术文件和使用说明;建立质量管理系统,以记录对上述义务的遵守;(7)在欧盟数据库中备案该大模型;(8)在其大模型投放市场或投入使用后的10年内,将技术文件交由国家主管部门保存。(b)数据隐私、算法及知识产权相关法律法规针对大模型及其所服务的Al系统所涉及的数据、个人信息、算法以及知识产权等领域,欧盟现有的相关规定在各自适用的范围内实际上起到了垂直监管的作用。该等垂直监管类的主要规定如下:2018年5月,欧盟委员会的通用数据保护条例(GeneralDataProtectionRegUIatiOn,"GDPR)8生效。GDPR从数据控制者和处理者的责任以及数据监管等方面重新调整了欧盟个人数据保护策略。另外,GDPR关于透明度的原则以及自动化决策有关的规定也为算法设计者设置了相关义务,包括确保算法训练数据痕迹可查义务以保证算法训练数据真实、对算法部分技术原理进行阐释义务以保证算法目标服务人群充分了解情况,以及算法的非歧视机制等。2022年10月,欧盟委员会颁布了数字服务法案(DigitalServiceAct,“DSA)9,其适用对象为数字服务供应商。DSA将适用对象划分为管道服务商、蝮存服务商、托管服务商、在线平台及在线搜索引擎,并特别定义了超大型在线平台(VeryLargeOnlinePlatform,uVLOP")和超大型在线搜索引擎(VeryLargeOnlineSearchEngines,*VL0SE,1)o上述主体各自承担不同的合规义务,其中VLoP及VLoSE承担的合规义务最重。DSA的立法宗旨为加强网络平台的内容审查义务、非法商家打击义务、信息透明义务(例如需向消费者明确透传算法推荐及定向广告内容),帮助建立透明、安全、可预测、可信任的网络环境,保护网络平台用户的权益。2022年11月,欧盟委员会颁布了数字市场法案(DigitalMarketAct,"DMA1,)2°,引入“守门人”这一概念,对从事在线中介服务(如应用商店)、182023年11月22日。192023年11月22日.“2023年11月22S.在线搜索引擎、社交网络服务、即时通讯服务、视频共享平台服务、虚拟助手、网页浏览器、云计算服务、操作系统、在线市场和广告服务等服务的符合标准的大型互联网平台进行反垄断合规监管。DMA借助行为清单工具,明确列举了守门人“必须为”和“禁止为”的内容,旨在维护数据开放,保护个人数据、禁止守门人滥用优势地位进行不正当竞争,确保数字市场的公平竞争和良性发展。2019年3月,欧盟议会通过了数字化单一市场版权指令(DireCtiVeonCopyrightintheDigitalSingleMarket,“版权指令,) 2023 年 11 月 22 日。 2023 年 11 月 22 日:,GPDP")宣布禁止使用ChatGPT ,并限制开发这一平台的OPenAl公司处理意大 利用户信息,同时对OpenAI公司展开立案调查,理由是ChatGPT平台存在 用户对话数据和付款服务支付信息丢失的情况,而且没有就收集处理用户信息 进行告知,缺乏大量收集和存储个人信息的法律依据。此外,ChatGPT没有有 效的年龄核实系统,可能会让未成年人接触到不适当的内容。4月12日, GPDP列出一份清单,要求OPenAl在4月底前满足包括透明度、数据纠正及o版权指令规定,基于科学研究与数据分析两种目的,并且作品为合法获取的情形下的数据挖掘(TeXtDataMining,“TDM”)具有正当性。显然,大模型的开发者进行的TDM通常并不属于科学研究范畴,而更可能属于以数据分析为目的的TDMo版权指令第4条为大模型在数据训练阶段对版权客体的复制、提取行为设置了合理使用的例外,该等例外实际上赋予

    注意事项

    本文(大模型合规白皮书2023-金杜律师事务所&上海人工智能研究院-2023.11_市场营销策划_重点报告.docx)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开