2023年ChatGPT半导体行业研究报告.docx
《2023年ChatGPT半导体行业研究报告.docx》由会员分享,可在线阅读,更多相关《2023年ChatGPT半导体行业研究报告.docx(5页珍藏版)》请在课桌文档上搜索。
1、2023年ChatGPT半导体行业研究报告导语2017年谷歌推出一种用于自然语言理解的新型神经网络架构一一Transformers模型,不但能生成质量上乘的语言模型,同时具有更高的可并行性,大大降低了所需的训练时间。这些小样本学习模型,可以更容易地针对特定领域做定制修改。2018年以来,国内外超大规模预训练模型参数指标不断创出新高,“大模型”已成为行业巨头发力的一个方向。谷歌、百度、微软等国内外科技巨头纷纷投入大量人力、财力,相继推出各自的巨量模型。国外厂商自2021年开始进入“军备竞赛”阶段。2018年,谷歌提出3亿参数BERT模型,大规模预训练模型开始逐渐走进人们的视野,成为人工智能领域的
2、一大焦点。2019年,OPenAl推出15亿参数的GPT-2,能够生成连贯的文本段落,做到初步的阅读理解、机器翻译等。紧接着,英伟达推出83亿参数的Megatron-LM,谷歌推出110亿参数的T5,微软推出170亿参数的图灵Turing-NLGo2020年,OPenAI以1750亿参数的GPT-3,直接将参数规模提高到千亿级别。2021年1月,谷歌推出的SwitchTransformer模型以高达1.6万亿的参数量打破了GPT-3作为最大AI模型的统治地位,成为史上首个万亿级语言模型。2020年10月,微软和英伟达联手发布了5300亿参数的Megatron-Turing自然语言生成模型(MT
3、-NLG)。2021年12月,谷歌还提出了1.2万亿参数的通用稀疏语言模型GLaM,在7项小样本学习领域的性能超过GPT-3oChatGPT背后的公司为OPenAI,成立于2015年,由特斯拉CEO埃隆马斯克、PayPal联合创始人彼得蒂尔、Linkedin创始人里德霍夫曼、创业孵化器YCombinator总裁阿尔特曼(SamAltman)等人出资10亿美元创立。OpenAI的诞生旨在开发通用人工智能(AGl)并造福人类。ChatGPT中的GPT(GenerativePre-trainedTransformer),是OpenAI推出的深度学习模型。ChatGPT就是基于GPT-3.5版本的聊天
4、机器人。截至2022年12月4日,OpenAI估计ChatGPT用户已经超过100万;2023年1月,ChatGPT用户超过1亿,成为迄今增长最快的消费应用程序。2023年2月,OpenAI开始接受美国客户注册一项名为ChatGPTPIUS的高级服务,每月收费20美元;此夕卜,OPenAl正计划推出一个每月42美元的ChatGPT专业计划,当需求较低时可以免费使用。OpenAI预计人工智能科学研究要想取得突破,所需要消耗的计算资源每34个月就要翻一倍,资金也需要通过指数级增长获得匹配。在算力方面,GPT-3.5在微软AzureAI超算基础设施(由V100GPU组成的高带宽集群)上进行训练,总算
5、力消耗约3640PF-days(即每秒一千万亿次计算,运行3640天)。在大数据方面,GPT-2用于训练的数据取自于Reddit上高赞的文章,数据集共有约800万篇文章,累计体积约40G;GPT-3模型的神经网络是在超过45TB的文本上进行训练的,数据相当于整个维基百科英文版的160倍。按照量子位给出的数据,将一个大型语言模型(LLM)训练到GPT-3级的成本高达460万美元。最新的GPT3.5在训练中使用了微软专门建设的AI计算系统,由1万个英伟达V100GPU组成的高性能网络集群,总算力消耗约3640PFdays(PD),即假如每秒计算一千万亿(1020)次,需要计算3640天。采购一片英
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 2023 ChatGPT 半导体 行业 研究 报告
链接地址:https://www.desk33.com/p-247151.html