国信证券:新一轮人工智能创新周期 ChatGPT对算力需求如何?
智通财经APP获悉,国信证券发布研究报告称,当前处在以ChatGPT为主线的新一轮人工智能创新周期,ChatGPT为人工智能产业注入新活力,有望带动AIGC类应用快速爆发,人工智能技术作为驱动数据经济的技术底层,有望迎来新的发展机遇。数据、算力与算法是人工智能时代的三大基石,三者相互促进带动AI+应用快速落地,ChatGPT为首的自然语言处理类技术及应用,有望迎来全面爆发,建议重点关注人工智能相关赛道。
事件:2022年11月30日人工智能实验室OpenAI发布全新聊天机器人模型ChatGPT,其是一款人工智能技术驱动的自然语言处理工具。自从ChatGPT推出以来,受到市场广泛关注,当前每日用户超过1000万人。
国信证券主要观点如下:
Chatgpt成本主要可以拆分成训练和推理两个阶段。
人工智能主要分为计算机视觉和自然语言处理两大基础方向,当前自然语言处理类任务基于大型语言模型(LLM,LargeLanguageModel)演进出了最主流的两个主要方向,BERT(基于Transformer的双向编码器表示技术)和GPT(基于Transformer生成预训练技术),Google属于BERT技术方向,微软投资的OpenAI属于GPT技术方向。从计算过程上,人工智能计算主要可以分为模型训练与推理两个阶段,针对大语言模型LLM更是如此,随着参数与数据规模的不断增大,将带动拉动算力需求的快速增长。
“token”是当前语言类模型的数据单位。
当前的自回归语言模型是根据token来作为单位进行数据处理和计算,分词(tokenization)就是将句子、段落、文章这类型的长文本分解为以token为单位的数据结构,把文本分词后每个词表示成向量进行模型计算。例如在英文语境下,“happy”可能被分解为“hap”、“-py”两个token,中文语境下,“我很开心”可以分成“我”,“很”,“开心”三个token。
以英伟达DGXA1OO服务器作为计算资源:
(1)单台服务器售价20万美元;(2)采用云服务单天成本约为460美元。根据英伟达官网数据,英伟达超算GPU系列从旧到新包括P100、V100、A100、H100等,其中,DGXA100系列服务器为2020年发布,是当前主流使用的超算服务器,单机有8个A100系列GPU,AI算力性能为5PetaFLOP/s,单机最大功率6.5kw,售价19.9万美元;如果租用云服务,根据亚马逊数据显示,在亚马逊AWS预定一年的A100系列GPU,有8个A100的AWSP4实例的平均成本约19.22美元,一天的平均成本约为461.28美元。
ChatGPT上一个30字的问题需要消耗计算资源0.12PetaFLOP/S。
最常见的Transformer类语言模型在推理过程中每个token的计算成本(以FLOPs为指标)约为2N,其中N为模型参数数量(20年发布的GPT-3拥有1750亿参数,22年谷歌发布的PaLM拥有5400亿参数,由于并未公布当前GPT3.5的参数数量,当前假定参数数量为3000亿),假设模型的FLOPS利用率约为20%,粗略估计ChatGPT一个30字(假设约40个token,注:在英文语境下,一般1000个token=750个单词)问题需要的算力资源为2*40*3000亿/20%=0.12PetaFLOP/S。
推理成本:为满足当前用户访问产生的推理成本,自建IDC初始投入约在4亿美元,租用云服务每日成本约28万美元。
根据Similarweb的数据,23年1月份当前ChatGPT日活约1300万人,每人平均1000字左右的问题,因此合计产生约130亿字(173.3亿个token),假设24小时平均分配任务,需要的A100GPU数量为173.3亿*2*3000亿/(20%*24小时*3600秒)=601.75PetaFLOP/S,由于访问流量存在峰值,假定访问峰值是一天均值的5倍,因此共需要602台DGXA100服务器能够满足当前的访问量。
1)自建IDC:服务器成本约占数据中心成本30%左右,为满足当前日常访问需求,前期一次性成本投入约为602*19.9/30%=3.99亿美元;
2)云服务:假设每天租用亚马逊AWS云服务,每天成本为461.28*602=27.77万美元。
训练成本:训练阶段每个Token的训练成本约为6N(推理成本为2N),由于每年训练成本都在快速下降,此处引用OneFlow的测算结果,在公有云中训练OPENAI的GPT-3模型需花费训练成本约140万美元,Google的PaLM模型需花费训练成本约1120万美元。
预计在ChatGPT结合Bing搜索功能后,其对算力资源的消耗将成数倍增长。
当前ChatGPT模型可以理解为在一个在庞大训练数据集上训练的LLM,它会将训练期间的知识存储到模型参数中。在推理过程中(使用模型生成输出),LLM无法访问外部知识,仅依靠模型参数进行计算;如果将ChatGPT与搜索功能结合,如Bing等搜索引擎,其计算过程将通过搜索引擎返回多个查询结果,并通过GPT计算生成多个响应,在返回最高分的响应给用户,其对算力资源的消耗将成数倍增长,增长倍数取决于搜索和响应的个数。
风险提示:模型假设不合理对测算结果造成偏差,ChatGPT商业化落地不及预期。
本文源自:智通财经网