华人澳洲中文论坛

热图推荐

    赛道Hyper | ChatGPT阶段大赢家是谁?

    [复制链接]

    2023-2-15 09:20:07 21 0

    虽然大众不分明ChatGPT的泛起,对日常糊口,究竟象征着何等微小的改动,但这不影响寰球科技大小公司个人“蹭”点的热心。
    在A股市场,ChatGPT概念股被继续做多,在美国也同样。最具AI颜色和技术才能的英伟达公司,股价从美股在2023年第一个买卖日——1月3日的143.15美元,靠着ChatGPT的助推之下,截至2月14日开盘,涨幅高达52.20%。这是在半导体行业进入上行周期的配景下取得的。
    ChatGPT需求甚么样的AI芯片?为何赢麻的是英伟达?
    为何GPU是首选?
    看下来很美的AI技术,商业化落地停顿老是不迭预期。然而,ChatGPT掀起的热潮,却成为AI将来商业化空间的最新想象。
    ChatGPT是OpenAI公司于2022年十一月公布的一款AI运用产品——对话机器人,能经过学习和了解人类言语完成人机对话。
    与此前早已泛起的如苹果Siri最大的不同,ChatGPT的人机对话其实不单调/弱智,ChatGPT能按照人类的反映做出富裕逻辑性的上下文信息互动。
    因此,ChatGPT不只能做共性化搜寻工作,也能做逻辑解析,乃至可按照不同的主题,自动生成不逊于人类智力水准的各种文件,如论文、旧事和各类讲演等,还能实现初级辅佐编程等天然言语工作。
    如斯“高智能”的运用工具,其发作性无可比拟:公布两个月,ChatGPT月活用户就达到1亿,成为史上增长最快的消费者运用顺序。
    这类“火热”不止C端用户独有,寰球顶级科技巨头微软和谷歌等,包罗国际的百度、阿里等科技公司,都前后宣告在ChatGPT畛域的资金和技术规划,好比微软以100亿美元入股OpenAI,谷歌刚公布了自研的BARD模型。
    从底层技术角度看,ChatGPT是一种基于Transformer架构的预训练言语模型。这套模型,能经过海量语料数据,自动训练生成语法构造和语句构造,这被称为“生成类模型”。
    ChatGPT运用和AI表白门路,或言语模型次要功用,就是经过巨量数据做预训练,之后就可以了解C端用户的言语指令,或更进一步按照用户指令,生成相干文字后果并做文本输入。
    以后,AI生成类模型次要分两类,一类是以ChatGPT为代表的言语类,另外一种是以分散模型(Diffusion)为代表的图象类。
    若要包管ChatGPT的Transformer(语义了解和造成有逻辑的言语输入)成果,就必需具有一个超大言语模型,即LLM(Large Language Model)。这个大模型有着极多的标签参数,便于NPU调用。技术论文显示,ChatGPT参数量达到了惊人的1750亿。若使用规范浮点数,则占用的存储空间能达到700GB。
    如ChatGPT的参数量级,以及需求的Transformer成果,则运算硬件单元需求甚么样的类型或技术要求?
    简略来讲,这需求三方面要求:散布式计算、内存容量/带宽、算力。
    首先,单机训练显然无奈胜任ChatGPT的成果要求,因此需求使用散布式计算;其次,在大范围散布式计算过程当中,除了高算力,散布式计算节点之间的数据传输也极其首要。这对节点数据互联带宽提出了极高的要求。
    第三,内存容量,这个相对于容易了解。做海量数据训练,散布式计算节点的存储空间,抉择了节点数据量的多少。数据量级越大,AI训练效力越高,后果天然也会相应越好。
    如斯就很分明,合乎ChatGPT需要的AI芯片次要不是CPU,而是包孕NPU的GPU。所谓NPU,即嵌入式神经网络处置器(Neural-network Processing Units)。神经网络并非指算法,而是一种特点提取办法。
    抉择神经网络优劣的中心要素,在于具有多少可供训练的数据量。事实上,当初建模拼的不是算法,而是数据量级。
    简略来讲,深度学习会把特点当做黑盒子,对原始数据做十分繁杂的变换操作:输出数据后,神经网络会自动提取特点。这些特点会让机器意识其含意,按照不同的技术指标辨认和学习到甚么特点最适合。所以,深度学习解决的中心问题是提取特点。
    英伟达成阶段大赢家
    ChatGPT的成果,需求散布式计算、内存容量/带宽和算力做保障。这抉择了ChatGPT的算力硬件需要更多的是GPU。
    除了上文提到的缘故,还有一个要点在于,CPU开展到本世纪初,已愈来愈难以持续维持每一年50%的机能晋升;此时,外部包孕数千个中心的GPU,却能利用外在的并行性,持续晋升机能。
    更首要的是,GPU的众核构造更合适高并发的深度学习工作。好比基于众核构造,英伟达推出的Triton解决计划。
    这套Triton反对散布式训练和散布式推理,能将一个大型模型的算力合成成多个部份,调配到多个GPU做相应处置,从而解决因参数量过大,致使的单个GPU主存无奈包容的问题。
    另外,言语类生成模型的次要计算类型是矩阵计算,而矩阵计算始终是GPU的强项。
    值得一提的是,GPU这个缩写,独创或定义公司即英伟达。
    1993年,黄仁勋等三位电气工程师联结成立英伟达,次要面向游戏市场供给图形处置器。1999年,英伟达推出显卡GeForce 256,第一次将图形处置器定义为“GPU”。
    然而,让GPU成为AI训练首选芯片的除了硬件自身,还有英伟达在2006年推出的CUDA软件开发平台,以反对开发者用相熟的CPU初级顺序言语(如C言语/Java)开发深度学习模型,灵敏调用英伟达GPU算力,还配套提供数据库、排错顺序和API接口等一系列工具。
    能够说,英伟达在深度学习和AI训练计算畛域的技术贮备,寰球罕有对手。因此,在ChatGPT刚迈出商业化探究第一步之时,就被业界寄与厚望。
    IDC亚太区钻研总监郭俊丽近日对媒体称,就现阶段ChatGPT表示的AI程度,其总算力损耗高达3640PF-days,需求最少1万颗英伟达高端GPU做撑持。所谓3640PF-days,即每秒计算一千万亿次,需求继续运转3640天。
    郭俊丽由此做出预计,在十二个月内,ChatGPT极可能推进英伟达相干产品完成销售额达35亿-100亿美元之巨。
    看下来英伟达成为了ChatGPT最大赢家,但对手也不是没有,好比AMD。这家公司近些年来在通用GPU畛域,始终紧追英伟达,生长速度极快。2022年,AMD数据核心事业部营业额完成64%的同比高速增长。
    另外还有英特尔。目前英特尔在GPU市场,已推露面向数据核心和AI的Xe HP架构,还有面向高机能计算的Xe HPC架构。
    固然,就英伟达GPU拥有的规范通用属性看,这家公司大略率会是ChatGPT在商业化早期较长期内的次要受害方。
    英伟达CEO黄仁勋近期针对ChatGPT颁发看法时指出,“ChatGPT 的泛起对人工智能畛域的意义,相似手机畛域‘iPhone’的泛起。这一刻在科技畛域拥有里程碑的意义,由于当初大家能够将一切对于挪动计算的设法,会集到了一个产品中。”

    发表回复

    您需要登录后才可以回帖 登录 | 立即注册

    返回列表 本版积分规则

    :
    中级会员
    :
    论坛短信
    :
    未填写
    :
    未填写
    :
    未填写

    主题33

    帖子44

    积分207

    图文推荐