英伟达发布新人工智能芯片,CEO黄仁勋:大模型运行成本将大幅降低

资讯1年前 (2023)发布
933 0 0

英伟达发布新人工智能芯片,CEO黄仁勋:大模型运行成本将大幅降低

英伟达发布新人工智能芯片,CEO黄仁勋:大模型运行成本将大幅降低

网易科技讯 8月9日,英伟达公布推出一款新芯片,致力于在人工智能硬件行业抵挡竞争者,包含AMD、谷歌搜索和亚马逊平台。

据统计,现阶段英伟达在AI芯片销售市场占据着超出80%市场占比。这家公司的特长是图型控制部件(GPU),已经成为支撑点生成式人工智能软件(如谷歌的Bard和OpenAI的ChatGPT)大型AI模型的最佳选择芯片。但是由于互联网巨头、云服务提供商和初创公司角逐GPU容积来开发自己的AI模型,英伟达的芯片供货紧缺。

英伟达发布的芯片GH200,与本公司现阶段最顶级的AI芯片H100选用同样的GPU。但GH200还配有141GB的顶尖运行内存和一个72核的ARM微处理器。

英伟达CEO黄仁勋在周二精彩的演讲中指出:“我们给这一Cpu添加了一些提高。”他补充道:“这一Cpu是为了全球数据中心规模量身定做的。”

据黄仁勋表露,这一款新芯片将于明年第二季度在英伟达的代理商处发售,并计划在年内给予试品。英伟达的代表回绝表露价钱。

一般,解决AI模型的一个过程最少分两一部分:练习和推理。

最先,应用海量数据对模型进行练习,这一过程可能还需要几个月时长,有时候需要数千个GPU,比如英伟达的H100和A100芯片。

随后,该模型将于手机中用以精准预测或形成具体内容,这一过程称之为推理。与练习相近,推理需要大量云计算服务器,而且每一次手机软件运作的时候都需要大量处理量,比如生成文本或图象时。但是和练习不一样,推理是基本上不断进行的,而练习只能在必须升级模型时候要进行。

黄仁勋表明:“你可以将基本上一切大中型语言表达模型放进在其中,它会进行疯狂推理。大中型语言表达模型的推理成本费将大幅度降低。”

英伟达的全新芯片GH200致力于推理需求设计,因为他具备更大的内存空间,能容纳更大的AI模型在单独系统内。英伟达高级副总裁尹恩·帕洛在和投资分析师和媒体的网络会议中指出,英伟达的H100具备80GB的存储空间,而一个新的GH200亦有141GB的存储空间。英伟达还宣布上线了一种把两个GH200芯片组成到一台计算机里的系统软件,以推动更大的模型。

帕洛表明:“更大的运行内存促使模型能够长驻在单独GPU上,而无需好几个系统软件或几个GPU来运作。”

本次公布恰逢英伟达的重要GPU竞争者AMD发布面对AI的芯片MI300X,该芯片适用192GB的存储空间,且被品牌推广为适用AI推理。谷歌搜索和亚马逊平台等企业也在设计方案自已的订制AI芯片用以推理。

翻译校对:小北

92game游戏网

色彩游戏网

© 版权声明

相关文章

暂无评论

暂无评论...