当前位置:首页 > 知识 >

AI算力的三种解决方案:GPU、存算一体和量子计算在激烈竞争中,国内厂商能否获得成功

财联社5月14日讯(编辑俞琪)随着ChatGPT、百度文心一言等一系列大模型密集上线,AI大模型当下已经遍地开花。

本周四,谷歌发布资深小编PaLM2与OpenAI旗下GPT-4等系统展开竞争,国内云从科技、引力传媒等多家A股上市公司亦宣布AI大模型产品最新进展。在“AI百模大战”背后,随之带动的算力需求开始呈“爆炸式”增长,一场“算力储备战”已暗潮汹涌,全球算力市场持续火热。

据悉,AI由数据、算法(即模型)和算力驱动,其中任意一方的发展会推动其他方面需求的增长。有分析认为,当下行业内虽然拥有更多的数据以及做了更多的AI模型研究,但算力的扩展速度却没有跟上。今年4月,OpenAI就因需求量过大而停止了ChatGPTPlus的销售。对此,东方证券研报认为,主要系计算资源供不应求。

根据数据预测,AI时代算力的增长已远远超过了摩尔定律每18个月翻番的速率,预计到2030年全球超算算力将达到0.2ZFLOPS,平均年增速超过34%。华为更是预测,未来10年人工智能算力需求将会增长500倍以上。那么,身处“智能革命”起点的当下,什么才是AI算力的最优解?国内“算力军备竞赛”又走到哪一步了?

短期堆起的GPU竞争高地:以量取胜筑起大模型算力门槛低配版英伟达GPU国内炒至10万元

众所周知,芯片能力直接影响着高算力训练效果和速度,相较于基于CPU芯片的通用算力,AI所需的智能算力则主要基于GPU、GPGPU及AISC等AI芯片所提供算力,用于人工智能的训练和推理。其中,GPU是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备,凭借相较于其他硬件在算力方面的较大优势脱颖而出,同时随着英伟达A100、H100等型号产品的发布,前款产品在AI推理时吞吐量是CPU的249倍。GPU已成为当前AI算力的核心硬件。

中金公司研报表示,多GPU互联能力加强可以提高并行计算能力,因而算力提升对GPU数量的要求日益提高。随着单GPU的计算能力越来越难以应对深度学习对算力的需求,英伟达已经开始用多个GPU去解决问题。对此,业内分析认为,高端GPU的数量基本决定了一个厂商能够练多大的模型,后期将成为业内判断企业大模型能力的重要指标。

据TrendForce数据显示,如果以英伟达A100显卡的处理能力计算,GPT-3.5大模型需要2万块GPU来处理训练数据。亦有业内公认看法,做好AI大模型的算力门槛是1万枚A100芯片。

目前,全球GPU市场主要由英伟达、英特尔和AMD三家巨头垄断,去年Q4独立GPU份额分别为

猜你喜欢

关注我们

微信二维码

微信