智通财经APP获悉,1月1日,半导体行业观察发文称,2023年,随着以大语言模型为代表的人工智能市场持续火爆,人工智能成为了半导体行业的最大推动力,也见证了Nvidia惊人的销售业绩以及其市值创下新高。随着新年的到来,该机构也对2024年人工智能芯片做一个展望。
市场需求:人工智能仍将继续火热
从市场需求侧来看,该机构认为人工智能在2024年仍然将继续火热,这也将继续推动相关的芯片行业保持良好的态势。然而,与2023年不同的是,该机构认为在2024年,人工智能市场的需求会同时从云端慢慢扩展到终端,这也将驱动相应的芯片市场发展。
首先,从云端需求来看,大语言模型仍然将是主要的增长点。同时,图像生成类模型也会保持快速增长的势头。具体来说,大语言模型仍然是各大科技公司竞相研发的核心技术,包括OpenAI,微软,谷歌,华为,阿里巴巴,百度等中外科技公司都在大力研发下一代的大语言模型,而包括中国移动等传统行业的公司也在入局大语言模型领域,同时还有大量的初创公司在依靠风险投资的支持也在大力开发大语言模型。大语言模型的百家争鸣时代才刚刚开始并且远远没有落下帷幕,在这样的群雄逐鹿的时间节点,预计对于芯片的需求也会快速增长。大语言模型的特点是需要海量的数据和训练芯片资源,而且同时由于格局尚未尘埃落定有大量的公司在研发新的模型,因此总体来说训练芯片的需求会非常大。
而随着云端人工智能交互进入多模态时代,聊天机器人已经不仅仅可以用文字回答,而且还可以完成看图说话以及图像甚至视频生成等任务,因此该机构认为,图像生成类的模型,以及图像和语言结合的多模态模型也将会成为云端人工智能的一个重要增长点。
除了云端之外,该机构认为终端(包括手机和智能车)也将会成为人工智能的新增长点。手机上的人工智能虽然早已不再新鲜,但是随着生成模型的成熟,该机构可望看到这类模型落地手机端并赋能新的用户体验。手机端生成类模型又分为两种,一种是图像生成类模型,即以扩散模型(diffusionmodel)为代表的模型,这类模型可以实现高质量超分辨以及高质量修图,从而可望给用户的拍照和照片编辑带来革命性的变化。另一类应用是语言模型——与运行在云端的大语言模型(LLM)相对地,过去几个月该机构看到了小语言模型(SLM)的兴起。小语言模型和大语言模型一样,都是主要用于语言的理解和生成(或者说,与人对话);小语言模型在参数量变少之后,可以更灵活地应用在一些专用的场景中(而不是像大语言模型一样试图覆盖所有场景)并且提供很高的准确性,同时还有可能运行在终端设备中。
从智能车领域,一方面随着端到端多任务大模型带来的革命性性能提升(例如BEVFormer带来的俯瞰场景识别性能提升,以及商汤在2023发布的UniAD带来的多任务性能大幅提升)会推动这类模型进一步落地并且推动芯片的需求,另一方面则是来自于语言模型人机交互这类源自于云端的人工智能应用迁移到智能车场景。
因此,该机构预测,2024年将会是人工智能持续火热的一年,与2023年不同的是除了云端人工智能保持热门之外,该机构预计终端应用场景也会成为新的人工智能需求增长点。
云端市场格局分析
云端人工智能芯片市场,该机构预计Nvidia仍然将保持领跑地位,但是AMD等竞争者预计也将获得更多市场份额。
首先,如前所述,云端市场目前主要的需求在于大语言模型和生成式图像的训练和推理。由于这些模型对于计算资源需求非常大,而且训练任务占的比例很大,因此给相应的芯片设了一个很高的门槛。这里的门槛包括了:
-芯片算力:为了支持巨大的计算量,芯片需要有足够的计算单元,内存容量和带宽
-分布式计算支持:对于大模型来说分布式计算是必须的
-软件兼容性和生态:对于训练来说,对于模型进行反复快速迭代是一个很强的需求,因此必须有足够好的生态来支持不同的模型算符快速迭代
目前而言,Nvidia在这一个领域仍然是领先,无论是其芯片和分布式计算性能,还是软件生态兼容性来说,都是首选。这也是为什么2023年Nvidia的H100成为了人工智能相关公司最宝贵的资源,在市场上供不应求。在2024H2,Nvidia将会开始出货H200,相对于H100来说,H200拥有40%和内存带宽提升以及80%的内存容量提升,因此可望会被人工智能公司争相购买。
在2024年,该机构预计AMD在云端人工智能领域也将更加站稳脚跟,并由此开始慢慢走向更大的市场份额。2023下半年,AMD发布了最新的MI300X用于高性能计算的GPU模组,该芯片包含大芯片粒(12个处理器/IO芯片粒),并且相比于H200来说,拥有更高(1.6倍)的FP8算力,以及更大的内存容量和带宽(1.2倍)。从AMD公布的实测数据来看,MI300X的推理能力大约比H100强20%-40%,训练性能则和H100持平。该机构认为,软件生态(包括编译器性能)将成为决定AMD在云端人工智能市场能否成功的决定性因素,而这一点预计在2024年将会有所改善:OpenAI将在最新发布的Triton框架中加入对于AMDMI300X的支持,而各大初创公司的人工智能加速软件框架也在加强对于AMDGPU的支持。随着芯片