天普一一天天涨停,普渡众生!
实际流通仅剩5%的超小盘稀缺芯片之王!
中昊芯英一一中国版英伟达!30万亿市值目标!
【中昊芯英斩获硬核芯「2025 年度创业团队奖」成唯一获此殊荣企业】
作为中国集成电路行业内极具影响力的产业活动,硬核芯生态大会自2019年创办以来已成功举办六届,累计吸引超600家 IC设计公司申报、是业内挖掘优秀半导体企业、推动产业高质量发展的重要平台。
本届大会以 「把握芯片本土化窗口期,共探产业发展新机遇」为主题,汇聚了电子制造企业高管、技术专家、投资者等产业链上下游精英,通过主题论坛、供需对接会及颁奖盛典等形式,共同探索中国半导体产业的创新路径。
根据黄仁勋预计三年内,Ai芯片市场将达到7000亿美元(普通芯片规模目前约万亿美元),
目前英伟达占Ai尖端芯片市场的80%,其净利润率高达56%。
可见国产替代的蓝海有多么大!以后5600亿美元AI芯片起码一半留给中昊芯英!也就是2800~3000亿美元!
从广义上讲只要能够运行人工智能算法的芯片都叫作AI芯片,但通常意义上的AI芯片指的是针对人工智能算法做了特殊加速设计的芯片。
AI芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。
AI芯片是人工智能的底层基石
2014年李天石博士“DianNao”系列论文让科学界看到,在冯诺依曼架构下也可以实现AI专用芯片。此后Google推出的TPU运算架构的AlphaGo,接连打败李世石和柯洁,看到了专用芯片的商业价值。人工智能经历过三阶段,迎来爆发式增长。
AI人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路AI芯片。AI的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆(YannLeCun)等人一起开发了可以通过训练来识别手写邮政编码的神经网络,但在那个时期,训练一个深度学习卷积神经网络(Convolutional Neural Network,CNN)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时AI科技泡沫的破灭。
AI芯片是AI发展的底层基石。英伟达早在1999年就发明出GPU,但直到2009年才由斯坦福大学发表论文介绍了如何利用现代GPU远超过多核CPU的计算能力(超过70倍),把AI训练时间从几周缩短到了几小时。算力、模型、数据一直是AI发展的三大要素,而AI芯片所代表的算力则是人工智能的底层基石。
训练芯片及推理芯片
根据机器学习算法步骤,AI芯片分为“训练(Training)”芯片和“推理(Inference)”芯片。“训练芯片”主要用于人工智能算法训练,即在云端将一系列经过标记的数据输入算法模型进行计算,不断调整优化算法参数,直至算法识别准确率达到较高水平。“推理芯片”主要用于人工智能算法推理,即将在云端训练好的算法模型进行裁剪优化变“轻”之后,进入“实战”阶段,输入数据直接得出准确的识别结果。
不同用途(训练or推理)、不同应用场景(端-边-云)对AI芯片有着不同的要求。首先,训练芯片追求的是高计算性能(高率)、低功耗,但是推理芯片主要追求的是低延时(完成推理过程所需要的时间尽可能短)、低功耗。其次,“端-边-云”三个环节对AI芯片的有不同的要求——其中端和边上进行的大部分是AI“推理”,因此用于端和边的AI芯片性能要求和上述推理芯片一致;大部分的训练过程是在云和数据中心进行,训练过程对时延没有什么要求,因此需要保证AI芯片在尽可能保证较高算力的情况下,功耗尽可能低,另外许多推理过程也是在云端进行。
终端芯片及云端芯片
根据部署场景,AI芯片可用于端、边、云三种场景,具体而言:
1)终端AI芯片追求以低功耗完成推理任务,以实际落地场景需求为导向,在能耗/算力/时延/成本等方面存在差异;
2)边缘AI芯片介于终端与云端之间,承接低时延/高隐私要求/高网络带宽占用的推理或训练任务;
3)云端AI芯片以高算力/完成训练任务为目标,包括CPU/GPU/FPGA/ASIC等多种类型。
GPU、FPGA、ASIC及CPU
从技术架构来看,AI芯片主要分为图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、中央处理器(CPU)四大类。其中,GPU是较为成熟的通用型人工智能芯片,FPGA和ASIC则是针对人工智能需求特征的半定制和全定制芯片,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。
GPU:AI高性能计算王者
GPU(Graphics Processing Unit)图形处理器:GPU最初是为了满足计算机游戏等图形处理需求而被开发出来的,但凭借高并行计算和大规模数据处理能力,逐渐开始用于通用计算。根据应用场景和处理任务的不同,GPU形成两条分支:传统GPU:用于图形图像处理,因此内置了一系列专用运算模块,如视频编解码加速引擎、2D加速引擎、图像渲染等;GPGPU:通用计算图形处理器(general-purposeGPU)。为了更好地支持通用计算,GPGPU减弱了GPU图形显示部分的能力,将其余部分全部投入到通用计算中,同时增加了专用向量、张量、矩阵运算指令,提升了浮点运算的精度和性能,以实现人工智能、专业计算等加速应用。
GPU在AI模型构建中具有较高的适配性。GPU的高并行性可以更好地支持AI模型训练和推理过程中大量的矩阵或向量计算,以NVIDIAGPU系列旗舰产品A100为例:根据NVIDIA公布的规格参数,A100的深度学习运算性能可达312Tflops。在AI训练过程中,2048个A100GPU可在一分钟内成规模地处理BERT的训练工作负载;在AI推理过程中,A100可将推理量提升到高达CPU的249倍。
AI模型与应用的加速发展推动GPU芯片放量增长。
AI芯片是专为人工智能计算任务设计的芯片,通过软硬件优化加速深度学习、机器学习等算法,广泛应用于视觉处理、语音识别、自然语言处理等领域。自从AI技术大爆发以来,全球科技巨头持续加码AI大模型,消费电子领域日益呈现人工智能的趋势,AI芯片的需求将与日俱增,AI芯片供应紧张状况一直延续。
AI芯片产业链
AI芯片产业链上游为半导体材料和半导体设备,半导体材料包括硅片、光刻胶、溅射靶材、电子特气、封装材料等,半导体设备包括光刻机、刻蚀机、薄膜沉积设备、清洗设备、涂胶显影设备等;中游为AI芯片可分为CPU、GPU、FPGA、ASIC;下游为Al大模型、云计算、智能驾驶、智慧医疗、智能穿戴、智能机器人等应用领域。
AI芯片市场规模大增
AI芯片作为专门为人工智能计算设计的集成电路,近年来受到广泛关注,中国AI芯片行业市场规模不断增长。