观速讯丨AMD发布多款新品,数据中心和人工智能领域有望迎来新机遇


(相关资料图)

根据最近的机构研究报告,为您总结相关行业的投资要点,供参考:

事件

2023年6月14日,AMD举行数据中心和A技术首映会议,AMD展示了新产品以及在数据中心、人工智能以及高性能计算等领域解决方案的发展趋势。会上,AMD发布了InstinctMIB0OA(APU)、InstinctMI300X(GPU)、具备3DV-Cache技术的EPYCGenoa-X、定位云计算场景的EPYCBergamo、针对电信和边缘工作负载的EPYCSienna以及数据中心DPU、智能网卡等一系列新产品。

InstinctMI300A为AMD首个集成24个Zen4CPU核心,CNDA3架构GPU核心以及128GBHBM3的APU,被认为在性能上有望与英伟达的GraceHopper相媲美。MI300A在设计上采用3D堆叠和Chiplet设计,配备了9个基于5nm制程的小芯片(Zen4通常为8核Die,因此我们推测9个小芯片为3个CPU+6个GPU的配置),9个小芯片被堆叠在4个基于6nm制程的小芯片之上,其晶体管总数高达1460亿,多于英伟达H100的800亿,是AMD目前生产的最大规模芯片。在性能表现上,与上一代InstinctMI250相比,InstinctMI300A进行人工智能训练的表现(TFLOPS)将成长8倍,能效表现(TFLOPS/watt)将成长5倍,MI300A已经开始推出样品。

InstinctMI3O0X集成了12个5nm的小芯片,提供了192GB的HBM3、5.2TB/s的带宽,晶体管数量高达1530亿。MI30OX提供的HBM密度是英伟达H100的2.4倍,HBM带宽是H100的1.6倍,意味着在MI3O0X上可以训练比H100更大的模型,单张加速卡可运行一个400亿参数的模型.AMD还推出了lInstinct训练平台,内置8个MI300x,提供总计1.5TB的HBM3内存,MIl300X和Instinct训练平台将于23Q3开始推出样品。

EPYCGenoa-X为带有3DV-Cache服务器处理器,Genoa-×最高为96Zen4核心,具备超大3DV-Cache缓存,总L3缓存达1.1GB。相较于Intel80核的至强处理器,Genoa-X在各应用场景的表现提升了2.2-2.9倍不等(以上内容为自选股智能机器写手差分机完成,仅作为用户看盘参考,不能作为操作依据。)

关键词: