在5月8日举行的东北证券2024年大科技投资策略会上,东北证券电子行业首席分析师李玖从AI终端的算力和闪存,到全社会的算力网络和工业水平层面介绍了AI时代的中国机会。
结合联想发布的《AI PC产业(中国)白皮书》中的定义,李玖对AI PC的特点进行了归纳。AI PC能够进行多模态自然语言交互;将大模型压缩到适合终端规模,压缩之后依然具备通用场景服务能力;需要强AI算力进行推理,终端标配本地混合AI算力(本地为主,边缘与云为辅);需要基于个人数据和隐私信息进行微调和个性化服务。AI PC的核心是用户专属的个人大模型与PC结合。
李玖认为,从市面上已发布的新品来看,业界形成了AI PC不成文的最低门槛:AI算力(NPU)要达到40 TOPS,闪存(DRAM内存或VRAM显存)要达到16GB。AI终端为消费电子硬件带来的改变,一是要大算力,二是要大内存。
在端侧算力解决方案上,全球算力供不应求,李玖看好华为的“鸿蒙方案”。李玖强调,鸿蒙不是对安卓等系统的平替,而是超越。其核心是多端协同,即不同硬件、设备协同完成同一项任务。《鸿蒙生态应用开发白皮书》中就展示了显示协同、交互协同、算力协同三种多端协同的应用场景。
李玖团队对此的理解是,搭载鸿蒙系统的硬件形成互联时(比如使用“超级终端”功能时),所有硬件的系统暂时融合为“同一个系统”。在“同一个系统”下,不同硬件终端尽管在物理上并没有有线连接,终端存储也并未装配在同一块PCB主板上,但终端之间的计算、存储以及其他功能都可以共享和相互调用。在分布式操作系统下,终端之间的交互方式实现了革命性创新,比如可以实现“跨端迁移”“多端协同”“分布式硬件”等颠覆式体验。
算力协同可在不借助云端算力的情况下,解决单个终端算力的不足的问题。比如用户在手机或大屏上玩游戏时,利用周边设备(其他手机、平板、笔记本等)协助完成游戏应用的计算任务(AI计算、图像渲染),从而提升游戏帧率、画质。
“鸿蒙从系统层面连接起硬件、设备集群,利用集群的算力来完成同一个任务,大大降低了AI等应用对端侧硬件算力的要求,实现灵活解决对算力需求较高的端侧任务。”李玖说,开发者可以将更多的创新施展在端与端的交互上,我国物联网软硬件生态将因鸿蒙而更加繁荣,中国物联网软硬件的竞争力将得到显著提升。
在李玖看来,AI浪潮下的电子赛道上,内存机遇虽不如算力耳熟能详,却有着倍增可能性。内存和存储相区别,闪存即计算,决定了实时运行应用程序的大小;存储决定了本地保存照片、文件、应用软件包的容量。
2022年,手机闪存和存储的较高配置是8+512GB,今年的AI手机配置已上升到16+512GB,未来有望进一步翻倍至32GB+1TB。
运行更大模型需要更大内存,这意味着DRAM有望开启高增长;同时,要实现更快推理速度需要更大的内存带宽,DRAM要更靠近CPU/GPU,先进封装、ABF载板等环节迎来机遇。
李玖用上一个消费电子的明星赛道摄像头类比。2019年左右,手机的更新换代浪潮是从配置1个摄像头增加到2个、3个甚至4个。手机作为拥有海量终端用户的消费电子产品,这一趋势为摄像头相关的光学器件等行业带来了可观增量。
“我认为接下来内存产业链将重现智能手机的‘光学时刻’,甚至有倍增可能。”李玖对记者说。
对于云端算力,李玖认为,AI应用将催生超大东西向流量需求。面向AI的数据中心网络要求服务器、交换机、计算卡/GPU芯片、光模块、PCB、连接器等硬件都实现均衡发展。
值得注意的是,李玖提出,从更广泛的角度来看股票配资平台哪些好,AI的底座不只由算力构成。AI时代全方位地对社会工业水平提出了更高要求。超大规模数据中心为电力系统带来更大压力,为碳中和与热管理带来更大挑战,运维管理难度提升,系统储能稳定性也需进一步提高。各行各业深度融合AI生产力,其实是全社会工业能力的综合体现。