铁书网

字:
关灯 护眼
铁书网 > 股市闲谈 > 第266章 回避高位短线,选择低位调整后重新放量

第266章 回避高位短线,选择低位调整后重新放量

动人工智能高质量发展高水平应用行动方案(2023—2024年),提出要整合深圳市算力资源,建设城市级算力统筹调度平台,实现“算力一网化、统筹一体化、调度一站式”,全市可统筹的公共智能算力及相关网络带宽保持国内领先水平,鹏城云脑3项目今年年底前启动建设。

    不仅是深圳,北京也在近日发布了加快建设具有全球影响力的人工智能创新策源地实施方案;上海市提出,充分发挥人工智能创新发展专项等引导作用,支持民营企业广泛参与数据、算力等人工智能基础设施建设。

    点评:数字经济发展浪潮下,人工智能蓬勃发展,有望带来相关产业的中长期发展机会。首先是芯片产业链,推动人工智能进步有三大因素:算法、数据和算力,因此人工智能的大规模应用必然带来算力(芯片)需求的高景气。其次是通信产业链,以及信息技术企业的发展机会。预计到2026年,中国人工智能市场将超过263亿美元。

    特发信息(000070)中标了“鹏城云脑2扩展型项目信息化工程第一阶段项目”;

    智微智能(001339)是“端边云网”全场景产品及方案服务商,服务器包括管理服务器、存储服务器、AI服务器等。

    2、今年hbm需求量受高阶GpU提升带动大增58%、这两家公司产业链公司迎机遇

    据集邦咨询(\/trend\/Force\/)最新预测,2023年AI服务器(包含搭载GpU、FpGA、ASIc等主芯片)出货量将接近120万台,年增38.4%。从高阶GpU搭载的hbm来看,英伟达高阶GpUh100、A100主要采用hbm2e、hbm3。随着英伟达的A100\/h100、Amd的mI200\/mI300、谷歌自研的tpU等需求逐步提升,预估2023年hbm需求量将同比增长58%,2024年有望再增长约30%。

    hbm(高带宽内存)是基于tSV和chiplet技术的堆叠dRAm架构,可实现高于256Gbps的超高带宽,帮助数据中心突破“内存墙”瓶颈。AI应用快速放量之下,AI服务器所需dRAm容量为常规服务器的8倍,拉动dRAm需求大幅增长。随着应用对AI的依赖度增加,需要hbm的加入来支援硬件。根据集邦咨询,hbm有助于突破AI发展中受限的硬件频宽瓶颈,2022年6月SK海力士量产hbm3 dRAm芯片并供货英伟达,随着英伟达使用hbm dRAm,数据中心或将迎来新一轮的性能革命。根据Yole预测,dRAm所用tSV封装技术(hbm\/3ds)及混合键合技术将在存储封装市场中取得亮眼进展,二者合计占比将由2020年5%上升至2026年17%,实现32亿美元市场规模。国内hbm相关上游厂商机遇不断呈现。

    雅克科技(002409)为中国大陆唯一打入SK海力士、三星、长鑫、长存等国内外领先存储芯片厂商的>> --
『加入书签,方便阅读』
内容有问题?点击>>>邮件反馈
热门推荐
美漫哥谭没有蝙蝠侠混沌天帝诀我以奥术登临神座战锤来世至尊战王穿成恶毒女配该怎么破?