著名芯片制造商英伟达(Nvidia)已成为人工智能热潮的早期赢家之一,近期股价的上涨使该公司更上一层楼。
5 月 30 日,公司市值突破 1 万亿美元的里程碑。
考虑到 Nvidia 仅作为芯片设计商运营,没有自己的制造能力,这一成就对于 Nvidia 来说意义重大。
截至 6 月 1 日,该公司的市值约为 9700 亿美元,使英伟达跻身精英俱乐部之列,只有其他五家公司共享:苹果、微软、Alphabet、亚马逊和沙特阿美。
此前,只有特斯拉、Meta 和中石油这三家公司的市值突破了 1 万亿美元的门槛。
自今年年初以来,Nvidia 的股价涨幅高达 170%,超过了标准普尔 500 指数的其他成份股。
这种增长与人工智能工具的意识和使用的提高直接相关,突出了对企业和消费者的潜在影响。
Nvidia 的成功与其在图形处理单元 (GPU) 市场的主导地位有关。
ChatGPT语言模型自 2022 年 11 月发布以来就在会议室和随意的谈话中受到关注,截至 2023 年 1 月已经吸引了 1 亿用户。
ChatGPT 建立在一个包含 1750 亿个参数的庞大语言模型上,已经使用大约 10,000 个 Nvidia A100 GPU 进行了训练。
Nvidia 目前在全球 GPU 市场占有 80% 的份额,由于其并行处理能力,GPU 的用途超出了 AI 算法,包括数据挖掘和加密货币挖掘。
市场研究公司 IDTechEx 最近发布了一份报告,预测Nvidia将继续占据主导地位,不仅在 GPU 领域,尤其是作为 AI 硬件领域的领导者。
该报告预测,到 2033 年,Nvidia 将占据估计 2570 亿美元 AI 芯片收入的很大一部分。
英伟达的收入主要来自数据中心和网络细分市场,其中包括数据中心平台、自动驾驶汽车解决方案和加密货币挖矿处理器。
在 2023 财年,英伟达从数据中心获得的收入高达 150.1 亿美元,占公司当年总收入的 55.6%。
这意味着数据中心收入将比 2022 年大幅增长 41%,表明英伟达自 2020 年以来同比稳定增长超过 40%。
相比之下,其他 AI 芯片设计商,如最近收购 Xilinx 的 AMD 以及高通,在数据中心 AI 领域落后于 Nvidia。
尽管目前表现不佳,但英伟达仍在继续前进。今年早些时候,该公司发布了基于其新 Hopper 架构的 H100 GPU。
采用台积电4N工艺(5nm节点的改进版)生产的Hopper架构,具有800亿个晶体管,超过了采用7nm工艺生产的A100的542亿个晶体管。
Nvidia 的训练和推理速度比 A100 提高了 7 到 30 倍,加上 PCIe 外形尺寸中相当的热设计能力,Nvidia 准备提供支持未来日益复杂的 AI 算法所需的基本硬件。
虽然 Nvidia 继续主导数据中心计算市场,但边缘计算领域的芯片设计人员有充足的机会。
根据IDTechEx 最新发布的 AI 芯片报告,预计未来十年边缘市场的复合年增长率将高于云端 AI 市场。边缘 AI 提出了不同的要求,特别是由于嵌入式设备的热限制而在功耗方面。
由于边缘芯片通常只消耗几瓦,因此它们运行的模型的复杂性必须大大简化。
因此,A100 等最先进的芯片具有大尺寸和高晶体管密度,不适合边缘应用。
相反,公司可能会选择使用更成熟的节点工艺来设计芯片,与前沿节点相比,这些工艺提供更低的价格点和更低的进入门槛。
很难说人工智能的拐点何时会出现,还有多远的未来。
然而,不可否认的是,人工智能的持续繁荣以及人工智能工具在各个行业的变革潜力。 Nvidia 的成功证明了 AI 在塑造技术格局方面的重要性日益增加。
IDTechEx 的“AI 芯片 2023-2033”报告为那些有兴趣了解全球 AI 芯片市场的更多信息(包括技术发展、主要参与者和具有 AI 功能的硬件的市场前景)提供了宝贵的见解。
英伟达的市值突破 1 万亿美元大关,不仅意味着该公司的成功,也意味着 AI 技术的巨大潜力。
凭借其在 GPU 市场的主导地位和在数据中心 AI 领域的强势地位,Nvidia 有望引领 AI 硬件的未来。
公司持续的创新,例如即将推出的基于 Hopper 架构的 H100 GPU,进一步巩固了其行业领导者的地位。
然而,Nvidia 的成功并没有减少其他芯片设计师的机会。新兴的边缘计算市场具有巨大的增长潜力,人工智能应用需要针对功耗和嵌入式设备优化的定制芯片。
随着边缘计算对 AI 的需求增加,芯片设计人员可以探索更成熟节点的制造,从而在不牺牲性能的情况下实现具有成本效益的解决方案。