本报讯 美国计算机公司英伟达(Nvidia)推出了一款用于训练人工智能模型的“超级芯片”,这是该公司迄今为止生产的最强大芯片。英伟达尚未透露新芯片的成本,但观察人士预计,由于价格高昂,可能只有少数机构会使用这种芯片。
3月18日,英伟达首席执行官黄仁勋在新闻发布会上公布了这款芯片。他展示了新一代Blackwell B200图形处理器(GPU),每个GPU都有2080亿个晶体管,而英伟达当前一代的Hopper芯片只有800亿个晶体管。黄仁勋还透露,GB200 Grace Blackwell超级芯片将结合两个B200芯片。
“Blackwell将成为一个令人惊叹的生成式人工智能系统。未来,数据中心将被视为人工智能工厂。”黄仁勋说。
对于任何寻求训练大型人工智能模型的机构来说,GPU已成为梦寐以求的硬件。在2023年人工智能芯片短缺期间,SpaceX首席执行官马斯克说,GPU“比药物更难获得”,一些无法获得GPU的研究人员甚至哀叹自己“GPU贫乏”。
英伟达表示,与Hopper GPU相比,在运行基于大型语言模型(如OpenAI的GPT-4)的生成式人工智能服务时,Blackwell GPU的性能提高了30倍,同时能耗仅为1/25。
英伟达透露,完成90天的训练,GPT-4需要大约8000个Hopper GPU和15兆瓦的功率,而完成同样的人工智能训练只需要2000个Blackwell GPU、耗能4兆瓦。
该公司尚未公布Blackwell GPU的价格,但鉴于Hopper GPU的成本在2万到4万美元之间,新芯片的价格可能会令人瞠目。开发共享人工智能代码和数据集工具的人工智能公司Hugging Face的Sasha Luccioni表示,这种专注于开发更强大、更昂贵芯片的做法意味着,它们将只提供给少数几个机构和国家。
这项能源密集型技术也会对环境产生影响。预计到2026年,数据中心扩建带来的电力需求将翻一番,与日本目前的能源消耗相当。如果支持人工智能培训的数据中心继续依赖化石燃料发电厂,碳排放量也可能急剧上升。(辛雨)
《中国科学报》 (2024-03-21 第2版 国际)