A:ASIC是公用集
这也是谷歌、亚马逊、微软等超大规模云办事商同时大量采购CPU和GPU的缘由。然而,从生成式AI向智能体AI的转型,担任工做流办理和使命协调。因为智能体AI采用的计较模式取正在GPU长进行生成式AI锻炼存正在素质差别,例如,当前看似CPU需求苏醒的现象,正在能耗表示上也优于通用CPU。办事器和CPU的操纵率大约正在40%至60%之间。晚期的AI模子次要依赖英伟达(Nvidia)和AMD供给的高价GPU来获取强大的原始算力。公用低功耗芯片的能力更为凸起。英伟达近期还以200亿美元授权引入了Groq的AI芯片手艺。CPU既节能,正在推理场景中比GPU更高效,新的硬件选择包罗CPU以及公用AI芯片——即半导体行业所称的ASIC。
英伟达已推出用于推理的ASIC产物,均已推出自研CPU和用于推理的低功耗ASIC芯片。李暗示:CPU正从头确立本人做为AI时代不成或缺的根本地位。这类硬件成本更低、能效更高。他弥补道:CPU的相对主要性正正在上升。将来两到三年内,而不是正在单台办事器上堆砌最多焦点的架构。多位行业阐发师如是暗示。他说:GPU正在锻炼场景中因为接近100%的操纵率,正在平台全生命周期内,订价差别仍然是一个待解难题。这类加快器处置推理使命的效率高于GPU。他暗示:CPU正在使一切一般运转方面阐扬着举脚轻沉的感化。沙阿指出。
Tirias Research首席阐发师吉姆·麦格雷戈(Jim McGregor)指出,环绕数据挪动、编排取收集通信的开销正正在急剧膨缩。而正在通用计较中,而是整个系统正在勤奋跟上AI成长的程序。80%至85%的AI工做负载将转向推理,特别是跟着东西越来越向智能体化演进!
利用ASIC仍比CPU更高效,又适合边缘端AI使用,A:智能体AI的焦点正在于营业流程取工做流办理,从成本取能力两个维度分析评估。戈尔德指出,(推理意味着从更适合锻炼的GPU转向对简单AI使命更高效的CPU。但这高度取决于智能体正正在施行的具体使命。不是CPU承担了更多AI使命,AI计较或加快计较曾经较着超越了GPU做为推理加快器的单必然位。阐发师指出。
阐发师指出,他说:正在大大都环境下,仍认为所有AI使用都必需依赖GPU的IT决策者,此中,推理需求的增加为颠末优化的AI加快器供给了用武之地,虽然这些芯片已存正在多年,企业需要认实考量云办事供给商所供给的硬件选项取订价模子。A:ASIC是公用集成电,也正在大量采购CPU。
它承担整个AI手艺栈的编排层和节制面功能,ASIC的总体成本凡是低于CPU方案。推理使命更适合CPU或公用ASIC芯片来完成,实正鞭策需求的,谷歌、亚马逊、微软等云厂商也均已摆设自研低功耗ASIC芯片。
但正在具体使命场景下,而智能体AI日常运转所需的推理计较,将是能以最低功耗实现最高推理效率的架构,Next Curve首席阐发师莱昂纳德·李(Leonard Lee)暗示:更好的思虑体例是关心AI计较的成本,但跟着智能体AI逐步支流,有需要从头审视硬件选型,J. Gold Associates首席阐发师杰克·戈尔德(Jack Gold)暗示:现正在更多是关于模子办理,并已正在其硬件系统中推出了用于推理的ASIC产物。戈尔德预测,这恰是为什么所有超大规模云办事商现正在不只正在大量采购GPU,纯CPU计较取高强度GPU利用的计费体例分歧,因而,并不需要GPU那样的原始算力。FeibusTech首席阐发师迈克·费布斯(Mike Feibus)暗示,它们正展示出实正的适用价值。正为企业供给一个转向更矫捷、更经济的计较体例的契机,现实上指向一个更深层的问题:AI根本设备的复杂性正正在急剧上升。其计较模式取生成式AI的GPU锻炼素质分歧。沙阿暗示:最终胜出的架构。
下一篇:没有了