埃隆·马斯克近日在X平台的讨论中透露了特斯拉定制AI芯片的发展规划,明确了未来芯片的生产计划,并展现了特斯拉秉持“第一性原理”的工程哲学。
第一性原理是由古希腊哲学家亚里士多德提出的哲学概念,指每个系统中存在的最基本、不可违背或删除的命题或真理,强调回归事物本质进行思考和推理。
马斯克确认,德州泰勒市的三星新晶圆厂将生产未来的 AI6 芯片,而非即将面世的 AI5 芯片。他还透露特斯拉内部正在开展一场挑战硬件行业趋势的辩论:芯片设计工程师尚未决定为 AI6 采用行业标配的高带宽内存(HBM),暗示对于特斯拉的特殊需求而言,廉价传统内存或许是更高效的选择。
AI6 的德州制造计划
三星德州工厂将生产AI6芯片的消息并非首次披露——此前特斯拉已宣布将训练芯片重点从 Dojo 转向 AI6。但此举确认了特斯拉推动制造本土化的战略,虽然不直接生产芯片,但设计团队将与三星紧密协作。
尽管性能怪兽 AI5 芯片将是特斯拉训练与推理硬件的下一次飞跃,但其继任者 AI6 的研发已启动。这将保障特斯拉获得大量芯片供应,不仅用于AI训练,更将嵌入未来每辆特斯拉汽车和Optimus人形机器人。
高带宽内存是否必然之选?
除了制造计划,马斯克对内存架构的见解尤为深刻。当前高性能AI加速器的黄金标准是高带宽内存(HBM),其超高速数据传输能力可使处理器几乎无延迟获取模型参数。
马斯克承认HBM或许是正确选择,但也强调其并非如外界公认的那样具有绝对优势,尤其对特斯拉的应用场景而言。这一判断源于神经网络架构的演进:当参数总量与活跃参数量的比值持续扩大时,传统内存在单位有效算力成本和能效比方面可能更具优势。
第一性原理与AI硬件
可将巨型AI模型想象成藏有数十亿本书(总参数)的图书馆。执行特定任务(如识别行人)时,AI只需即时调用少数特定书籍(活跃参数)。行业标准的HBM方案好比建造配备极速检索系统的小型图书馆,纯粹追求调用速度。
马斯克提出了不同思路:随着特斯拉AI模型规模呈指数级增长(相当于巴别塔规模的图书馆),但每次任务仍只需调用少量关键书籍。这使设计重点转向容量、成本和能效三大维度。
传统内存不仅能提供更大容量且成本大幅降低,对于承载万亿参数模型具有显著优势。能效方面,当每次仅少量参数活跃时,HBM的超高速性能可能过剩,传统内存反而在单位有用计算的成本和能耗上更具优势。
第三种选择:混合架构
当然还存在折中方案——若部分数据需极速调用,其余可稍缓存取,混合架构或许是最优解。这类似于处理器缓存系统:用小容量HBM存储安全关键和高频访问数据,传统内存则承载海量普通参数。
虽然 AI6 的最终方案尚未确定,但这场辩论生动展现了特斯拉“第一性原理”思维模式——打破行业惯例,从物理本质和实际需求出发寻求最优解。
来源:智驾小强