IT之家1 月 6 日消息,在今日的 CES 2026主题演讲中,AMD 展示了其下一代及首款 2nm EPYC Venice Zen6 CPU 和 Instinct MI455X GPU,专为 Helios AI Racks 设计。 Helios AI 机架最早在 2025 年 AMD 财务分析师日上亮相,该公司承诺将带来“领先的性能数据”,以及在 AI 工作负载方面具有“最佳能效”的性能表现。
上期我们讲了现代计算机体系结构通过处理器(CPU/GPU)和内存的交互来执行计算程序,处理输入数据,并输出结果。实际上 ...
根据测试结果表明,AMD似乎为其全新的顶级显卡GPU也预留了3D V-Cache连接点 AMD目前已经在其EPYC服务器处理器和部分消费级处理器产品线上采用了3D V-Cache技术。但根据来自海外工程师的最新测试结果发现,AMD似乎为其全新的顶级显卡GPU也预留了3D V-Cache连接点,这 ...
在AI算力赛道,NVIDIA早已凭借Hopper、Blackwell等架构GPU,在AI训练领域建立起难以撼动的优势。但随着语音对话、实时翻译等即时AI场景需求爆发,传统GPU在推理延迟上的短板逐渐凸显。近日,据行业消息披露,NVIDIA正瞄准这一痛 ...
AMD展示了其下一代、全球首款2nm EPYC Venice “Zen 6” CPU与Instinct MI455X GPU,专为Helios AI机架设计。AMD迈入2nm时代面向Helios AI机架的下一代EPYC Venice “Zen 6” ...
GPU 性能没问题,模型也训练得不错,但 token 吞吐量就是上不去?问题多半出在 KV-cache 上。本文整理了 10 个实际可用的优化方向,都是能直接上生产环境的那种。 把 utilization 往上调,直到不再频繁出现 preemption;然后再调 max-num-seqs,让批次保持密集但别超出 ...
目前,不同大模型厂商发布的大语言模型在处理超长上下文方面已经有显著突破,最高的已能支持数百万 Token 的输入,例如 MiniMax-M1、Qwen2.5-1M 系列模型,均支持百万Token(1M)级别的超长上下文处理能力。 但是这场有关提升大模型上下文长度的“军备赛”依然不 ...
通过堆叠技术,NVIDIA可以将运算核心留在主芯片,而将需要大量面积的SRAM独立成另一层芯片堆叠上去。 台积电的A16制程一大特色是支持背面供电技术,这项技术可以腾出芯片正面的空间,专供垂直信号连接,确保堆叠的LPU能以极低功耗进行高速数据交换。