
討論 DDR4 與 DDR5 在 AI 世代的差異,不能只看規格表上的數字。
這兩個世代的記憶體,在 AI 產業鏈中扮演的角色其實完全不同,背後牽動的是供需結構與規格套利的邏輯。
簡單說:DDR5 是 AI 訓練的「特快車」,DDR4 則是基礎建設的「螺絲釘」。
一、頻寬:AI 效能的生命線
AI 運算最怕的不是算力不足,而是 GPU 算完了,資料卻卡在記憶體送不過去。
這正是頻寬(Bandwidth)在 AI 架構中變得如此關鍵的原因。
DDR4:舊時代的馬路
- 頻寬約 25.6 GB/s 左右
- 一般文書、遊戲仍然夠用
- 在 AI 模型動輒數百 GB 的資料吞吐下,容易讓 GPU Idle,形成高成本浪費
DDR5:為 AI 架構而生
- 頻寬直接翻倍,頻寬起跳 38.4 GB/s,主流已推進至 51.2 GB/s 以上甚至更高
- 單條記憶體內建雙 32-bit 通道,等同於把單線道升級為雙向車道
- 內建 On-die ECC,AI 訓練一跑就是好幾天,如果中間記憶體錯一個 bit 導致模型壞掉,那可是幾百萬電費的損失。DDR5 自帶除錯功能(ECC),穩定性是企業級 AI 的剛需。
二、應用場景分流:一個衝前線,一個守後勤
市場常見的誤區,是認為 AI 世代勢必全面淘汰 DDR4。
實際情況恰好相反,DDR4 與 DDR5 正在明確分工。
| 比較項目 | DDR5 (AI 前線部隊) | DDR4 (AI 後勤補給) |
|---|---|---|
| 主要戰場 | AI 訓練伺服器 (Training) | 網路交換器、邊緣運算 (Inference) |
| 核心任務 | 餵資料給 GPU 吃,越快越好 | 負責資料傳輸、基礎控制 |
| 不可替代性 | 高 (為了配合 H100/B200 等高階卡) | 高 (因為沒人要擴產了,反而缺貨) |
| 市場狀況 | 需求爆發,價格跟著 HBM 漲 | 產能被排擠,變相成為「稀缺資源」 |
DDR5 的角色邏輯
當你已經購買 NVIDIA H100、B200 這類高階 GPU,就不可能為了省下幾千元,讓整個系統卡在記憶體瓶頸。
因此,高階 AI 訓練伺服器,DDR5 已成為標準配置。
DDR4 的角色邏輯
AI 資料中心不只有訓練伺服器,還包含成千上萬台負責串連網路交換器(Switch)、控制節點與邊緣設備。
這些設備不需要頂級算力,求的是穩定跟便宜,所以大量依賴 DDR4。這也是為什麼最近黃仁勳跟思科(Cisco)也在搶 DDR4 的原因。
也正因如此,在原廠減產、產能轉移的背景下,DDR4 反而變成一種「不再被擴產的稀缺資源」。
三、AI 世代的隱藏戰場:LPDDR5 與邊緣 AI(Edge AI)
除了資料中心,另一個正在快速成形的戰場,是 AI PC 與 AI 手機。
在這個場景中,主角不再是 DDR5,而是 LPDDR5X。因為 AI 模型要塞進手機裡跑(On-device AI),需要極高的傳輸速度但又不能耗電。
- 蘋果 Intelligence / Copilot PC: 這些能夠在本機跑 AI 的設備,統一規格就是起步 16GB 甚至 32GB 的 LPDDR5X。
- 消費端會比伺服器端更快全面淘汰 DDR4。
不論是 Apple Intelligence,或是 Copilot PC,硬體規格幾乎都直接從 16GB 甚至 32GB LPDDR5X 起跳。
這也意味著,消費端淘汰 DDR4 的速度,可能會比伺服器端來得更快。
四、總結:兩種記憶體,兩種投資邏輯
與其糾結技術細節,不如記住這兩個核心邏輯:
- DDR5 是成長型邏輯:隨 AI 算力軍備競賽擴張,GPU 賣得越好,DDR5 的需求就越強,是效能導向。
- DDR4 是價值/轉機型邏輯:因為大廠不生產了(產能都拿去做 HBM 跟 DDR5),但網路設備還大量需要,反而出現了「物以稀為貴」的特殊行情。
五、延伸觀察方向
若你關注的是供應鏈與相關公司,除了記憶體本身,還可以留意:
- DDR5 連接器、插槽(Socket)相關廠商
- 因 DDR5 規格更精密,單價(ASP)與毛利結構明顯優於舊世代
在 AI 世代,真正的價值不只在晶片本身,而是在整個規格升級所帶動的結構性重估。