5
AI 資料中心正在把 SSD 從「容量競賽」推向「效能競賽」。過去 TLC、QLC 靠高密度、低成本吃下主流市場,但推論工作負載暴增後,真正拖慢系統的往往不是算力,而是資料進出與延遲。當 GPU 每秒能吞吐的資料量愈來愈大,只要儲存層跟不上,昂貴的算力就可能在等待 I/O 的空檔裡白白燃燒。也因此,SLC 這種單位成本較高、容量較小的 NAND 技術,反而因為速度快、耐久高、表現更穩定,被重新拉回舞台中央。
SLC不是回春,是AI逼出的取捨
英偉達聯手 SK 海力士與鎧俠加速 SLC AI SSD,可視為一個清楚訊號:推論瓶頸正在往儲存端移動,而平台型玩家要把「資料供給」做成新的護城河。報導提到的 IOPS 大幅提升,說穿了就是要把 SSD 從傳統的「存放裝置」,升級成更像「高速工作層」的角色,讓模型推論能更即時、更連續地取用資料。對一般人來說,這可能不只是規格戰,而是未來你使用的聊天機器人、企業 AI 助理,回應速度與穩定度背後的基礎建設升級。
不過,SLC 不太可能全面取代 TLC/QLC。更合理的方向是分工:SLC(或類 SLC 設計)負責最熱、最常被讀寫的資料層;TLC/QLC 仍負責大容量、成本敏感的冷溫資料。真正推動市場成長的關鍵,將是誰能把硬體、軟體與資料分層策略整合起來,讓「該快的地方快、該省的地方省」,把整個 AI 叢集的效率拉上去。換句話說,這波合作的意義不在於 SSD 變多快,而在於 AI 時代的競爭,正從晶片延伸到資料流的每一個環節。(原文出處)