AMD猛攻Nvidia!台AI抗紅鏈?記憶體超週期續發威!
貓貓AI 科技與財經脈動 · Episode #183 · · PT11M17S
Host · 小明
Summary
本集節目探討AI產業兩大震撼彈:首先,Google發布的TurboQuant壓縮演算法,大幅降低LLM記憶體需求,引發全球記憶體股價重挫,但分析師指出這對高階HBM需求影響有限,反而加速產業洗牌,台灣在HBM與AI伺服器領域仍具優勢。其次,OpenAI與博通合作開發自研AI晶片,搭配Elon Musk的Terafab計畫,顯示AI巨頭正走向垂直整合硬體以降低對NVIDIA的依賴;然而,這非但未動搖NVIDIA霸主地位,反而預示兆元AI市場蛋糕擴大,而台灣憑藉台積電在高階晶片代工的不可取代性,仍將在全球AI供應鏈中扮演關鍵戰略角色,甚至有機會從AI的普及中獲取更多利潤。
Transcript
歡迎收聽貓貓AI科技與財經脈動,我是小明。
大家好,我是大王。 這個禮拜啊,AI市場真是風起雲湧,消息多到爆炸,讓大家的心情應該也跟著雲霄飛車了一番。
哪是風起雲湧? 根本是心驚膽跳! 上週Google那個什麼TurboQuant一出來,搞得全球記憶體族群股價直接跳水,
台灣的南亞科、華邦電、旺宏、力積電,還有美光、晟碟,全部都跟著重挫, 這到底是怎麼回事? 是要把我們這些投資人嚇死嗎?
我才剛進場耶!
小明你先別爆氣啊,我們來把這個Google TurboQuant搞清楚。 講白了,它就是一個超強的「壓縮演算法」。
你要知道,我們現在LLM,也就是大型語言模型,跑起來有多吃資源?
吃爆啊! 燒錢啊! 所以我才說這些科技巨頭根本是把錢當水燒,然後再轉嫁給我們這些使用者! 根本就是「具身韭菜」!
沒錯,非常吃記憶體,特別是那些做推理判斷的Key-Value Cache, 就是KV Cache。
但是Google這個TurboQuant厲害在哪? 它號稱能把LLM所需的記憶體用量降低到原本的六分之一!
而且還能在NVIDIA H100 GPU上把性能提升八倍! 這是什麼概念?
概念就是,我買的記憶體是不是要變廢紙了? 我之前看好記憶體超週期,投下去的錢是不是又要打水漂了?
我就說這些東西來得快去也快,根本是本夢比一場空! 這真的很扯!
喔,你這樣看就太片面了。 摩根士丹利的分析師Shawn Kim就說了,Google這個研究對整個產業的影響應該是更積極的。
因為它解決了一個關鍵瓶頸,就是用於AI模型推理的關鍵快取記憶體效率問題。 TradingKey也提到,它可以將Key-Value Cache佔用率降低多達六倍, 精度損失還最小。
簡單來說,就是讓AI在做判斷或生成內容時,所需處理和儲存的資料更精簡, 而且執行速度更快。
推理? 是說AI變聰明了,所以就不需要那麼多腦細胞嗎? 那以前那些記憶體不都白吃了?
可以這麼理解。 如果AI模型可以在不損失性能的前提下,大幅降低記憶體需求, 那為每一次的查詢服務,成本就會顯著降低。
這樣一來,AI的部署成本就下來了,會讓更多的企業跟應用可以採用AI, 這從長遠來看是促進AI普及的。
所以你說這是好事? 這跟我們之前一直說的記憶體超週期不是完全打臉嗎? 美光前幾天才說他們HBM4的產能,2026年已經全部被預訂一空了耶!
連2027年都有類似的能見度! 你現在跟我說記憶體用量可以降六倍? 這邏輯不通啊! 美光可是宣布,他們HBM4記憶體針腳速度已超過11 Gb/s、
頻寬逾2.8 TB/s,功耗效率提升超過20%,而且2026年的產能早就被客戶預訂光了! 這不是瘋了嗎?
這就是矛盾之處,也是市場反應這麼激烈的原因。 確實,美光HBM4的產能仍然是供不應求。 Oplexa的分析師也有提到,記憶體市場從來都是供需波動劇烈的地方,
但現在AI記憶體開始表現得更像專業半導體,而不是像過去那種商品化的DRAM。 甚至有Seagate等業界高管預期,高價記憶體將成為「未來幾年的新常態」,
部分客戶甚至已預訂供應至2028年,顯示HBM短缺與高價問題將是長期趨勢, 對AI硬體成本構成持續壓力。
專業半導體? 我看是「吸血半導體」吧? 吸光投資人的錢。
它指的是,技術複雜性創造了天然的競爭壁壘,讓進入門檻變高了。 所以,Google這個TurboQuant,它衝擊的是標準型的DRAM, 讓大家對未來通用型記憶體的總需求產生疑慮。
但對於高頻寬記憶體這種專為AI加速器設計的產品,短期內的影響可能沒那麼大。 畢竟需求面還是很強勁,而且它技術門檻高,不是誰都能做。
好啦,那對台灣呢? 台灣這麼多記憶體廠商,是不是都要挫咧等了? 還有我們引以為傲的「非紅供應鏈」地位,會不會因此動搖?
當然會! 台灣記憶體公司股價直接受影響就是證明。 但我們要看到硬幣的另一面。 資策會MIC的林柏齊主任之前才預估,2026年AI伺服器出貨量會達到450萬台, 佔整個伺服器市場三成。
台積電3奈米以下製程的產能,到2026年還會年成長超過40%, 主要就是AI驅動。 這表示台灣在高階晶片製造這個環節,戰略地位還是非常穩固的, 尤其是在先進製程部分。
所以意思是,低階、通用型的記憶體可能會被擠壓,但高階、客製化的AI晶片和HBM還是香噴噴, 台灣還是能賺到錢,是這樣嗎?
沒錯,是這個趨勢。 而且,別忘了台灣經濟部最近還宣布電價將維持不變,而且還推出儲能系統補貼, 每個MWh可獲得新台幣500萬元。
全國商業總會理事長許舒博之前才說電價對通膨高度敏感,調漲難以逆轉。 那這個決策都是為了應對地緣政治風險,維持物價穩定,還有最重要的——確保我們半導體這種高耗能產業的競爭力。
這是基礎建設,也是非紅供應鏈的關鍵一環,確保台灣的製造優勢。
好,那講完這個軟體算法的「大屠殺」,我們再來看另一個更誇張的。 OpenAI竟然自己跑去跟博通合作,要搞自製AI晶片?
還有Elon Musk搞什麼Terafab? 這些巨頭到底想幹嘛? 難道NVIDIA的天下要被顛覆了嗎?
黃仁勳之前才說什麼到2027年AI基礎設施需求會破1兆美元, 結果現在大家都自己玩,這不是在打他的臉嗎?
小明你又爆氣了。 這就是我們上週講到的,AI晶片戰火持續升級的一個新動態。 OpenAI跟博通合作開發定制化AI晶片,Elon Musk搞Terafab,
這反映的是一個很重要的趨勢,叫做AI開發商垂直整合硬體。
垂直整合? 講白話一點就是,老子不爽被NVIDIA賺那麼多,所以要自己來幹, 是吧? 我就說這些科技大廠的錢不是錢,是拿來鬥氣的!
沒錯,你可以這麼理解。 這些大型AI公司,為了降低對單一通用GPU供應商的依賴, 也就是降低對NVIDIA的依賴,同時也為了進一步優化他們AI模型的成本和性能,
開始自己投入ASIC,也就是應用特定積體電路的研發。 OpenAI早在2025年2月就傳出考慮自研晶片,甚至組建了由前Google TPU工程師Richard Ho領導的約40人團隊。
到了2025年10月,OpenAI與博通正式宣布戰略合作, 目標在2026年下半年開始部署10吉瓦規模的客製化AI加速器系統。
Sam Altman自己就說了:「與博通合作是建構釋放人工智慧潛力、 為個人和企業帶來真正利益所需基礎結構的關鍵一步。
」他們認為透過自製晶片,能將開發前沿模型學到的經驗直接嵌入硬體, 解鎖新層次的能力。 據美南新聞分析人士指出,這不只可以優化OpenAI的成本結構, 還能提升模型迭代的速度。
聽起來好像很合理,但這對NVIDIA不是一個壞消息嗎? 這不是等於大家都在挖牆腳,讓NVIDIA的霸主地位開始動搖?
確實會帶來競爭壓力。 博通CEO Hock Tan證實,他們拿到一筆超過100億美元的客製化AI晶片訂單, 市場普遍認為就是來自OpenAI。
博通在AI半導體領域的營收成長非常驚人,2026年Q1就達到84億美元, 年增106%。 但NVIDIA現在在AI資料中心GPU市場佔比還是超過九成, 絕對的壟斷。
不過你想想,黃仁勳在GTC 2026說了什麼? 他說「推理拐點已經到來」,整個AI基礎設施的需求,到2027年會超過1兆美元!
而且他強調AI現在必須思考,為了思考它必須進行推理,這已經遠遠超出了訓練。
哇,1兆美元,這數字也太驚人了吧! 這比我整個身家加起來還要多一萬倍。
對啊,就是因為市場夠大,所以才會出現這種多方角力的局面。 大家都在搶這塊大餅。 NVIDIA自己也在做Vera Rubin這種整合式AI平台,
不斷提升性能和效率,其每秒處理tokens的數量相比H100提升了350倍, 大幅降低了AI運行的成本。
這就像是說,蛋糕做得夠大,大到大家都可以來分。
另外,Elon Musk宣布的Terafab計畫也是同樣道理。 他要在德州奧斯汀大規模生產先進晶片,為特斯拉、SpaceX和xAI提供算力。
他直白地說:「我們需要晶片,所以我們要建造Terafab。 」目標是實現1太瓦的年運算能力,預計投資高達200到250億美元,
連巴克萊分析師Dan Levy都說難以完全理解馬斯克所設定目標的龐大規模。 這些動作,也是為了確保自己的算力供應穩定性,還有成本效益。
所以你覺得NVIDIA的地位還是穩的? 不會被這些人挑戰到?
短期內NVIDIA還是霸主。 但長期來看,這種垂直整合會讓整個AI晶片市場更加多元化, 競爭也會更激烈。
對NVIDIA來說,挑戰會越來越大,它必須不斷創新,提供更強大的解決方案, 才能維持領先。
那台灣呢? 台灣不是一直被說在全球AI供應鏈裡面很重要嗎? 這些巨頭都自己搞晶片了,台積電是不是也會被冷落?
這裡就是台灣的關鍵戰略地位了。 你去看OpenAI跟博通合作的晶片,最後還是要找誰代工? 台積電!
而且是台積電的3奈米製程。 24/7 Wall Street的分析師說得很好,「每個流經Nvidia到終端客戶的晶片都必須先在某處製造。
台積電就是這些晶片使用Nvidia設計製造的地方。 」這句話點出了台積電的不可取代性。
我懂了,就像航空公司要自己買飛機,但還是得找波音或空巴下訂單一樣。 台積電就是那個波音和空巴,是吧?
沒錯,就是這個道理。 而且不只是OpenAI,連Apple也計劃跟台積電合作, 在台積電美國華盛頓州的工廠生產感測硬體晶片,這都是Apple擴大美國製造計畫的一部分。
這都證明了台灣在高階晶片製造的地位,是其他國家很難在短時間內複製的。 台積電2026年預計高達520到560億美元的資本支出,
有七到八成都是投入在3奈米和2奈米這些先進製程,這就是為了滿足AI和高效能運算的需求, 而且是全方位的需求。
這麼說來,雖然Google的軟體演算法對記憶體市場投下了震撼彈, 然後OpenAI這些巨頭又自己跳下來搞晶片,但看起來對台灣這個「非紅供應鏈」的核心地位, 影響好像沒想像中那麼壞?
甚至有可能因為AI的普及,讓台灣賺得更多?
確實是這樣。 我們可以把Google TurboQuant看作是AI技術演進的一個必然過程, 軟體效率提升是好事。
它會加速記憶體產業的洗牌,但高階、專業的HBM需求依然強勁, 而且還有美光擴大資本支出、SK海力士董事長說記憶體短缺到2030年的這些聲音。
2030年! 哇賽,那真的還很遠耶。 我以為我退休前就看得到了。
是啊。 而AI巨頭們自己做晶片,則是進一步擴大AI應用的規模和多元性, 最終還是會回歸到台積電這種頂尖晶圓代工廠的產能。
所以台灣在這個棋局裡,位置是很明確的,而且是越來越關鍵。
好,那今天真是刺激的一集。 從Google的記憶體大屠殺,到OpenAI自製晶片,整個AI產業鏈真的像是坐雲霄飛車一樣, 我感覺我的心臟快受不了了。
沒錯。 這讓我覺得,對於投資人跟產品設計師來說,未來幾年,我們都要更緊密地關注這些巨頭們的技術發布跟生態合作動態。
是啊,因為這些一線巨頭們的每一個動作,都可能牽動整個產業鏈的敏感神經, 直接影響我們的投資佈局和產品開發策略。
所以,你覺得這些巨頭的「垂直整合」策略,對整個AI產業的未來生態, 到底是會讓蛋糕越做越大,還是會形成更少數人能玩得起的高牆巨塔呢?
這個問題,就留給所有聽眾朋友,好好思考一下吧。
感謝收聽貓貓AI科技與財經脈動,我們下週見!
下週見!