Google Genie點燃AI新戰場:AMD攻Nvidia,記憶體超週期續燒
貓貓AI 科技與財經脈動 · Episode #179 · · PT11M5S
Host · 小明
Summary
本集《貓貓AI》深入剖析AI發展的『燒錢耐力賽』與市場亂象。節目首先探討Google Project Genie世界模型的鉅額投資(兩年內預計超過1750億美元),質疑其在技術領先之餘,能否有效解決變現效率與長期投資回報率的挑戰,避免淪為『本夢比』的極致體現。隨後,節目聚焦AI晶片戰火,揭示高頻寬記憶體(HBM)的供應極度短缺與價格飆升(預計季增達100%),導致『吸血鬼記憶體』現象。同時,AMD以Ryzen AI 400系列處理器強勢進攻AI PC市場,意圖打破NVIDIA獨霸局面,與三星結盟形成『抗NVIDIA聯盟』。最終,節目反思AI狂熱下,鉅額資本投入能否真正普惠大眾,抑或僅是少數廠商與投資者的資本遊戲,呼籲聽眾保持獨立思考,警惕潛在的『具身韭菜』風險。
Transcript
貓貓AI的聽眾朋友大家好,我是大王。
我是小明,今天又要來跟大家講一些很扯、但你又不能不聽的科技跟財經大事。 最近我真的覺得,這個市場簡直是魔幻寫實,我們之前不是一直在聊什麼AI的「本夢比」跟「本賺比」嗎?
現在看起來,大家還是很愛做夢,而且夢做得特別大!
沒錯,小明。 我們今天就從一個超級燒錢的夢境開始聊起,就是Google的Project Genie。
你如果還有印象,我們之前提過Genie 3已經開放給訂閱戶了, 它那個即時生成高解析度、超擬真虛擬環境的能力,真的讓人覺得很科幻。
像Waymo這種自動駕駛公司都拿它來訓練,這其實是個很大的技術里程碑。
喔,里程碑喔? 我跟你說,科技巨頭講里程碑,我現在只看一個數字,就是他們到底燒了多少錢! 然後這些錢燒了,最後到底誰在賺?
Project Genie是個「世界模型」對吧? 聽起來很玄,什麼都能模擬,但你要知道,Google它媽媽Alphabet,
預計光是2026年就要砸下至少一千七百五十億美元,欸,是一千七百五十億, 不是七百五十萬喔!
這筆錢幾乎是2025年九百一十億美元的兩倍,其中很大一部分就是為了像Genie這種世界模型去蓋資料中心、 搞運算基礎設施。
你說說看,這是不是一個超級燒錢的遊戲? 簡直是鈔能力大比拼啊!
哈哈,小明你這火氣又上來了。 不過你講得對,這個數字確實很驚人。 一千七百五十億美元,這可不是小錢。
Alphabet的CFO Anat Ashkenazi都說了, 這些錢就是用來投資AI算力,給DeepMind用,還有滿足那些AI雲端客戶的需求。
雖然Genie在技術上確實很屌,它代表了AI從單純的語言、 圖像生成,進一步走向能模擬整個互動世界的方向,這對未來的AI Agent、 機器人訓練,甚至XR應用都有顛覆性潛力。
顛覆性潛力,我只看到「燒錢潛力」啦! 你這麼厲害的Genie 3,現在開放給Google AI Ultra的訂閱戶, 號稱能即時生成720p,每秒20到24幀的虛擬世界。
結果呢? Google DeepMind自己都在GDC上承認,Genie 3生成的環境, 互動一分鐘左右就會出現不一致性,這是因為記憶體限制。
一分鐘就破功,你跟我說這個叫世界模型? 那我的世界也太短了吧! Joost van Dreunen這種產業分析師也說了, AI模型再厲害,也無法取代創意願景和敘事深度。
這不就是一個超級昂貴的展示品嗎?
但你要知道,Google DeepMind的目標一直都是AGI, 通用人工智慧。 他們是希望用這種模型來訓練AI代理,讓AI能真正理解和導航現實世界。
Diego Rivas也說了,即使在早期測試階段,使用者已經能創造出令人驚豔的虛擬世界, 還發掘了全新的使用方式。
這代表它有潛力,只是還在早期。
潛力? 我看是「燒錢到底機」啦! 你看看市場怎麼反應? 2025年11月,台灣加權指數就因為美國AI泡沫擔憂而大跌了1.42%, 接著2026年2月亞洲股市又從高點回落,為什麼?
還不是怕這些AI巨頭砸再多錢,都無法有效變現。 美國投資者光是2025年就對台灣股市投入了一百二十億美元, 總持有額達到六千六百八十億美元,大部分都是AI相關的,結果股市波動,
這些錢第一個就嚇跑了! 這就證明,大家根本對這種「本夢比」的投資,疑慮很深啊!
所以說,技術再怎麼酷炫,投資者最後還是會看你能不能把錢變成現金流, 變成實質的獲利。 Project Genie從概念驗證到大規模企業應用,還有很長的路要走。
特別是技術成熟度、成本效益,還有跨產業的通用性,這些都是關鍵的瓶頸。
對啊! 變現效率! 你現在搞這麼多「世界模型」,結果呢? 變出來的世界,是能幫你印鈔票,還是只是個昂貴的展示品?
講白話一點,一個AI模型再厲害,如果它最後的cost structure不能讓企業有感, 不能帶來明確的top line growth或bottom line improvement,
那它就只是個「本夢比」的極致體現。 投資人這邊真的要睜大眼睛看。 這不只是技術競賽,這根本就是一場「燒錢耐力賽」。
確實。 所以我們接下來就要持續觀察,Project Genie這些技術細節除了展示以外, 有沒有更多實際的應用案例被揭露?
特別是它怎麼幫助Google本業,或者開闢新的營收來源。 還有Alphabet這筆天文數字的資本支出,到底對他們的財報會有什麼實際影響, 這點投資人絕對要緊盯。
緊盯? 我眼睛都快掉出來了! 好啦,講到燒錢,那我們就不得不來聊聊,這些世界模型要跑起來, 到底需要什麼?
不就是晶片跟記憶體嗎? 這根本是另一場戰火啊!
沒錯,小明你講到重點了。 講到AI的底層,就絕對是晶片。 上次我們才說NVIDIA的Vera Rubin平台跟HBM4記憶體有多麼炙手可熱,
Micron的HBM4記憶體2026年產能已經全數售罄了, 這真的是超級扯。 結果呢,才過幾天,戰火又升級了!
升級? 我覺得是打到刀刀見骨了吧! 我跟你說,光是這個HBM,它現在根本就是「吸血鬼記憶體」!
Micron已經正式宣布HBM4記憶體進入高量產階段,而且2026年的產能已經被客戶預訂一空了!
這個HBM4,針腳速度超過11 Gb/s,頻寬超過2.8 TB/s, 而且相比HBM3E,功耗效率提升超過20%。
這代表什麼? 這代表Bank of America預測DRAM的平均營業利潤率會超過60%, NAND超過30%!
這根本就是暴利啊!
哈哈,吸血鬼記憶體。 你這個形容詞很貼切。 因為它的價格飆升速度,真的讓人驚訝。 WSTS預測2026年全球半導體市場會達到九千七百五十億美元, 其中記憶體市場會增長30%。
你看到這個數字,就知道為什麼大家都在搶HBM。 TechInsights的分析師也指出,記憶體製造商現在採取更「有紀律」的方式來增產, 形成了「控制性短缺」,而不是隨便亂放量。
控制性短缺? 我看是「控制性漲價」啦! 因為HBM的生產,消耗的晶圓產能是DDR5的至少三倍,這就直接導致DDR4這種標準記憶體結構性短缺, 筆電價格預計會上漲5%到15%。
你說說看,這些成本最後是誰在買單? 還不是那些AI的下游廠商,最後再轉嫁到消費者身上。 你看看,AI PC不是號稱要普及了嗎?
你這個記憶體成本這樣搞,是要普及給誰? Seagate的高管都說了,記憶體高價將會是「未來幾年的新常態」, 而且Micron跟Broadcom的客戶都已經預訂供應到2028年了,
你還普及個鬼啊!
這就牽涉到我們今天要聊的第二個重點了,就是AMD跟NVIDIA的AI晶片戰, 現在已經從資料中心延伸到我們一般人會用的AI PC了。
AMD在2026年初的CES大展上,推出了他們的Ryzen AI 400系列桌面處理器, 還有Ryzen AI PRO 400系列行動工作站處理器。
你知道它厲害在哪裡嗎? 它的NPU,就是那個神經處理單元,AI算力可以達到50 TOPS, 如果是PRO系列甚至到60 TOPS。
Jack Huynh,AMD電腦與繪圖事業群的資深副總裁, 他就說了:「桌面PC正在從一個工具演變成一個與你並肩工作的智能助理。
透過Ryzen AI 400系列處理器,我們正在帶來強大的AI加速。 」而且,這是為了支援微軟的Copilot+ PC體驗,換句話說, 他們是第一個專門為此設計的桌面處理器。
HP、Lenovo、Dell這些OEM大廠也都將在第二季陸續推出搭載這些新晶片的系統。
Copilot+ PC? 這又是個什麼鬼? 難道以前的PC都不能run AI嗎? 這根本就是一個行銷術語,講白一點就是他們NPU的算力達標了, 所以可以掛上這個標籤。
我跟你說,一般消費者根本不會去在意你是50 TOPS還是60 TOPS, 他們只會看這個AI PC到底能做什麼,它到底值不值得多花錢。
而且我還看到NVIDIA也沒閒著啊,他們也預計第二季要出貨N1X晶片進攻消費級PC市場,
NPU算力還據說超過目前的Intel跟AMD,也符合微軟45 TOPS的Copilot+認證要求。
根本就是全面開戰。
你講得很有道理。 所以現在這個AI PC市場,真的是全面開打。 不只AMD跟NVIDIA,未來Intel也一定會加入戰局。
這對產品設計師來說,是個很大的機會,因為有了這些更高算力的PC, 理論上就能開發出更多元的AI應用。
但對消費者來說,小明你說的疑慮很關鍵,就是到底這些AI PC能帶來什麼「超值」的功能, 讓他們願意多花錢去買。
超值? 我只看到超貴! 你HBM漲100%,晶片大戰又互相叫陣,最後這些成本,是消費者超值買單, 還是廠商超值賺飽?
這真的是個問號。 而且,你看AMD跟Samsung最近還有個大動作,他們簽了個MOU, 就是要擴大在AI記憶體和運算技術上的合作。
AMD的CEO Lisa Su還特別跑去韓國談,確定Samsung會增加對AMD的HBM4供貨, 用在他們的新一代Instinct MI455X加速器上,
然後呢,Samsung Foundry也會幫AMD代工一部分的先進AI晶片。 你覺得這代表什麼?
這其實是個很關鍵的策略。 我們都知道NVIDIA在AI晶片市場是霸主,幾乎是壟斷地位。 AMD跟Samsung的合作,說白了就是要打造一個「抗NVIDIA聯盟」。
AMD需要穩定的HBM供應來生產他們的MI系列加速器,而Samsung則需要更多的先進晶片代工訂單來填滿他們的Foundry產能。
這個MOU某種程度上是個雙贏,也讓市場對AI晶片供應鏈的多元化有了一絲希望, 不再是NVIDIA一家獨大。
Diversification? 我覺得這只是「分贓」的開始啦! 以前NVIDIA一家吃太飽,現在大家要來分一杯羹。
可是你HBM的價格這樣漲,就算大家都有HBM,最後的總成本還是很高啊! 這根本就是在比誰的供應鏈管理能力強,誰能搶到更多的資源。
Jensen Huang在GTC 2026已經把NVIDIA的AI基礎設施營收預測, 從2026年的五千億美元,直接上修到2027年的一兆美元!
這根本就是要吃下整個AI帝國啊!
沒錯,Jensen Huang在GTC上正式發布了NVIDIA的「Vera Rubin」平台, 這個才是關鍵。
他把這個平台稱為一個整合式的「AI工廠」,裡面包含了七款新晶片: Rubin GPU、Vera CPU、NVLink 6、
ConnectX-9 SuperNIC、BlueField-4 DPU、 Spectrum-6 Ethernet switch,甚至還整合了他們收購的Groq的LPU。
他說這個平台相比Blackwell,推論處理吞吐量能提升十倍, 每token成本只要十分之一。 這已經不是單純賣晶片,NVIDIA現在是直接提供一整套的「AI工廠」解決方案,
要讓你所有的AI運算都在他們的生態系裡完成。
10倍? 1/10成本? 你把其他晶片廠都當笨蛋啊! 這根本就是把整個生態系都吃下來了! 他們不只是航空公司,他們連機場、塔台,所有飛機的維修跟加油, 全部都自己開了!
然後再跟你說這樣比較划算。 反正說到底,這些AI巨頭砸錢開發「世界模型」,晶片廠跟記憶體廠在後面賺得盆滿缽滿, 那最終買單的,是不是又是我們這些使用者跟投資人?
這背後的經濟效益到底能不能真正普惠到大眾,還是只是一場資本遊戲? 這個問題,我希望大家可以好好思考一下。
沒錯。 我們現在看到的是,AI的潛力無限,但它背後的投資規模、供應鏈挑戰以及最終的變現能力, 都還是充滿問號。
所以,在AI狂熱的浪潮中,我們投資人跟產品設計師,都需要保持獨立思考, 仔細區分哪些是真正的價值創造,哪些又只是「本夢比」的泡沫。
你說是不是,小明?
對! 不要當個具身韭菜,好不好! 這集就這樣,下週我們再繼續爆氣!
感謝大家的收聽,我們下週同一時間再見。