德國晶片告急、NVIDIA揭AI藍圖、日本猛攻AI生態
科技產業洞察 · Episode #150 · · PT11M
Host · 蔡珵澤
Summary
本集《深度科技洞察》深入剖析AI浪潮如何全面重塑全球半導體產業。節目首先探討德國工業因AI需求排擠,再度面臨成熟製程晶片奇長交期的困境,凸顯供應鏈韌性與去風險化的兩難。接著,揭露NVIDIA Vera Rubin平台如何透過「極致協同設計」,整合六大晶片打造AI超級電腦,雖展現驚人性能,但也引發市場過度集中與HBM成本飆升的隱憂。同時,日本政府斥鉅資佈局AI晶片設計生態系,力圖扭轉在設計環節的劣勢,強調國家安全與產業復興的決心,但仍面臨人才與生態系建構的巨大挑戰。最後,SK海力士與SanDisk聯手推動高頻寬快閃記憶體HBF標準化,期望為AI推論市場提供兼具大容量、低成本與高頻寬的新型解決方案,其成功與否將取決於產業鏈的廣泛支持與接受度。總體而言,節目強調在AI驅動下的半導體變革,正考驗著全球在技術創新、供應鏈管理及地緣政治平衡中的智慧與應變能力。
Transcript
嗨,各位忠實聽眾,歡迎再次回到我們的! 我是你們輕鬆但不失專業的節目主持人蔡珵澤。
大家好,我是資深分析師蔡燿先。
今天是我們別具意義的第150集節目! 在這個里程碑時刻,我們將帶領大家穿越全球半導體市場的最新風暴, 深度剖析AI浪潮如何以超乎想像的速度,徹底重塑整個產業鏈——從晶片短缺、
尖端技術競賽,到全球供應鏈的策略佈局與國家級的產業野心。 這一切都發生得比我們預期的還要迅猛,也更加錯綜複雜。
沒錯,本集我們將聚焦四大關鍵議題,為您層層解構這場全球變革: 首先,我們將探討德國工業為何再次深陷成熟製程晶片短缺的泥淖;
接著,NVIDIA如何憑藉其Vera Rubin下一代AI平台, 以「極致協同設計」理念構築全新的AI超級電腦生態系;
第三,日本政府正如何斥鉅資,加速打造其本土AI晶片生態系, 力圖在AI時代重新崛起; 最後,我們將一同關注SK海力士與SanDisk聯手推動的高頻寬快閃記憶體HBF標準化,
它會是AI推論市場的未來嗎?
準備好了嗎? 繫好安全帶,因為接下來的內容將會充滿挑戰、啟發與無限可能! 讓我們一起探索這些令人振奮又充滿懸念的科技新局!
好的,首先,我們要來聊聊一個讓整個德國工業界再次頭痛欲裂的問題——晶片荒。 各位聽眾可能還記得疫情初期,全球晶片短缺對汽車、工業製造業的巨大衝擊吧?
當時德國工業可謂是「叫苦連天」。 如今,德國商報的報導指出,德國工業再次面臨成熟製程晶片供應吃緊的狀況, 而且這次的交期可說是「奇長無比」,從過去的8週一路拉長到將近一年,
也就是50週! 這簡直是把時光倒流回疫情最嚴峻的時刻啊,歷史似乎又重演了。
是的,這次的短缺,背後有著更深層次的結構性原因。 根據GPV執行長呂貝克的說法,人工智慧和資料中心需求快速成長, 成為此波晶片短缺的主因之一。
美國科技巨頭Alphabet、Amazon、Meta和Microsoft今年宣布, 將在AI相關基礎建設投資高達6500億美元,其中相當比例用於採購最先進的AI晶片。
這龐大的資金湧向先進製程,導致晶圓廠將更多產能分配給高利潤的先進晶片, 間接排擠了製造微控制器、電源管理晶片等傳統工業用晶片的成熟製程產能。
這些成熟製程晶片,正是支撐工業自動化、汽車電子、物聯網等「實體經濟」運作的關鍵骨幹。
所以簡單來說,就是AI晶片太夯了,把晶圓廠的產能和資源都「吸」走了。 結果那些看起來沒那麼「高科技」,但卻是工業界不可或缺的微控制器、
電源晶片、類比晶片這些成熟製程產品,反而變成稀缺資源了。 而且顧問公司Strategy&還指出,記憶體產品的漲幅最為顯著, 部分價格甚至比去年秋季上漲了3到4倍。
這對德國這種高度依賴製造業的國家來說,無疑是個沉重打擊。
芬特爾也補充說,德國這次短缺的正是應用於汽車與工業設備的基礎元件。 此外,歐洲半導體供應鏈內部也出現變數,例如荷蘭安世半導體近期因內部管理與股權問題影響部分產能,
導致供貨延遲,對汽車供應鏈造成重大影響,部分產品交期一度長達約9個月。 這也凸顯了全球化供應鏈中的在地化風險。
這聽起來有點眼熟啊,難道德國企業又「好了傷疤忘了疼」嗎? 法蘭克福電子經銷商Sand & Silicon的執行長塞迪基就直言不諱: 「德國似乎忘記疫情期間晶片短缺的痛苦。
過去兩年市場需求疲弱,企業多以壓低成本為優先,未建立足夠庫存, 忽略供應鏈風險。 」這簡直是說到我們心坎裡了。
這種對成本的過度關注,往往導致在危機來臨時毫無招架之力。
這確實是一個值得深思的教訓。 儘管歐盟已批准向德國GlobalFoundries和X-FAB等晶圓廠提供總額6.23億歐元的政府補助,
旨在提升歐洲晶片自給自足能力,但供應鏈在地化策略的實施仍面臨挑戰, 畢竟晶圓廠的建設並非一蹴可幾。
同時,英飛凌執行長約亨·哈內貝克也表示,公司正將2026財年的投資增至約27億歐元, 以擴大德勒斯登和其他工廠的產能,預計2027財年AI相關營收將達2.5億歐元,
以應對增長的需求,這顯示了歐洲企業雖然意識到問題,但轉型和擴產都需要時間。
不過,芬特爾也提出了一個很有趣的觀點。 他說:「此波供應吃緊對中國製造商而言是一大機會,中國近年已大幅擴充40奈米等成熟製程產能, 在西方供應不足情況下,可能成為替代供應來源。
」這就帶來了一個兩難:你是要堅持「去風險化」的原則,減少對潛在競爭對手的依賴; 還是為了快速取得關鍵晶片,而考慮來自中國的供應?
這肯定會讓一些決策者在戰略上很頭痛。 這背後是複雜的經濟與地緣政治考量。
從晶圓代工市場來看,台積電預期2026年營收成長30%至35%, AI晶片需求是關鍵驅動力,先進製程未來3到5年供不應求將明顯加劇。
同時,成熟製程方面,預計世界先進、力積電等8吋廠受惠於全球8吋總產能縮減2.4%, 表現將優於同業,價格也將面臨上漲壓力。
這意味著成熟製程的短缺和價格上漲,恐怕會持續一段時間。
好的,德國晶片荒這齣戲還會怎麼演下去,供應鏈的選擇題又會如何解? 我們拭目以待。 接下來,我們要將目光轉向AI晶片的最前線,看看「AI教父」NVIDIA又端出了什麼驚天動地的菜色,
這將引領我們進入AI技術的下一階段。
蔡燿先,我們都知道NVIDIA在AI晶片領域是當仁不讓的獨霸一方, 市場佔有率高達80%以上。 現在,他們又推出了下一代AI平台Vera Rubin。
聽說這次他們不只賣單一晶片,而是要賣整套「AI超級電腦」的解決方案, 這是怎麼回事? 這背後代表著什麼樣的戰略轉變?
蔡珵澤說得沒錯。 NVIDIA在CES 2026和GTC 2025/2026上詳細揭露了Vera Rubin平台, 並確認其已全面投產,預計2026年下半年開始出貨。
NVIDIA執行長黃仁勳表示,Vera Rubin是「極致協同設計」的體現, 整合了六大核心晶片,包括Vera CPU、Rubin GPU、
NVLink 6交換機、ConnectX-9 SuperNIC、 BlueField-4 DPU和Spectrum-6乙太網交換機。
他強調,NVIDIA已從單純的元件供應商轉型為整個AI基礎設施堆疊的主要架構師, 也就是說,他們賣的不再是積木,而是整座樂高城堡。
哇,六顆晶片組成一個AI超級電腦,這真的是把整個資料中心都變成一顆巨大的晶片了! 黃仁勳說Rubin平台能將AI推論成本降低10倍,訓練MoE所需的GPU也減少4倍,
推論性能提升5倍。 特別是BlueField-4 DPU,更是不得了,運算能力提升6倍, 電晶體數量高達1260億顆,還整合了64核心的Grace CPU。
這些數字聽起來都像是科幻小說才會出現的,但NVIDIA卻把它們變成了現實! 這代表著AI運算效率的巨大飛躍。
這些性能提升的確令人驚嘆。 Rubin平台採用的NVLink 6技術,單顆GPU雙向頻寬達3.6 TB/s, 而機架級NVL72的GPU到GPU頻寬更高達260 TB/s,
確保了AI模型訓練和推論所需的海量數據傳輸效率,徹底消除了瓶頸。 同時,Spectrum-6交換機的單晶片交換容量達到102.4 Tb/s,
加上Spectrum-X乙太網光子系統能效提升5倍,NVIDIA確實是在打造一個極致優化、 軟硬體深度整合的AI生態系。
Meta、Microsoft等超大規模資料中心都已承諾部署Vera Rubin系統, 顯示其市場影響力。
這種「包山包海」的策略真是讓競爭對手望塵莫及,NVIDIA透過這種深度整合, 構築了難以跨越的技術壁壘。
不過,這麼強大的AI平台,背後所需的先進製程、高頻寬記憶體, 以及複雜的先進封裝技術,其成本和供應鏈壓力一定也不小吧?
這會不會反而成為AI發展的限制?
確實如此。 隨著Rubin平台的需求激增,高頻寬記憶體HBM4的價格也水漲船高。 市場報告顯示,三星電子預計將HBM4價格調漲高達30%,
單價可能來到700美元,潛在營業利潤率高達50%至60%。 SK海力士也證實2026年的HBM供應已全數售罄,美光也表示其2025和2026年的HBM產能已全數被預訂。
這凸顯了HBM在整個AI供應鏈中的關鍵地位和稀缺性。
天哪,這是賣方市場的勝利啊! 這些記憶體大廠簡直是搭上了AI的順風車,賺得盆滿缽滿。 但這也讓我覺得,NVIDIA一家獨大,會不會讓整個AI市場過度集中?
萬一他們在技術或供應鏈上出了什麼問題,對整個產業的影響會不會太大了? 而且HBM這麼貴,是不是會讓AI的普及成本居高不下,限制了更多企業和國家進入AI領域的門檻?
這是一個關鍵的平衡問題。 NVIDIA的「極致協同設計」策略雖然帶來了無與倫比的性能, 但確實引發了對市場集中化、供應鏈風險以及AI應用成本的擔憂。
儘管NVIDIA透過台積電保留了高達70%的CoWoS-L先進封裝產能, 但這種對單一供應商的依賴,以及對HBM的極度需求,都可能成為潛在的瓶頸。
一些分析師,例如SemiconSam的Jukan,雖然預期HBM產業在2026年將持續增長, 但也認為嚴重的供應短缺有望獲得解決,暗示供應鏈的彈性會逐漸提升。
然而,從目前記憶體廠的強勢定價來看,供應商掌握議價權的局面短期內不會改變, 這對AI硬體成本仍構成壓力。
聽起來NVIDIA既是AI的領航者,也把整個產業推向一個前所未有的高度和集中度。 這對AI產業到底是福是禍,是加速還是潛在的風險,或許時間會給我們答案。
接下來,我們把鏡頭轉向東亞,看看曾經在半導體領域叱吒風雲的日本, 如何在AI時代,為他們的半導體產業重新定義方向。
蔡燿先,提到日本,我們都知道他們在半導體製造設備和材料領域一直都是全球翹楚, 許多關鍵的半導體材料和設備都掌握在日本企業手中。
但似乎在晶片設計,尤其是AI晶片設計這塊,日本近年來相對較為落後, 沒有出現像NVIDIA、AMD這樣的全球巨頭。
現在,日本政府要花大錢興建三座高階AI半導體設計設施,這是要扭轉乾坤, 重現過去半導體王國的輝煌嗎?
這背後有什麼深層的國家戰略意圖?
沒錯,日本經濟產業省近期宣布,將投入1306億日圓,約8.39億美元, 計畫興建三座具備AI半導體高階設計軟體與開發工具的設施。
這項策略旨在以台積電和Rapidus為核心,打造國內半導體生產體系, 同時補足日本在AI晶片設計上的弱點。
這不僅是經濟考量,更是日本提升經濟安全保障的關鍵一環。
1306億日圓,這可不是一筆小數目啊! 所以這些設施會怎麼分工,具體要實現什麼目標呢?
第一座設施預計在2026年秋季於東京開設,主要聚焦於晶片設計, 特別是針對控制機器人、機械等「實體AI」應用,並提供自動化設計工具、 運算伺服器和技術專家支援,培養高階設計人才。
第二座中心則預計在2029年度於北海道千歲市啟用,鄰近Rapidus工廠, 專職設備與原料的研發與測試,並將引進ASML最新的EUV設備, 為Rapidus的先進製程提供支持。
Rapidus的2奈米晶片量產時間表也曝光,預計2027年下半年啟動初期量產, 月產能6000片,並在一年內擴大至2萬5000片,2028年全面量產。
日本政府的目標是力拚在2028年實現AI晶片的本土原型製造, 這是一個非常雄心勃勃的計畫。
小野田紀美經濟安全保障大臣強調,AI與半導體是攸關產業競爭力與國家安全的極重要基礎技術, 日本絕對沒有落後的空間。
這聽起來日本是玩真的了,要從過去相對「單打獨鬥」或只專注材料設備的策略中走出來, 走向更全面的生態系合作,從設計、製造到應用,打造完整的半導體供應鏈。
日本政府此舉,旨在將其半導體戰略從傳統的製造和材料優勢, 擴展至AI晶片設計的上游軟體與工具鏈,以減少對外部供應鏈的依賴, 並增強本土AI硬體的自主能力。
日經中文網也指出,越是尖端半導體,研發成本越高,企業難以單獨承擔投資, 政府將積極承擔相關費用,為民間技術革新打下基礎。
這種國家隊模式,正是在全球半導體競賽中,各國政府的普遍策略。
聽起來很宏大,但我也有點疑慮。 像NVIDIA這樣的美國企業在AI晶片設計領域已經是絕對的霸主了, 而EDA工具也幾乎由美國幾大巨頭壟斷。
日本政府投入這麼多錢,真的能在這麼短的時間內迎頭趕上,甚至在設計工具和軟體上開闢出自己的道路嗎?
畢竟過去日本半導體業也曾輝煌一時,後來卻因各種原因而沒落了, 這次會不會重蹈覆轍? 人才的培養和全球合作,會是更大的挑戰吧?
您的擔憂很有道理。 經濟日報的報導就指出,日本企業在AI半導體設計領域確實處於落後, 與海外企業和研究機構合作對日本新半導體中心而言至關重要。
僅有資金投入是不足夠的,如何有效整合國內外資源、培養頂尖人才、 建立具備競爭力的IP和生態系,才是日本能否成功的關鍵。
全球邊緣AI晶片市場潛在價值雖預計在2036年達800億美元, 顯示了利基市場的機會,但要挑戰通用AI晶片市場的既有格局, 仍然非常困難。
日本可能需要尋找差異化的市場切入點,例如其在機器人、工業自動化方面的優勢, 發展特定的「實體AI」晶片。
所以日本這場半導體復興戰,不僅是技術與資本的較量,更是智慧和策略的考驗, 一場牽動國家未來的豪賭。
我們期待看到日本如何突破重圍,走出自己的AI晶片之路。 接下來,我們要來看一個可能顛覆未來AI記憶體格局的新技術: 高頻寬快閃記憶體HBF,它將如何重新定義AI推論的記憶體需求?
蔡燿先,我們剛才提到HBM價格漲得驚人,幾乎是AI運算成本居高不下的主因之一。 現在,SK海力士和SanDisk又聯手推出了HBF,也就是高頻寬快閃記憶體, 還要推動它的標準化。
HBM和HBF,這兩個「H」開頭的記憶體到底有什麼不一樣? 難道HBF是要來取代HBM,成為AI時代的新記憶體霸主嗎?
蔡珵澤,HBF並不是要取代HBM,它們有著不同的定位和應用場景。 簡單來說,HBM是為AI訓練設計的「速度王者」,它提供極致頻寬, 但容量相對有限且成本高昂。
而HBF,根據SK海力士的定義,旨在作為HBM與傳統SSD之間的一個新型記憶體層級, 它結合了NAND Flash的大容量、低成本與HBM的高頻寬特性,
專為AI推論市場設計,以滿足其對容量擴展和電源效率的雙重需求。 可以想像成,HBM是跑車,HBF是高性能的貨車,各有各的用處。
喔,所以HBF是為AI推論而生,特別強調的是容量和成本效益, 對吧? 因為AI推論需要處理大量數據,但對單次存取的頻寬要求可能不如訓練那樣極致。
這是不是說HBF會讓AI推論的成本大幅下降,從而加速AI在各行各業的普及?
這是HBF的戰略目標。 SK海力士總裁安炫表示,HBF技術能彌補HBM的高效能與SSD的大容量特性之間的差距, 並確保AI推論所需的容量擴展與能源效率。
目前HBF單堆疊容量目標高達512 GB,這是HBM4的8到16倍, 而單顆晶片容量為256 Gb,第一代目標讀取頻寬為1.6 TB/s。
他們內部測試甚至顯示,HBF與「無限容量HBM」的性能差距僅2.2%。 這是一個非常具有吸引力的性能成本比。
哇,容量比HBM4大這麼多,性能差距卻很小,聽起來HBF的潛力確實巨大啊! SanDisk預計今年下半年就能交付首批HBF記憶體樣本,
而2027年初搭載HBF的AI推論設備就會進入採樣階段。 這麼快就能看到成果,是嗎? 這效率令人驚訝。
是的。 SK海力士與SanDisk已於2026年2月25日在SanDisk總部聯合舉辦了「HBF規格標準化聯盟啟動會」,
並在開放運算計畫架構下成立專項工作小組,展開HBF標準制定工作。 這種早期就推動標準化的策略,旨在吸引更多產業夥伴加入,共同建立生態系。
他們期待HBF在約2030年能全面擴張市場需求,成為AI推論記憶體的主流方案之一。
這看起來是要為AI推論開闢一個全新的記憶體賽道啊! 不過,要推動一個新的產業標準,是不是會面臨很多挑戰?
像是技術的成熟度、整個生態系的建立,還有怎麼跟現有的HBM和SSD市場區隔? 畢竟大家已經習慣現有的記憶體架構了,改變用戶習慣和產業鏈慣性, 從來都不是一件容易的事。
這是非常實際的挑戰。 雖然HBF的技術概念和性能潛力令人期待,但標準的建立需要整個產業鏈的共同支持, 包括晶片設計商、系統整合商,甚至軟體開發者。
此外,HBF需要證明其在成本、性能和穩定性上的綜合優勢, 才能說服客戶從既有的HBM或SSD解決方案轉向。
而且,JEDEC也剛發布了UFS 5.0和UFSHCI 5.0標準更新, 針對行動應用和高階智慧型手機提供更高的性能和更低的功耗,
這顯示快閃記憶體市場的技術演進也持續推進,競爭日益激烈。 HBF必須在這樣一個競爭激烈的市場中,清晰地找出其獨特的價值定位, 並克服推動新標準的巨大阻力。
所以,HBF雖然瞄準了AI推論這個巨大的潛力市場,但能否成功, 還得看它能不能有效克服技術成熟、成本效益、生態系建立和市場接受度的多重考驗。
這將是一場精彩的記憶體標準之爭。
好的,今天的又到了尾聲。 今天我們從德國工業面臨的成熟製程晶片短缺困境出發,清晰看到AI對整個半導體供應鏈,
特別是對成熟製程產能的巨大排擠效應,也再次體認到地緣政治在其中扮演的複雜且關鍵角色。
接著,我們深入剖析了NVIDIA Vera Rubin平台, 這不僅是單一晶片的突破創新,更是NVIDIA「極致協同設計」理念下, 將整個AI基礎設施系統化的體現。
它清晰地揭示了AI軍備競賽已進入全面整合與系統優化的新階段, 但同時也引發了對市場集中化和供應鏈依賴的深思。
而日本政府積極佈局AI晶片設計生態系,投入鉅資,展現了他們在AI時代轉型的堅定決心。 不過,這也提醒我們,要在激烈的全球競爭中脫穎而出,除了龐大的資金投入,
更需要智慧的策略佈局、頂尖的人才培養以及廣泛的國際合作。
最後,SK海力士與SanDisk聯手推動HBF標準化,為AI推論市場提供了具備高容量和高成本效益的新型記憶體解決方案。
這預示著記憶體產業在AI時代將走向更多元、更細分的應用, 以滿足不同AI工作負載的特定需求。
總體而言,AI浪潮正以我們難以想像的速度和廣度,重塑著全球半導體產業的每個環節。 無論是晶片短缺的經濟衝擊、NVIDIA的技術創新、日本的國家戰略轉型,
還是HBF的市場探索,這些議題都緊密相連,共同編織出一個充滿挑戰與無限機遇的科技新時代。
在這個變革的時代,唯有持續保持敏銳的洞察力、靈活應變的能力, 並在技術發展、經濟效益、地緣政治之間取得巧妙平衡,才能在這場全球性的科技馬拉松中穩健前行, 甚至引領風騷。
感謝各位收聽本集的。 我是蔡珵澤。
我是蔡燿先。
我們下週同一時間再會!