ICC訊 9月4-5日,第21屆訊石光研討會(iFOC 2023)圓滿舉辦!本屆會議吸引了來自近700家企業的1000多位嘉賓出席,聆聽行業專家學者及技術骨干的干貨分享及巔峰對話,共享光通信行業的前沿技術及市場信息。
訊石信息咨詢高級分析師吳娜在9月5日的主論壇《算力光網與光纖通信技術發展》上發表《AI驅動下光模塊市場需求預測》的主題演講。
訊石吳娜
ChatGPT掀起生成式AI熱潮,國內外企業紛紛加速AI布局。相關數據顯示,在過去8個月里,Hugging Face(正逐步成為全球最大的大模型庫)上的預訓練模型數量從此前積累的10萬個增長到了超過30萬個。今年上半年,國內發布的各類大模型數量超過100個,其中參數在10億規模以上的大約80個。根據OpenAI的研究,AI訓練所需算力增速超越硬件的摩爾定律。
隨著GPT-3等大模型參數增長超過GPU內存的增長,HBM(高帶寬存儲器)成為AI服務器標配。存儲龍頭SK海力士的HBM目前已發展到第五代HBM3E,最高每秒可以處理1.15TB的數據,進一步拉大內存帶寬與網絡帶寬的差距。
為解決網絡帶寬瓶頸,數據中心網絡架構需要變革。傳統樹形網絡拓撲中,帶寬逐層收斂,樹根處網絡帶寬要遠小于各個葉子處所有帶寬的總和。而胖樹則更像真實的樹,越到樹根,枝干越粗,即從葉子到樹根,網絡帶寬不收斂,可以提高網絡效率,加快訓練速度。這是胖樹架構能夠支撐無阻塞網絡的基礎。由于不做收斂,需要更多的光口來保證上下行速率一致,因此增加了光模塊數量。
為縮小存儲帶寬和網絡帶寬的差距,英偉達引入了服務器間GPU All-to-all直連。在英偉達DGX H100集群中,不同服務器的GPU之間使用NVLink連接到NVSwitch進行通信,因此新增了一套NVSwitch相連的光網絡系統,每個服務器有18個OSFP和NVSwitch相連,大幅增加了光模塊用量。
AI應用掀起光連接需求新浪潮。現階段,英偉達H100的需求火爆異常,訂單量已經排滿到2024年。知情人士透露稱,英偉達目前計劃將旗艦H100顯卡的產量至少增加兩倍,到2024年H100的出貨量將達到150萬至200萬塊,比今年預期的50萬塊大幅躍升。
從業內觀點來看:行業正處于與AI/ML部署相關的長達十年的大趨勢的拐點。LC估計,未來五年,AI集群應用光收發器收入將占同期以太網光收發器總收入的38%。Coherent在其股東信函中估計,未來五年內,800G、1.6T和3.2T數通收發器市場的CAGR將超40%;到2028年甚至可能更早,與AI相關的800G和1.6T數通收發器出貨量將占所有數通收發器出貨量的近40%。
當然新事物的誕生與興起,都伴隨著一些質疑和不確定性。比如,2023年6月,ChatGPT訪問量首次下降,有人認為人們對ChatGPT的新奇感已漸漸消失;野村證券前分析師Richard Windsor表示,除非出現一個人們愿意每月花20美元購買AI應用的大眾市場,否則泡沫可能會迅速破滅,并波及相關企業;由于不清楚生成式AI產品的擴張速度,Meta等Hyperscaler對AI投資還存在不確定…..等等。
但亞馬遜云科技 CEO Adam Selipsky也表示:“生成式AI目前處于非常早期的階段,就像十公里比賽剛跑出幾步……它將給世界帶來突破式的變革,且有可能是自互聯網誕生以來最大的變革。互聯網使知識普惠化,生成式AI將使人工智能技術普惠化。”
在演講的最后,吳娜總結道: AI應用的興起與普及將驅動數據中心網絡架構變革,從而促進數據中心基礎設施投資增長。AI應用需求將為光模塊行業帶來多少機遇,讓我們拭目以待!