GenAI 與雲端科技專區

Uber 擴大與 AWS 合作 採用自家 AI 晶片強化即時運算能力

Published by
藍骨

Uber 宣布擴大與 Amazon Web Services(AWS)的合作關係,進一步採用 AWS 自家設計的 AI 晶片以提升即時運算效率及 AI 模型訓練能力,雖然雙方未有披露具體財務細節,但外界視今次合作為 Uber 強化 AI 基礎設施的重要一步。

 

提升即時配對與路線計算效率

根據 Uber 公布的資料公司將擴大使用 AWS 的 Graviton4 與 Trainium3 晶片,前者主要針對高效能雲端運算而設計,後者則專注於 AI 模型訓練。Uber 表示 Graviton4 將用於支援其核心即時服務,例如在毫秒級時間內完成乘客與司機的配對,同時計算最佳路線與預計到達時間。

每當用戶打開 Uber 應用程式叫車或下單外賣,系統都需要在極短時間內完成大量判斷,包括最近司機位置、交通狀況及實際到達時間估算等,這些決策除了要快,也要能同時應付全球數百萬用戶的請求。Uber 指出這類大量同時且即時的運算需求,必須依賴專門設計的基礎設施才能確保穩定與效率。

 

 

更具成本效益的 AI 模型訓練

在 AI 訓練方面 Uber 亦開始試行使用 AWS Trainium3 晶片,Uber 工程副總裁 Kamran Zargahi 表示公司正測試將部分 AI 模型轉移至 Trainium 平台,以建立更具效率與成本優勢的技術基礎。這些模型會處理來自數十億次行程與外賣訂單的數據,用於改善乘客與司機配對、提升預計到達時間準確度,以及提供更個人化的建議。

隨著 AI 模型規模不斷擴大,訓練所需的運算資源亦急速增加,AWS 將 Trainium 定位為比傳統 GPU 更具成本效益的選擇,特別適合大規模模型訓練。Uber 今次試行亦反映出大型科技企業正重新評估 AI 基礎設施架構,以平衡效能、成本與能源消耗。

Uber 同時指出將更多即時工作負載運行於 Graviton 晶片上,有助在需求高峰期間降低能源消耗,這對於需要全天候運作的全球平台而言節能與效率同樣重要。

邁向更智能化交通與外賣服務

 

 

AWS 北美區副總裁兼董事總經理 Rich Geraffo 表示 Uber 是全球最具挑戰性的即時應用程式之一,能成為其基礎設施合作夥伴意義重大,這次合作亦顯示出市場對專為 AI 工作負載而設的特製晶片需求日益增加。

近年包括 Anthropic、OpenAI 及 Apple 在內的多間大型科技公司均加強使用 AWS 自家 AI 晶片,這種趨勢反映出產業正由通用 GPU 轉向更具針對性的專用矽晶方案,以應對大規模 AI 部署所帶來的效能與成本壓力。

對 Uber 而言除了是基礎設施升級也是為未來更智能化服務鋪路,隨著 AI 深入即時交通與外賣場景,用戶或將感受到更準確的預測、更流暢的配對體驗,以及更個人化的推薦。

Published by
藍骨