Uber 宣布擴大與 Amazon Web Services(AWS)的合作關係,進一步採用 AWS 自家設計的 AI 晶片以提升即時運算效率及 AI 模型訓練能力,雖然雙方未有披露具體財務細節,但外界視今次合作為 Uber 強化 AI 基礎設施的重要一步。
根據 Uber 公布的資料公司將擴大使用 AWS 的 Graviton4 與 Trainium3 晶片,前者主要針對高效能雲端運算而設計,後者則專注於 AI 模型訓練。Uber 表示 Graviton4 將用於支援其核心即時服務,例如在毫秒級時間內完成乘客與司機的配對,同時計算最佳路線與預計到達時間。
每當用戶打開 Uber 應用程式叫車或下單外賣,系統都需要在極短時間內完成大量判斷,包括最近司機位置、交通狀況及實際到達時間估算等,這些決策除了要快,也要能同時應付全球數百萬用戶的請求。Uber 指出這類大量同時且即時的運算需求,必須依賴專門設計的基礎設施才能確保穩定與效率。
在 AI 訓練方面 Uber 亦開始試行使用 AWS Trainium3 晶片,Uber 工程副總裁 Kamran Zargahi 表示公司正測試將部分 AI 模型轉移至 Trainium 平台,以建立更具效率與成本優勢的技術基礎。這些模型會處理來自數十億次行程與外賣訂單的數據,用於改善乘客與司機配對、提升預計到達時間準確度,以及提供更個人化的建議。
隨著 AI 模型規模不斷擴大,訓練所需的運算資源亦急速增加,AWS 將 Trainium 定位為比傳統 GPU 更具成本效益的選擇,特別適合大規模模型訓練。Uber 今次試行亦反映出大型科技企業正重新評估 AI 基礎設施架構,以平衡效能、成本與能源消耗。
Uber 同時指出將更多即時工作負載運行於 Graviton 晶片上,有助在需求高峰期間降低能源消耗,這對於需要全天候運作的全球平台而言節能與效率同樣重要。
AWS 北美區副總裁兼董事總經理 Rich Geraffo 表示 Uber 是全球最具挑戰性的即時應用程式之一,能成為其基礎設施合作夥伴意義重大,這次合作亦顯示出市場對專為 AI 工作負載而設的特製晶片需求日益增加。
近年包括 Anthropic、OpenAI 及 Apple 在內的多間大型科技公司均加強使用 AWS 自家 AI 晶片,這種趨勢反映出產業正由通用 GPU 轉向更具針對性的專用矽晶方案,以應對大規模 AI 部署所帶來的效能與成本壓力。
對 Uber 而言除了是基礎設施升級也是為未來更智能化服務鋪路,隨著 AI 深入即時交通與外賣場景,用戶或將感受到更準確的預測、更流暢的配對體驗,以及更個人化的推薦。