ニュース
AMD、Google、Intel、Meta、Microsoftなどが「UALink」を発表 AIアクセラレータ間の高速、低遅延な通信を実現するオープン接続規格の開発を目指す:NVIDIAの「NVLink」に対抗か
AMD、Broadcom、Cisco、Google、Hewlett Packard Enterprise、Intel、Meta、Microsoftは「UALink」を発表した。データセンターにおけるAIアクセラレータ間の高速、低遅延かつオープンな接続規格の構築を目指すという。
AMD、Broadcom、Cisco、Google、Hewlett Packard Enterprise(HPE)、Intel、Meta、Microsoftは2024年5月30日(米国時間)、「Ultra Accelerator Link(UALink)」の構築に向けて提携すると発表した。
各社は共同で、データセンターにおけるAI(人工知能)アクセラレータ間の高速かつ低遅延な通信を可能にするオープンな接続規格の策定、確立を目指す。UALinkによる相互接続の実現により、OEMメーカー、IT専門家、システムインテグレーター(SIer)が、AIワークロードを稼働するデータセンターにおける統合性、柔軟性、スケーラビリティを高めることが可能になるという。
AIワークロードのスケールアップを推進
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 「Ultra Ethernet Consortium」設立 AMD、Cisco、Intel、HPE、Microsoftらは何を目指すのか
Linux Foundationは、クラウドサービスや半導体、システムプロバイダーなど各業界をリードする企業らが「Ultra Ethernet Consortium」を設立すると発表した。 - 第288回 人工知能時代には必須か? 最近、プロセッサに搭載されている「NPU」って何
最近、プロセッサに「NPU」と呼ばれる人工知能(AI)処理に特化したユニットが搭載されるのがちょっとしたブーム(?)になっている。このNPUって、GPUなどと何が違うのか、なぜプロセッサに搭載されるようになってきたのか解説しよう。 - Red HatがAI戦略の要「OpenShift AI」で新機能を投入 エッジ対応やリソース割り当てなど
OpenShift AIは、Red HatのAI戦略における中核的な基盤だ。同社は年次カンファレンスにおいて、エッジ対応やGPU利用の簡素化、リソース管理などの新機能を発表した。