OpenAIやマイクロソフト、メタ、シスコ、AMDらがイーサネットをAI向けに広帯域かつ低遅延にする「Ethernet for Scale-Up Networking 」(ESUN)プロジェクト開始

2025年11月5日

生成AIの急速な普及と成長によって、データセンターにおける生成AIの学習や推論処理を高速かつ効率化するために、より広帯域で低遅延な高密度ネットワークへの要求が高まっています。

こうした用途のために、Compute Express Link(CXL)やNVidiaのNVlinkなどいくつかのソリューションは市場に投入されているものの、これらは多くのベンダが求めるようなオープンで相互運入可能なニーズに最適化されているわけではないとして、Open Compute Project(OCP)が「Ethernet for Scale-Up Networking」(ESUN)プロジェクトの開始を発表しました

fig

OpenAI、MS、AMD、シスコなど主要ベンダが設立

OCPは、2011年にFacebookが中心となって設立したデータセンターのハードウェア設計をオープンソース化する団体です。

今回発表されたESUNプロジェクトは、このOCPの年次イベントとして10月にカリフォルニア州サンノゼで開催された「OCP Global Summit 2025」で発表されました。

設立メンバーにはAMD、Arista、ARM、Broadcom、Cisco、HPE Networking、Marvell、Meta、マイクロソフト、NVIDIA、OpenAI、Oracleが名前を連ねています。

AIのための高速かつ低遅延なイーサネットを実現

ESUNプロジェクトでは、AIのためのアクセラレータプロセッサ(XPU)で高性能なクラスタを構築するために、イーサネットをベースにより広帯域低遅延を実現するオープンスタンダードベースのソリューションを実現しようとしています。

Aristaのブログ「The Sun Rises on Scale-Up Ethernet」によると、ESUNプロジェクトではまず以下の技術についてアプローチすると説明されています。

L2/L3フレーミング
低遅延、高帯域幅を要求するワークロードのために、Alヘッダをイーサネット上でカプセル化します。

エラーリカバリ
パフォーマンスを損なうことなくビットエラーを検出し、修正します。

効率的なヘッダー
最適化されたヘッダによって回線効率を改善します。

ロスレストランスポート
既存の標準化された仕組みを活用し、一部のAl ワークロードに不可欠なネットワーク輻輳による性能低下を防ぎます。

fig

あわせて読みたい

ネットワーク ハードウェア 機械学習・AI




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本