PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載

2024年3月7日

Modular社がAI処理を高速化するプラットフォーム「MAX」をプレビュー公開。PyTorchやTensorFlow、ONNXなどのAIモデルと入れ替えるだけで処理が最大5倍高速になる。


Pythonの高速なスーパーセット「Mojo」言語を発表したことで話題となったModular社が、AI処理を高速化するプラットフォーム「MAX」(Modular Accelerated Xecution)のデベロッパーエディションをブレビュー公開しました

MAXは、AIの推論処理を高速に実行する「MAX Engine」、推論処理にアクセスするためのAPIなどのサービングシステムを提供する「MAX Serving」、そして高速な処理を実現するPython互換のプログラミング言語「Mojo」から構成されています。

MAXのアーキテクチャ

MAXは2023年12月のイベント「ModCon '23」で発表され、今回デベロッパーエディションが公開されました。

ModCon '23で発表されたMAXModCon '23で発表されたMAX

今回の注目点はMAX Engineが公開されたことでしょう。

MAX Engineは、推論処理を高速化するコンパイラおよびランタイムです。PyTorch、TensorFlow、ONNX形式のAIモデルであるMistral、Stable Diffusion、Llama2、WevLM、MLMR、ClipVitなどをサポートしており、これらの推論処理をMAX Engineに置き換えることで最大5倍高速なAI処理を実現します。

Modular社はベンチマーク結果も公開しており、Mistral-7Bは3.3倍Stable Diffusionは1.7倍Llamaでは2.3倍、MAX Engineの方が高速だとしています。

MAXのためのMAX SDK Developer Editionは現時点でUbuntu Linux版のみで、今後macOS版、Windows版のリリースも予定されています。

ただしMojo言語はすでにLinux版、macOS版が公開されています。

また今後は本番環境で利用可能なEnterprise Editionの提供、GPUへの対応なども進めていくとしています

関連記事

あわせて読みたい

プログラミング言語 機械学習・AI Pyton




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本