Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018

2018年5月9日

Googleは、サンフランシスコで開催中のイベント「Google I/O 2018」で、機械学習処理専用のプロセッサ「Tensor Processing Unit」(TPU)の第三世代となる「TPU 3.0」を発表しました。

TPU 3.0

機械学習には、学習を行うトレーニングの処理と、学習した内容を基に行う推論の処理の2つがあります。特にトレーニングの処理は非常に大きなコンピュータの処理能力を必要とします。

TPUはこのどちらも高速に実行するため最適化されたプロセッサです。

Googleは昨年のGoogle I/O 2017で、第二世代のTPUとそれを用いたクラウドサービスの「Cloud TPU」を発表していました。

TPU 3.0は、この1年前に発表されたTPU 2.0の8倍の能力を持つとのこと。Googleとしては初の液冷システムをデータセンターに採用しなければならなかったと、Google CEOのSundar Pichai氏。

TPU 3.0の投入により、より優れたモデルや大きなモデル、正確なモデルなどを処理できるようになり、これまでよりも困難な課題に対して機械学習を適用できるようになったとしています。

マイクロソフトはFPGA、Googleは専用プロセッサを選んだ

Googleがこのように機械学習処理に専用プロセッサを投入する一方、マイクロソフトが昨日発表したリアルタイムAI処理を高速に実行するための基盤「Project Brainwave」では、プロセッサとしてインテルのFPGAを採用したことが明らかになっています。

一般に、専用プロセッサの方が高い性能が期待できますが、専用プロセッサであるがゆえに処理の柔軟性には欠けるところがある一方、FPGAは専用プロセッサよりも性能が劣る一方で、チップ内部のロジックを書き換える能力によって高い柔軟性が期待できます。

つまり、Googleは柔軟性を捨てても性能をとり、マイクロソフトは一定の性能を確保しつつも柔軟性も持とうとしていることになります。

これは自社のクラウドを基盤に、デベロッパーからコンシューマまで幅広い層に対して高度かつ多様なAIや機械学習のサービスを提供しようとしているGoogleと、おもにデベロッパーを相手に機械学習アプリケーション開発と実行のプラットフォームを提供し、エンドユーザー向けのアプリケーションはデベロッパーに開発してもらおうとしているマイクロソフト、という両者のアプローチの違いが機械学習の基盤に表れているのかもしれません。

Google I/O 2018

あわせて読みたい

機械学習・AI Google




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本