[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017

2017年5月18日

Googleは5月17日(日本時間5月18日未明)から開催中の年次イベント「Google I/O 2017」にて、機械学習に最適化した第二世代のTensorFlow Processing Unit(TPU)とそれを用いたクラウドサービス「Cloud TPU」を発表しました

われわれはいま、AIファーストデータセンターを作っている

Google CEO Sundar Pichai氏。

fig Google I/O 2017は屋外のイベントスペースで開催されている

われわれが検索事業を始めたとき、これをスケールさせるためにはそれまでの計算機のアーキテクチャを見直す必要があった。だからこそわれわれはそのためにデータセンターを最初から構築することになったのだ。

そしていま、機械学習やAIの進化はふたたび計算機のアーキテクチャの見直しを迫っており、そのためにわれわれはいま、AIファーストデータセンターの構築に取りかかっているのである。

昨年、機械学習のためのカスタムハードウェアであるTensorFlow Processing Unit(TPU)を開発したのはそのためだ。これはCPUやGPUよりも15倍から30倍高速で、30倍から80倍も電力効率が高い。

TPUはいまやサーチや音声認識など幅広いサービスで使われており、またAlphaGoでも使われていた。

トレーニングと推論の両方に最適化した次世代のTPU

機械学習はご存じの通り、「トレーニング」と「推論」の2つで構成されている。

fig

トレーニングは非常にコンピュータの能力を必要とするもので、例えば30億ワードの翻訳に100GPUを用いて1週間かかっている。一方の推論は、例えばこの写真に写っているのはネコであるというように、リアルタイムに実行されている。そのため、最初のTPUは推論の処理向けに開発された。

そしてここに、次世代のTPU、「Cloud TPU」を発表する。これはトレーニングと推論の両方に最適化されたものだ。

fig

これは1台のCloud TPUボードで、ここに4つのチップが搭載されており、このボード1つあたり180テラフロップスの能力を備えている。

そしてデータセンター内ではこれを64台まとめた「TPU Pods」を構成し、このポッドあたり 11.5 ペタフロップスの能力がある。

fig

そして今日から、Google Compute Engineでこれが利用可能になる。Google Cloudは機械学習にベストなクラウドだ。

fig

(追記) 2018年2月13日、GoogleはCloud TPUのベータ公開を発表しました。

Google I/O 2017

あわせて読みたい

機械学習・AI Google TensorFlow




タグクラウド

クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害

コンテナ型仮想化

プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質

アジャイル開発 / スクラム / DevOps

データベース / 機械学習・AI
RDB / NoSQL

ネットワーク / セキュリティ
HTTP / QUIC

OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア

ITエンジニアの給与・年収 / 働き方

殿堂入り / おもしろ / 編集後記

全てのタグを見る

Blogger in Chief

photo of jniino

Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed

最新記事10本