[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017

2017年5月18日

Googleは5月17日(日本時間5月18日未明)から開催中の年次イベント「Google I/O 2017」にて、機械学習に最適化した第二世代のTensorFlow Processing Unit(TPU)とそれを用いたクラウドサービス「Cloud TPU」を発表しました

われわれはいま、AIファーストデータセンターを作っている

Google CEO Sundar Pichai氏。

fig Google I/O 2017は屋外のイベントスペースで開催されている

われわれが検索事業を始めたとき、これをスケールさせるためにはそれまでの計算機のアーキテクチャを見直す必要があった。だからこそわれわれはそのためにデータセンターを最初から構築することになったのだ。

そしていま、機械学習やAIの進化はふたたび計算機のアーキテクチャの見直しを迫っており、そのためにわれわれはいま、AIファーストデータセンターの構築に取りかかっているのである。

昨年、機械学習のためのカスタムハードウェアであるTensorFlow Processing Unit(TPU)を開発したのはそのためだ。これはCPUやGPUよりも15倍から30倍高速で、30倍から80倍も電力効率が高い。

TPUはいまやサーチや音声認識など幅広いサービスで使われており、またAlphaGoでも使われていた。

トレーニングと推論の両方に最適化した次世代のTPU

機械学習はご存じの通り、「トレーニング」と「推論」の2つで構成されている。

fig

トレーニングは非常にコンピュータの能力を必要とするもので、例えば30億ワードの翻訳に100GPUを用いて1週間かかっている。一方の推論は、例えばこの写真に写っているのはネコであるというように、リアルタイムに実行されている。そのため、最初のTPUは推論の処理向けに開発された。

そしてここに、次世代のTPU、「Cloud TPU」を発表する。これはトレーニングと推論の両方に最適化されたものだ。

fig

これは1台のCloud TPUボードで、ここに4つのチップが搭載されており、このボード1つあたり180テラフロップスの能力を備えている。

そしてデータセンター内ではこれを64台まとめた「TPU Pods」を構成し、このポッドあたり 11.5 ペタフロップスの能力がある。

fig

そして今日から、Google Compute Engineでこれが利用可能になる。Google Cloudは機械学習にベストなクラウドだ。

fig

Google I/O 2017

このエントリーをはてなブックマークに追加
follow us in feedly

カテゴリ 機械学習 / AI / ビッグデータ
タグ  AI , Google , 機械学習


次の記事
[速報]Google、スマートフォン向けの機械学習ライブラリ「TensorFlow Lite」発表。DSPをアクセラレータとして利用。Google I/O 2017

前の記事
IBM PowerもNutanixのハイパーコンバージドインフラへ。IBMとNutanixが提携を発表

カテゴリ



Blogger in Chief

photo of jniino Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed



新着記事 10本


PR - Books


fig

fig

fig