インテル、機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」発表。Facebookが開発に協力

2019年1月10日


インテルは機械学習の推論に特化した新プロセッサ「Nervana Neural Network Processor for Inference」(以下、NNP-I)を、ラスベガスで開催中のCES 2019で発表しました

NNP-Iの開発にはFacebookが協力していることもあわせて発表されました。

Nervana Neural Network Processor for InferenceCES 2019で行われたNervana Neural Network Processor for Inferenceの発表

機械学習の処理には、大量のデータを用いて機械に学習を行わせてモデルを作る「学習」(もしくはトレーニング)処理と、学習済みのモデルを用いて「推論」を行う処理の2つがあります。

NNP-Iはこの推論の処理を省電力かつ高速に実行することに特化したプロセッサです。

一般に機械学習処理では、いちどトレーニングによってモデルを作成すると、あとはそのモデルを用いて何度も推論の処理(例えば画像認識など)を行うことになります。

そのため、処理量としては学習処理よりも推論処理の方が圧倒的に多くなりますので、これをXeonのような汎用プロセッサよりも低消費電力かつ高速に実行できるようにすることは、データセンター全体の効率を高め、ひいては運用コストを削減するうえで重要な要素になることは間違いありません。

なぜNNP-Iの開発にFacebookが協力しているのか?

データセンターにおける機械学習処理の増大が明らかな現在、すでにGoogleは機会学習処理専用プロセッサのTPUを投入済みです。そしてAmazon Web Servicesもついに昨年、2018年11月に行われたAWS re:Inventで機械学習の推論に特化した独自開発のプロセッサ「AWS Inferentia」を発表しました。

fig1

インテルがNNP-Iを発表したのは、こうした増大する機械学習処理のニーズに対応するためであることは明らかです。ただ、GoogleやAWSがインテルと決定的に違うのは、GoogleやAWSが自社で大規模なデータセンターと処理すべき大規模なデータを持っており、機械学習におけるニーズを自社で明確に把握しているというところです。

そこでインテルは、機械学習に特化したNNP-Iの開発にあたって大規模なデータセンターと処理すべきデータを持っているFacebookを開発パートナーに迎え入れたのでしょう。

インテルは以前からプロセッサの開発にあたってさまざまなパートナーとの協力を積極的に行ってきました。しかしGoogleやAWSといった機械学習の分野で先進的なポジションにあるクラウド事業者自身が、自分たちのニーズに応じたプロセッサを独自に作り始めた現在、インテルがそれらと競合していくためにはFacebookのような新しい開発パートナーとの関係がより重要になってくるはずです。

このエントリーをはてなブックマークに追加
follow us in feedly


≫次の記事
Ruby 2.6正式版リリース。JITコンバイラを初めて実験的に搭載

≪前の記事
国内サーバ市場2018年第3四半期、シェア1位は富士通、2位NEC、3位HPE。x86サーバは2桁成長、メインフレームは2桁マイナス。IDC Japan


カテゴリ



Blogger in Chief

photo of jniino Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。2009年にPublickeyを開始しました。
詳しいプロフィール

Publickeyの新着情報をチェックしませんか?
Twitterで : @Publickey
Facebookで : Publickeyのページ
RSSリーダーで : Feed



新着記事 10本


PR - Books


fig

fig

fig