NVIDIAのGPUがFacebookの新型ディープラーニング・マシンに採用

ディープ・ニューラル・ネットワーク「Big Sur」の中核に

 NVIDIA(米カリフォルニア州)は、12月10日(現地時間)、Facebookがさまざまな機械学習アプリケーションを動かすため、次世代のコンピューティング・システムにNVIDIA Teslaアクセラレーテッド・コンピューティング・プラットフォームが採用されたと発表した。

[公開日]

[著] BizZine編集部

  • このエントリーをはてなブックマークに追加

 機械学習を実現する複雑なディープ・ニューラル・ネットワークのトレーニングは、最速クラスのコンピュータを使っても数日から数週間もかかることがあるが、Teslaプラットフォームにより、この期間を10分の1から20分の1に短縮できるという。

 「NVIDIA Tesla M40 GPUアクセラレータ」は、11月に発表されたばかりで、ディープ・ニューラル・ネットワークのトレーニングに採用されるのは、今回のFacebookが初となる。「Tesla M40 GPU」は、FAIR(Facebook AI Research)がニューラル・ネットワークのトレーニング用として特別に設計した新システム、「Big Sur」コンピューティング・プラットフォームで中核的な役割が期待されているとしている。

 GPUは、ニューラル・ネットワークのトレーニング期間を短縮する以外にも、さまざまなメリットがある。まず、世代が進んでもアーキテクチャに互換性が保たれるため、将来的にGPUをアップグレードする際、スピードアップがシームレスに実現できる。

 また、Teslaプラットフォームが世界的に普及しつつあることから、世界中の研究者によるオープンなコラボレーションを進めやすく、機械学習分野における新たな発見やイノベーションが次々と生まれてくる可能性が高くなるという。

 Big Surは、NVIDIAとFacebookのエンジニアが協力して設計を進め、巨大なニューラル・ネットワークを複数のTesla GPUでトレーニングするなど、機械学習の作業負荷で最高のパフォーマンスが発揮できるように最適化した。

 その結果、Big Surの処理速度は、Facebookがすでに持つシステムの2倍に達しており、トレーニングするニューラル・ネットワークの数を倍に増やす――また、作成するニューラル・ネットワークのサイズを倍に増やす――ことが可能で、精度の高いモデルやいままでにない高度なアプリケーションが開発できるという。