機械学習を実現する複雑なディープ・ニューラル・ネットワークのトレーニングは、最速クラスのコンピュータを使っても数日から数週間もかかることがあるが、Teslaプラットフォームにより、この期間を10分の1から20分の1に短縮できるという。
「NVIDIA Tesla M40 GPUアクセラレータ」は、11月に発表されたばかりで、ディープ・ニューラル・ネットワークのトレーニングに採用されるのは、今回のFacebookが初となる。「Tesla M40 GPU」は、FAIR(Facebook AI Research)がニューラル・ネットワークのトレーニング用として特別に設計した新システム、「Big Sur」コンピューティング・プラットフォームで中核的な役割が期待されているとしている。
GPUは、ニューラル・ネットワークのトレーニング期間を短縮する以外にも、さまざまなメリットがある。まず、世代が進んでもアーキテクチャに互換性が保たれるため、将来的にGPUをアップグレードする際、スピードアップがシームレスに実現できる。
また、Teslaプラットフォームが世界的に普及しつつあることから、世界中の研究者によるオープンなコラボレーションを進めやすく、機械学習分野における新たな発見やイノベーションが次々と生まれてくる可能性が高くなるという。
Big Surは、NVIDIAとFacebookのエンジニアが協力して設計を進め、巨大なニューラル・ネットワークを複数のTesla GPUでトレーニングするなど、機械学習の作業負荷で最高のパフォーマンスが発揮できるように最適化した。
その結果、Big Surの処理速度は、Facebookがすでに持つシステムの2倍に達しており、トレーニングするニューラル・ネットワークの数を倍に増やす――また、作成するニューラル・ネットワークのサイズを倍に増やす――ことが可能で、精度の高いモデルやいままでにない高度なアプリケーションが開発できるという。