東芝と理研は、性能低下を抑えて演算量を調整可能なスケーラブルAI技術を開発した。独自の深層学習技術より、学習済みのAIがその性能を維持しながら様々な処理能力のプロセッサで動作可能になり、利用用途の異なる多様なシステムに向けたAIの開発の効率化が期待できるという。
この技術は、元となるフルサイズの深層ニューラルネットワーク(フルサイズDNN)において、各層の重みを表す行列を、なるべく誤差が出ないように近似した小さな行列に分解して演算量を削減したコンパクトDNNを用いる。コンパクトDNNを作る際、従来技術は、単純にすべての層で行列の一部を一律に削除して演算量を削減するが、この技術は、重要な情報が多い層の行列をできるだけ残しながら演算量を削減することで、近似による誤差を低減することが特徴となる。
学習中は、様々な演算量の大きさにしたコンパクトDNNとフルサイズDNNからのそれぞれの出力値と、正解との差が小さくなるようにフルサイズDNNの重みを更新。これにより、あらゆる演算量の大きさでバランスよく学習する効果が期待できる。学習後は、フルサイズDNNを各適用先で求められる演算量の大きさに近似して展開することが可能となる。また、学習を通して演算量と性能の対応関係が可視化され、適用先に必要な演算性能を見積もることが可能になり、適用先システムのプロセッサ等の選択が容易になる。
東芝と理研は今後、この技術をハードウェアアーキテクチャに対して最適化することで、様々な組み込み機器やエッジデバイスへの適用を進め、実タスクでの有効性の検証を通して、2023年までの実用化を目指すとしている。