研究論文は、「Seven neurons memorizing sequences of alphabetical images via spike-timing dependent plasticity」(スパイク時間依存シナプス可塑性により文字画像の列を記憶する7つの神経細胞)で、科学誌「Scientific Reports」に掲載された。
発表によると、これまで人工ニューラルネットワークは長年にわたり、パターン認識の手段として研究されてきた。その中で、深層学習の技術が台頭し、人工知能の研究が再び注目されてきているという。
この論文の元となる研究は、生物ニューラルネットワークで知られている「スパイク時間依存可塑性」(以下STDP)によって学習するプロセスを、コンピューターで再現、実証したもの。
実証に当たって、ニューラルネットワークのひとつ「ボルツマンマシン」を発展させた「動的ボルツマンマシン(DyBM)」を開発し、STDPの性質を有する自然な学習を可能にした。この研究によって、コンピューターがより生物に近い学習を行うことを実証しているという。
生物の神経細胞の学習則には、1960年代に提唱された、ある神経細胞が別の神経細胞を発火させる関係にあるとき、その神経細胞同士の結合が強まる法則であるヘブ則が知られている。
ヘブ則に対してはボルツマンマシンなどによる基礎理論が確立しており、この基礎付けがヘブ則に基づいて学習を進める現在の人工ニューラルネットワークの成功につながっているという。
これに対して、生物のニューラルネットワークでは、ヘブ則をより精緻にしたSTDPに基づいて学習が行われていることが1990年代頃から確認されてきた。STDPに対しては、人工ニューラルネットワークに応用するための基礎理論が確立しておらず、これまで工学的な応用につながっていなかった。
DyBMは、STDPを工学的な応用につなげるための、基礎理論を与える。DyBMは、ボルツマンマシンと同様に、神経細胞と神経細胞間をつなぐシナプスとから構成される。ボルツマンマシンとは異なり、DyBMは各神経細胞の発火の履歴に応じて決まる量を保持しており、これによってSTDPを特徴付ける長期増強や長期抑圧の現象を実現するという。
たとえば、7つの神経細胞からなるDyBMにアルファベットのイメージ「SCIENCE」を用いて学習させる場合、DyBMは何度も学習を続けるうちに連続するパターンを記憶し、異常となる箇所を検知する。この学習を複数回続けて行うと、DyBMはやがてこの「SCIENCE」を認識、再現するようになるという。
この研究成果は、国立研究開発法人科学技術振興機構の戦略的創造研究推進事業CRESTにおいて得られたものだ。
なお、この研究はコグニティブ・システムを実現する次世代の非ノイマン型コンピューター応用への重要な布石となることが期待されているとしている。