ニュース - IBM東京基礎研、より生物の神経回路に近い人工ニューラルネット「DyBM」を提案:ITpro

http://itpro.nikkeibp.co.jp/atcl/news/15/091703009/

 IBM東京基礎研究所は、従来よりも生物の神経回路に近い学習則を備えた人工ニューラルネットワーク「動的ボルツマンマシン(DyBM)」を考案し、英ネイチャー系列のオンライン科学誌「Scientific Reports」で公表した。時系列に並んだデータのパターンを学習、再現できる特長があり、音楽や映像、言語といった時系列データを認識する人工知能に応用できる可能性がある。

 従来の人工ニューラルネットワークは、生物の神経回路が学習を行う際の基本法則として1960年代に提唱された「ヘブ(Hebb)則」をモデル化したものだ。ヘブ則は、単純にいえば「ある神経細胞ニューロン)が別の神経細胞を発火させると、両者を接合するシナプスが増強される」というもの。こうしたシナプスの変化(可塑性)が、脳の基本的な学習メカニズムとされる。
 このヘブ則をモデル化した人工ニューラルネットワークは「ボルツマンマシン」と呼ばれる。なかでも、ネットワークを層状に重ねた「制限付きボルツマンマシン」は、昨今の人工知能ブームのきっかけになったディープラーニングにも応用されている。
 ただし、人工ニューラルネットワークが採用したヘブ則では、信号(スパイク)を時系列に並べ、連続して入力した場合の学習法則は扱っていない。結果として、従来の人工ニューラルネットワークは、動画など時系列データの認識は苦手としていた。
 実際の生物の神経回路は、ヘブ則に時間の要素を取り入れ、より精緻化した学習則「スパイク時間依存可塑性(STDP)」に従うことが、1990年代頃から確認されている。IBM東京基礎研究所の研究員である恐神貴行氏と大塚誠氏は今回、このSTDPをモデル化した人工ニューラルネットワーク「動的ボルツマンマシン(DyBM)」を提案した。
動的ボルツマンマシンは、ニューロン同士を接続するシナプス自身がFIFO(Fast-in Fast-out)方式のメモリーを備える構成のニューラルネットワークである。あるニューロンからの入力データが、メモリーを介して遅延しながら別のニューロンに伝わる。