なにごとも 継続

博士課程での研究や思ったこと、作業記録、などなど自由に書いていくつもりです

CVPR2020

CVPR 2020で、SNN(spiking neural networks)関連の論文が2本採択されていました。
去年までは1本も無かったと思うので、とうとう来たなという印象を受けますね。

次の2本です。 1. B.Han+, "RMP-SNN: Residual Membrane Potential Neuron for Enabling DeeperHigh-Accuracy and Low-Latency Spiking Neural Network"

    1. Zhu+, "Retina-like Visual Image Reconstruction via Spiking Neural Model"

ところでCVPRの論文って、直リンクを張っていいものなんでしょうか。
皆さんarxivのリンクを張るのが習慣化しているようなので、それに従いますが…

だれかご存じの方いたら教えてください。

arxivにない論文は、リンクをどう貼るんでしょう。
紹介が難しいですよね。

今回は1について概要を書きます。
いずれ図を含め、改めてまとめます。

1は、畳み込みニューラルネットワーク(CNN)のような深い構造でスパイクを扱えるように工夫をした論文です。
CNNとSNNで、最も異なるのは、入力信号の時間の扱い方です。
CNNでは入力は時間について固着されています。一つの入力について、時間は離散化されているのです。 例えば動画を扱う場合でも、ネットワークではフレーム単位で時間は離散化されています。

一方でSNNは、ある期間の連続時間のデータを扱います。
ネットワークでスパイクを扱うための手法はいくつかありますが、
この論文では「ANN-to-SNN conversion」と呼ばれる手法でスパイクデータの推論を行います。 ANNは artificial neural networksです。

重要な点は次の3つです。 イ)ANN-to-SNNは、訓練済みANNの一部を変換してスパイクを扱えるようにする手法 ロ)以前の研究を、本質的に改良した ハ)複数の構造・データセットで、類似研究よりも良いスコアを出した

個人的にすごいと思ったのは、通常のCNNを使えることと、データセットにImageNetを使っていることです。 かなり複雑な画像データについても、SNNで扱えるようになりました。

この研究では、通常の学習を行ったネットワークについて、活性化関数でスパイクを扱えるようにする工夫を導入します。 代表的なものは、Sengupta (2019)が提案したReLU-IFニューロンです。 これはスパイク列の入出力関係が非線形になる領域があることが問題でした。
1ではこれを拡張して、入出力の線形性を保つようにしています。

さらに詳しくはまた今度。