ニューラルネットワークの計算量FLOP



Neural Network Calculation Amount Flops



FLOPS:1秒あたりの浮動小数点演算の略語。これは、1秒あたりの浮動小数点演算の数を意味し、計算速度として理解されます。ハードウェアパフォーマンスの尺度です。

FLOP:浮動小数点演算(複数形のテーブル)の略語。浮動小数点オペランドを意味し、計算量として理解されます。アルゴリズム/モデルの複雑さを測定するために使用できます。



スライディングウィンドウを使用して畳み込みを実現し、非線形計算オーバーヘッドを無視すると仮定すると、畳み込みカーネルのFLOPは次のよ​​うになります。

 textup {FLOPs} = 2HW(C_ {in} K ^ {2} + 1)C_ {out}



その中で、  textup {FLOPs} =(2I-1)O入力フィーチャマップ(つまり、入力画像)の高さ、幅、およびチャネル数。 コア幅は、 出力チャンネルの数です。完全に接続されたレイヤーネットワークフロップスは

その中で、 寸法を入力するには、 出力次元です。



参照:Molchanov P、Tyree S、Karras T、他リソース効率の高い推論のための畳み込みニューラルネットワークの剪定[J]。 2016年。