Tensorflowデコンボリューション(conv2d_transpose)デコンボリューションを実現するための主要な手書き+ Pythonコード(DeConv)



Tensorflow Deconvolution Principle Handwriting Python Code Achieve Deconvolution



この記事で実装された出力チャネル1コードの数についてのみ前回の記事では、より現実的なシナリオである複数の出力チャネルへのデコンボリューションを行います。

まず、入力カーネルと畳み込みカーネルを定義します。



input_data=[ [[1,0,1], [0,2,1], [1,1,0]], [[2,0,2], [0,1,0], [1,0,0]], [[1,1,1], [2,2,0], [1,1,1]], [[1,1,2], [1,0,1], [0,2,2]] ] weights_data=[ [[[ 1, 0, 1], [-1, 1, 0], [ 0,-1, 0]], [[-1, 0, 1], [ 0, 0, 1], [ 1, 1, 1]], [[ 0, 1, 1], [ 2, 0, 1], [ 1, 2, 1]], [[ 1, 1, 1], [ 0, 2, 1], [ 1, 0, 1]]], [[[ 1, 0, 2], [-2, 1, 1], [ 1,-1, 0]], [[-1, 0, 1], [-1, 2, 1], [ 1, 1, 1]], [[ 0, 0, 0], [ 2, 2, 1], [ 1,-1, 1]], [[ 2, 1, 1], [ 0,-1, 1], [ 1, 1, 1]]] ]

上で定義され、畳み込みカーネルを入力します。以下に示すように、引き継ぐ操作プロセスは次のとおりです。



実装プロセス

実際、デコンボリューションとコンボリューションは基本的に同じです。違いは、デコンボリューションプロセスを実行する必要があり、最後のステップをカットする必要があることです。具体的なコードは次のとおりです。

# Based on the input map ([h, w]) and the convolution kernel ([k, k]), calculating the convolution of the feature map import numpy as np def compute_conv(fm,kernel): [h,w]=fm.shape [k,_]=kernel.shape r=int(k/2) # Define the boundary map filled with 0 padding_fm=np.zeros([h+2,w+2],np.float32) # Save the results rs=np.zeros([h,w],np.float32) # Assigned at the input of the designated area, i.e., in addition to the four border, the rest of the region padding_fm[1:h+1,1:w+1]=fm # For each point in the center of the area traversed for i in range(1,h+1): for j in range(1,w+1): # Remove the current point in the center region of k * k roi=padding_fm[i-r:i+r+1,j-r:j+r+1] # Compute the convolution of the current point of k * k take a little bit after summing rs[i-1][j-1]=np.sum(roi*kernel) return rs Filling 0 # def fill_zeros(input): [c,h,w]=input.shape rs=np.zeros([c,h*2+1,w*2+1],np.float32) for i in range(c): for j in range(h): for k in range(w): rs[i,2*j+1,2*k+1]=input[i,j,k] return rs def my_deconv(input,weights): #weights shape=[out_c,in_c,h,w] [out_c,in_c,h,w]=weights.shape out_h=h*2 out_w=w*2 rs=[] for i in range(out_c): w=weights[i] tmp=np.zeros([out_h,out_w],np.float32) for j in range(in_c): conv=compute_conv(input[j],w[j]) # Note crop, and the last line of the last column removed tmp=tmp+conv[0:out_h,0:out_w] rs.append(tmp) return rs def main(): input=np.asarray(input_data,np.float32) input= fill_zeros(input) weights=np.asarray(weights_data,np.float32) deconv=my_deconv(input,weights) print(np.asarray(deconv)) if __name__=='__main__': main()

同じ記事を維持するための畳み込みコードの計算。コードは、説明ではなくコメントを直接参照します。結果は次のとおりです。



[[[ 4. 3. 6. 2. 7. 3.] [ 4. 3. 3. 2. 7. 5.] [ 8. 6. 8. 5. 11. 2.] [ 3. 2. 7. 2. 3. 3.] [ 5. 5. 11. 3. 9. 3.] [ 2. 1. 4. 5. 4. 4.]] [[ 4. 1. 7. 0. 7. 2.] [ 5. 6. 0. 1. 8. 5.] [ 8. 0. 8. -2. 14. 2.] [ 3. 3. 9. 8. 1. 0.] [ 3. 0. 13. 0. 11. 2.] [ 3. 5. 3. 1. 3. 0.]]]

コードの正確性が実装されていることを確認するために、conv2d_transpose関数のテンソルフローを使用して同じ入力と畳み込みカーネルを実行し、結果に一貫性があるかどうかを確認します。確認コードは次のとおりです。

import tensorflow as tf import numpy as np def tf_conv2d_transpose(input,weights): #input_shape=[n,height,width,channel] input_shape = input.get_shape().as_list() #weights shape=[height,width,out_c,in_c] weights_shape=weights.get_shape().as_list() output_shape=[input_shape[0], input_shape[1]*2 , input_shape[2]*2 , weights_shape[2]] print('output_shape:',output_shape) deconv=tf.nn.conv2d_transpose(input,weights,output_shape=output_shape, strides=[1, 2, 2, 1], padding='SAME') return deconv def main(): weights_np=np.asarray(weights_data,np.float32) # Input 180 ° rotation of each convolution kernel weights_np=np.rot90(weights_np,2,(2,3)) const_input = tf.constant(input_data , tf.float32) const_weights = tf.constant(weights_np , tf.float32 ) input = tf.Variable(const_input,name='input') #[c,h,w]------>[h,w,c] input=tf.transpose(input,perm=(1,2,0)) #[h,w,c]------>[n,h,w,c] input=tf.expand_dims(input,0) #weights shape=[out_c,in_c,h,w] weights = tf.Variable(const_weights,name='weights') #[out_c,in_c,h,w]------>[h,w,out_c,in_c] weights=tf.transpose(weights,perm=(2,3,0,1)) # Tensorflow execution of deconvolution deconv=tf_conv2d_transpose(input,weights) init=tf.global_variables_initializer() sess=tf.Session() sess.run(init) deconv_val = sess.run(deconv) hwc=deconv_val[0] print(hwc) if __name__=='__main__': main()

上記のコードには、注意すべき点がいくつかあります。

  1. 各コンボリューションカーネルを180°回転させてから、tf.nn.conv2d_transpose関数を渡す必要があります。これは、内部tf.nn.conv2d_transposeが180°回転したため、事前にローテーションし、次に内部ローテーション後に、コンボリューションを確実にするためです。畳み込みカーネルを使用したカーネルでは、同じデータ配置を使用します。
  2. 入力の形状[c、h、w]をテンソルフロー[n、h、w、c]に使用する必要があることを定義します。
  3. [out_c、in_c、h、w]の畳み込みカーネル形状を定義し、使用されるテンソルフローデコンボリューションを有効にする必要があります[h、w、out_c、in_c]

上記のコードを実行した後の実行結果は次のとおりです。

[[ 4. 3. 6. 2. 7. 3.] [ 4. 3. 3. 2. 7. 5.] [ 8. 6. 8. 5. 11. 2.] [ 3. 2. 7. 2. 3. 3.] [ 5. 5. 11. 3. 9. 3.] [ 2. 1. 4. 5. 4. 4.]] [[ 4. 1. 7. 0. 7. 2.] [ 5. 6. 0. 1. 8. 5.] [ 8. 0. 8. -2. 14. 2.] [ 3. 3. 9. 8. 1. 0.] [ 3. 0. 13. 0. 11. 2.] [ 3. 5. 3. 1. 3. 0.]]

比較結果を見ることができ、データは一貫しており、コードの手書きのPython実装に先行するデコンボリューションが正しいことを示しています。



OF:huachao1001
リンク:https://www.jianshu.com/p/f0674e48894c
出典:Simple Book
著者が予約したジェーンブックの著作権は、任意の形式で複製されています。許可を得て出典を示すには、著者に連絡してください。