初級ディープラーニング
記事内に商品プロモーションを含む場合があります

畳み込み層(CNN, Conv1D)の動きをわかりやすく解説 【初級 深層学習講座】

tadanori

この記事では、画像認識で使われている畳み込みネットワークの、畳み込み層について解説します。

図とかで見てもピンとこない方もいるかもしれませんので、ここでは、実際にPytorchで動かしてみて、その出力を確認してみます。

畳み込み層(Convolution Layer)とは

簡単に言えば、畳み込み層は画像処理のフィルタです。

これまでの画像処理では、$3\times 3$, $5\times 5$, $7\times 7$といったフィルタを用意し、画像に対してフィルタ処理を行うことでエッジ抽出などの処理を行うのが一般的でした。

例えば、ラプラシアンフィルタと呼ばれるフィルタは以下のような係数を持っています。

ラプラフィアンフィルタ

中央から周辺8近傍の値を引くこの計算は、以下のように考えることができます(中央を$v_c$, 周辺を$v_1$~$v_8$とした場合です。

$$
result = \sum_{i=1}^{8}{(v_i – v_c)}
$$

これまでの画像処理では、このフィルタを抽出したい特徴に併せて設計し、例えば輪郭などの特徴を抽出していました。

畳み込み層は、このフィルタの係数を学習によって自動で決めてしまおうというものです。

畳み込みネットワークでは、1チャネルに1つのフィルタが対応します。

複数のチャネルを持つことで複数のフィルタを一気にかけることができます。

元々画像処理が専門ですが、特徴を抽出するフィルタを32個(チャネル)とか128個(チャネル)手動で設計するのは困難です。学習によりフィルタを設計することで、様々な特徴を抽出するフィルタが設計できることがCNNの強みだと感じます。

まとめ

畳み込み層は、エッジ抽出のような画像のフィルタを行うもの

畳み込み層の動きを確認する

畳み込み層の動きを確認する手順

動きを確認するために、Pytorchを使って実際に出力を確認したいと思います。画像処理では、2次元の畳み込み(Conv2d)が使われますが、ここでは、1次元の畳み込み(Conv1d)を使って実験します。

どちらも動きとしては同じであることと、手計算をやる場合に1次元の方が簡単だからです。

以下、Conv1dをつかって畳み込み層を見ていくことにします。

Conv1dのオブジェクトを生成する

PytorchのConv1dのリファレンスを見ると、以下のようなインタフェースになっています。

torch.nn.Conv1d(in_channelsout_channelskernel_sizestride=1padding=0dilation=1groups=1bias=Truepadding_mode=’zeros’device=Nonedtype=None)

ここで使うパラメータは以下の3つです。

  • in_channels 入力チャネル数
  • out_channels 出力チャネル数
  • kernel_size カーネルサイズ

kernel_sizeは、フィルタのサイズです。

実際に、入力チャネル1、出力チャネル2、カーネルサイズ3で、Conv1dのオブジェクトを生成してみます。

import torch
from torch import nn

conv1d = nn.Conv1d(1,2,3)

Conv1dのオブジェクトには、フィルタの係数(重み)とオフセット(バイアス)が格納されています。以下のコードで、重みとバイアスが確認できます。

print("weights", '-'*20)
print(conv1d.weight.shape)
print(conv1d.weight)

print("bias", '-'*20)
print(conv1d.bias.shape)
print(conv1d.bias)

出力は以下のようになります

weights --------------------
torch.Size([2, 1, 3])
Parameter containing:
tensor([[[ 0.2690, -0.3829,  0.5537]],
             [[ 0.3526, -0.1392,  0.3159]]], requires_grad=True)
bias --------------------
torch.Size([2])
Parameter containing:
tensor([-0.0382, -0.4261], requires_grad=True)

出力チャンネルを2にしたので、重みは2×3、バイアスは2個あることが確認できます。

このままだと面倒なので、重みを[1.0, 1.0, 1.0], [-1.0, 2.0, 1.0]、バイアスを[0.0, 0.0]に変更します。パラメータの変更は以下のコードで行うことができます。

conv1d.weight = nn.Parameter(torch.tensor([[[1.,1.,1.]],[[-1.,2.,-1.]]]))
conv1d.bias = nn.Parameter(torch.tensor([0., 0.])) 

# 変更されているか確認
print("weights", '-'*20)
print(conv1d.weight.shape)
print(conv1d.weight)

print("bias", '-'*20)
print(conv1d.bias.shape)
print(conv1d.bias)
weights --------------------
torch.Size([2, 1, 3])
Parameter containing:
tensor([[[ 1.,  1.,  1.]],
             [[-1.,  2., -1.]]], requires_grad=True)
bias --------------------
torch.Size([1, 2])
Parameter containing:
tensor([0., 0.], requires_grad=True)

バイアスが0なので、重みをフィルタとして考えた場合、以下のようなフィルタを2つ用意したことになります。

重みをフィルタとして捉えた場合のイメージ図

入力データを用意する

入力データを用意します。入力データの以下のような3次元データです。

(バッチサイズ、入力チャネル数、入力データ)

pytorchでは複数のデータを一度に渡せるように、バッチサイズが1次元目にくることに注意します。

今回は、バッチサイズは1、入力チャネル数は1、入力データ長は10でデータを作ってみます。

x = torch.tensor([[[float(i) for i in range (1, 11)]]])
print(x.shape)
print(x)

作成したデータは、[1,2,3,4,5,6,7,8,9,10]というデータになります。

torch.Size([1, 1, 10])
tensor([[[ 1.,  2.,  3.,  4.,  5.,  6.,  7.,  8.,  9., 10.]]])
入力データ

Conv1dで畳み込みを行ってみる

入力データができたので、Conv1dで畳み込みを行ってみます。

y = conv1d(x)
print(y)
tensor([[[ 6.,  9., 12., 15., 18., 21., 24., 27.],
         [ 0.,  0.,  0.,  0.,  0.,  0.,  0.,  0.]]],
       grad_fn=<ConvolutionBackward0>)

結果を見ていきます。重みを$w_0, w_1, w_2$、バイアスを$b$とすると、データに対する計算は以下になります。

$$
y[i] = w_0 \times x[i-1] + w_1 \times x[i] + w_2 \times x[i+1] + b
$$

また、入力は10個ですが、フィルタの長さが3なので、結果は8個となります。

conv1d計算図

上の式に当てはめると、1つ目のフィルタはw=(1,1,1)b=0となります。ですから、隣接する3つの値を加算した値がフィルタ結果となります(下図)。

実際に、[6., 9., 12., 15., 18., 21., 24., 27.]となっているのがわかります。

フィルタ1の処理結果

また、2つ目のフィルタはw=(-1,2,-1)で、b=0なので、計算すると全て0となり、こちらも出力結果と一致します。

まとめ

畳み込み層は、画像処理を行うネットワークでは基本となる層です。

この記事では、1次元の畳み込みについて実際に動かして動作を確認してみました。このように、わからない場合は、実際に動かして1つ1つのパーツの動きを確認してみると理解が進むかと思います。

初級 深層学習講座シリーズはこちら
おすすめ書籍

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

記事URLをコピーしました