在上一节中,我们解释了最基本的RNN,LSTM以及在pytorch里面如何使用LSTM,而之前我们知道如何通过CNN做MNIST数据集的图片分类,所以这一节我们将使用LSTM做图片分类。
对于LSTM,我们要处理的数据是一个序列数据,对于图片而言,我们如何将其转换成序列数据呢?图片的大小是28×28,所以我们可以将其看成长度为28的序列,序列中的每个数据的维度是28,这样我们就可以将其变成一个序列数据了。
Code
model
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 | class Rnn(nn.Module): def __init__(self, in_dim, hidden_dim, n_layer, n_class): super(Rnn, self).__init__() self.n_layer = n_layer self.hidden_dim = hidden_dim self.lstm = nn.LSTM(in_dim, hidden_dim, n_layer, batch_first=True) self.classifier = nn.Linear(hidden_dim, n_class) def forward(self, x): # h0 = Variable(torch.zeros(self.n_layer, x.size(1), # self.hidden_dim)).cuda() # c0 = Variable(torch.zeros(self.n_layer, x.size(1), # self.hidden_dim)).cuda() out, _ = self.lstm(x) out = out[:, -1, :] out = self.classifier(out) return out model = Rnn(28, 128, 2, 10) # 图片大小是28x28 use_gpu = torch.cuda.is_available() # 判断是否有GPU加速 if use_gpu: model = model.cuda() # 定义loss和optimizer criterion = nn.CrossEntropyLoss() optimizer = optim.Adam(model.parameters(), lr=learning_rate) |
这里我们定义了一个LSTM模型,我们需要传入的参数是输入数据的维数28,LSTM输出的维数128,LSTM网络层数2层以及输出的类数10。
在网络定义里面首先需要定义LSTM,而长度为28的序列传入LSTM之后输出的也是长度为28,而输入的维数是28,输出的维数由我们定义为128,最后我们只取输出的最后一个部分传入分类器求出分类概率。
out = out[:, -1, :]通过这种方式,out中的三个维度分别表示batch_size,序列长度和数据维度,所以中间的序列长度取-1,表示取序列中的最后一个数据,这个数据维度为128,再通过分类器,输出10个结果表示每种结果的概率。
另外上面注释掉的部分就是初始的h_0和c_0,这里可以自己定义,如果不定义,默认传入0,也可以根据自己的要求传入自己定义的h_0和c_0。
Train
训练过程的batch_size设置为100,learning_rate设置为0.01,训练20次,最后得到的结果如下
可以发现对于简单的图像分类RNN也能得到一个较好的结果,虽然CNN更多的用在图像领域而RNN更多的用在自然语言处理中。RNN和CNN互相之间的比较以及各自的优缺点可以去网上查一查。
所以下一节我们将介绍一下RNN在自然语言中的应用。
本文代码已经上传到了github上。
文章来源:知乎专栏
本站微信群、QQ群(三群号 726282629):