pytorch快速搭建神经网络_Sequential操作
之前用Class类来搭建神经网络
class Neuro_net(torch.nn.Module):
"""神经网络"""
def __init__(self, n_feature, n_hidden_layer, n_output):
super(Neuro_net, self).__init__()
self.hidden_layer = torch.nn.Linear(n_feature, n_hidden_layer)
self.output_layer = torch.nn.Linear(n_hidden_layer, n_output)
def forward(self, input):
hidden_out = torch.relu(self.hidden_layer(input))
out = self.output_layer(hidden_out)
return out
net = Neuro_net(2, 10, 2)
print(net)
class类图结构:
使用torch.nn.Sequential() 快速搭建神经网络
net = torch.nn.Sequential(
torch.nn.Linear(2, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 2)
)
print(net)
Sequential图结构
总结:
我们可以发现,使用torch.nn.Sequential会自动加入激励函数, 但是 class类net 中, 激励函数实际上是在 forward() 功能中才被调用的
使用class类中的torch.nn.Module,我们可以根据自己的需求改变传播过程
如果你需要快速构建或者不需要过多的过程,直接使用torch.nn.Sequential吧
补充知识:【PyTorch神经网络】使用Moudle和Sequential搭建神经网络
Module:
init中定义每个神经层的神经元个数,和神经元层数;
forward是继承nn.Moudle中函数,来实现前向反馈(加上激励函数)
# -*- coding: utf-8 -*-
# @Time : 2019/11/5 10:43
# @Author : Chen
# @File : neural_network_impl.py
# @Software: PyCharm
import torch
import torch.nn.functional as F
#data
x = torch.unsqueeze(torch.linspace(-1, 1, 100), dim=1)
y = x.pow(2) + 0.2 * torch.rand(x.size())
#第一种搭建方法:Module
# 其中,init中定义每个神经层的神经元个数,和神经元层数;
# forward是继承nn.Moudle中函数,来实现前向反馈(加上激励函数)
class Net(torch.nn.Module):
def __init__(self):
#继承__init__函数
super(Net, self).__init__()
#定义每层的形式
#隐藏层线性输出feature->hidden
self.hidden = torch.nn.Linear(1, 10)
#输出层线性输出hidden->output
self.predict = torch.nn.Linear(10, 1)
#实现所有层的连接关系。正向传播输入值,神经网络分析输出值
def forward(self, x):
#x首先在隐藏层经过激励函数的计算
x = F.relu(self.hidden(x))
#到输出层给出预测值
x = self.predict(x)
return x
net = Net()
print(net)
print('\n\n')
#快速搭建:Sequential
#模板:net2 = torch.nn.Sequential()
net2 = torch.nn.Sequential(
torch.nn.Linear(1, 10),
torch.nn.ReLU(),
torch.nn.Linear(10, 1)
)
print(net2)
以上这篇pytorch快速搭建神经网络_Sequential操作就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
以上是 pytorch快速搭建神经网络_Sequential操作 的全部内容, 来源链接: utcz.com/z/344073.html