如何使用pytorch的nn.Module构造简单全链接层-创新互联
这篇文章主要介绍了如何使用pytorch的nn.Module构造简单全链接层,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。
成都创新互联服务项目包括芗城网站建设、芗城网站制作、芗城网页制作以及芗城网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,芗城网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到芗城省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!python版本3.7,用的是虚拟环境安装的pytorch,这样随便折腾,不怕影响其他的python框架
1、先定义一个类Linear,继承nn.Module
import torch as t from torch import nn from torch.autograd import Variable as V class Linear(nn.Module): '''因为Variable自动求导,所以不需要实现backward()''' def __init__(self, in_features, out_features): super().__init__() self.w = nn.Parameter( t.randn( in_features, out_features ) ) #权重w 注意Parameter是一个特殊的Variable self.b = nn.Parameter( t.randn( out_features ) ) #偏值b def forward( self, x ): #参数 x 是一个Variable对象 x = x.mm( self.w ) return x + self.b.expand_as( x ) #让b的形状符合 输出的x的形状
2、验证一下
layer = Linear( 4,3 ) input = V ( t.randn( 2 ,4 ) )#包装一个Variable作为输入 out = layer( input ) out
#成功运行,结果如下:
tensor([[-2.1934, 2.5590, 4.0233], [ 1.1098, -3.8182, 0.1848]], grad_fn=
下面利用Linear构造一个多层网络
class Perceptron( nn.Module ): def __init__( self,in_features, hidden_features, out_features ): super().__init__() self.layer1 = Linear( in_features , hidden_features ) self.layer2 = Linear( hidden_features, out_features ) def forward ( self ,x ): x = self.layer1( x ) x = t.sigmoid( x ) #用sigmoid()激活函数 return self.layer2( x )
测试一下
perceptron = Perceptron ( 5,3 ,1 ) for name,param in perceptron.named_parameters(): print( name, param.size() )
输出如预期:
layer1.w torch.Size([5, 3]) layer1.b torch.Size([3]) layer2.w torch.Size([3, 1]) layer2.b torch.Size([1])
感谢你能够认真阅读完这篇文章,希望小编分享的“如何使用pytorch的nn.Module构造简单全链接层”这篇文章对大家有帮助,同时也希望大家多多支持创新互联成都网站设计公司,关注创新互联成都网站设计公司行业资讯频道,更多相关知识等着你来学习!
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、网站设计器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。
新闻标题:如何使用pytorch的nn.Module构造简单全链接层-创新互联
标题URL:http://ybzwz.com/article/ceeegj.html