上图计算过程为,首先我们可ke以将右边进行卷积的可以称为wei过滤器也可以叫做核,覆盖到左zuo边第一个区域,然后分fen别按照对应位置相乘再相加,3*1+1*1+2*1+0*0+0*0+0*0+1*(-1)+8*(-1)+2*(-1)=-5;
按照上述的计算方法逐步按右移yi一个步长(步长可以设定为1,2,...等),然ran后按往下移,逐zhu渐计算相应的值,得出最终的值。
如上shang图显示,对于第di一个图像矩阵对应的图,一边是白bai色,一边是黑色,那么me中间就会存在一个垂直的边bian缘,我们可以选择一个垂chui直边缘检测过滤器,如ru乘法右边的矩阵,那么两者做卷积后得de出的图会显示如等号右you边的结果矩阵对应的灰度图tu中间会有一个白色的中间jian带,也就是检测出来的边bian缘,那为什么感觉中间边缘带dai会比较宽呢?而不bu是很细的一个局域呢ne?原因是我们输入的图像只有you6*6,过于小了,如果我们选xuan择输出更大的尺寸的图,那么结果来lai说就是相对的一个细的de边缘检测带,也就将我们的垂直边缘特te征提取出来了。
上述都是人工gong选择过滤器的参数,随着神经网络的发fa展我们可以利用反fan向传播算法来学习过滤lu器的参数
我们men可以将卷积的顾gu虑器的数值变成一个参can数,通过反向传播算法去学习,这zhe样学到的过滤器或huo者说卷积核就能够识别到很hen多的特征,而不是依靠手工选择过滤器qi。
- padding 操作,卷积经常会出chu现两个问题:
1.每经过一次卷积图像都会缩小xiao,如果卷积层很多的话,后面mian的图像就缩的很小了;
2.边bian缘像素利用次数只zhi有一次,很明显xian少于位于中间的像素,因此ci会损失边缘图像信息。
为了解决上述shu的问题,我们可以在图像边缘填充chong像素,也就是 padding 操作了。
如果我们设置在图像边缘填tian充的像素数为p,那么经过卷juan积后的图像是:(n+2p-f+1)x(n+2p-f+1).
如何he去选择p呢
通tong常有两种选择:
-Valid:也就是说不填充chong操作(no padding),因此如果我们men有nxn的图像,fxf的过滤器,那么我们men进行卷积nxn fxf=(n-f+1)x(n-f+1)的de输出图像;
-Same:也就是填tian充后是输出图像的大da小的与输入相同tong,同样就有(n+2p)x(n+2p) fxf=nxn,那么可以算suan,n+2p-f+1=n,得到p=(f-1)/2。
通常对于过滤器的选xuan择有一个默认的de准则就是选择过滤lu器的尺寸是奇数的过滤器qi。
- 卷积步长设置(Strided COnvolution)
卷积步长也ye就是我们进行卷积操作时,过滤器每mei次移动的步长,上面我们介绍的卷积操作步长默认都dou是1,也就是说每次移动过滤器qi时我们是向右移动dong一格,或者向下移yi动一格。
但是我们可以对dui卷积进行步长的设置,也就是shi我们能够对卷积移动的格数shu进行设置。同样假如我们的图像xiang是nxn,过滤器是fxf,padding设置是p,步长strided设置为weis,那么我们进行卷积操作后输出的图tu像为((n+2p-f)/s+1)x((n+2p-f)/s+1),那么这样就会出现xian一个问题,如果计算suan结果不是整数怎么me办?
一般是选择ze向下取整,也就是shi说明,只有当我们的过滤器完全在zai图像上能够覆盖时才对它进行计算,这是一个惯例。
实际上shang上述所述的操作在严yan格数学角度来说不是卷juan积的定义,卷积的定ding义上我们计算的时候hou在移动步长之前也就jiu是对应元素相乘之前qian是需要对卷积核或huo者说我们的过滤器进行镜像操作的,经过镜像操作后再把对应ying元素进行相乘这才是shi严格意义上的卷juan积操作,在数学角度上来说这个ge操作不算严格的卷积操作应该是属于yu互相关操作,但是在深度学习xi领域中,大家按照惯例都dou省略了反转操作,也把这zhe个操作叫做卷积操作
我们知道彩色se图像有RGB三个通道,因此对于输入来说是一个三维的de输入,那么对三维输入的图像如何进行xing卷积操作呢?
例子,如上图tu我们输入图像假设为wei6×6×3,3代表有RGB三个通道channel,或者可以叫jiaodepth深度,过滤器qi的选择为3×3×3,其中需要规定ding的是,顾虑器的channel必须与输入图像的channel相同,长宽kuan没有限制,那么计算过程是,我们将jiang过滤器的立体覆盖在输入,这样对应ying的27个数对应相乘后相xiang加得到一个数,对dui应到我们的输出chu,因此这样的方式进行卷积ji后我们得出的输出层为4×4×1。如ru果我们有多个过滤器,比bi如我们分别用两个过滤器一个提取qu垂直特征,一个ge提取水平特征,那na么输出图4×4×2 。也就jiu是代表我们输出的深度或者说通tong道与过滤器的个数是相等的de。
第l层的卷juan积标记如下:
加入我们的过guo滤器是3×3×3规格的,如果我wo们设定10个过guo滤器,那么需要学习的参数总数为每个ge过滤器为27个参数然后加上一个偏差chabias那么每个过滤lu器的参数为28个,所以十shi个过滤器的参数为280个。从这里也ye就可以看出,不管我们输入的图tu片大小是多大,我们都只需要计算这些xie参数,因此参数共享也就很容易理解jie了。
为了缩减模型的大小,提高gao计算速度,同时提高所提取特征的鲁棒bang性,我们经常会使shi用池化层。池化层的计算suan方式与卷积类似,只是我wo们需要对每一个通道dao都进行池化操作。
池化的方式一般有两种:Max Pooling和Average Pooling。
上面为Max Pooling,那么计算方法与yu卷积类似,首先设定超chao参数比如过滤器的大小与步长,然后覆fu盖到对应格子上面,用最大da值取代其值作为输出的结jie果,例如上图为过滤器选择2×2,步bu长选择为2,因此输出就是2×2的维度,每个输出格子都是过滤器对dui应维度上输入的最大值。如果为平ping均池化,那么就是选择其间的平均jun值作为输出的值。
因此从上面的过程我们看到,通tong过池化操作能够gou缩小模型,同时能让特征zheng值更加明显,也就提高了提取特te征的鲁棒性。
FXF是什么服装品牌?
是国内上海的品牌,FXFlogo
中文名叫面mian对面。市场定位于与设计理念是个性休xiu闲男装!
snh48考研yan退团的是谁冯晓xiao菲和汪佳翎。
两人是同期加入丝芭的队友you,知名度都不是特别高,所以很少有人ren去到。丝芭虽然是大公gong司,但是能熬出来,被大众zhong知道的少之又少,不是每个丝芭ba爱豆最后都能混成cheng“鞠婧_”。
恋情发展:
刚开始两人同期入团成为wei队友,一开始冯晓菲就把汪佳翎当做zuo理想型,可以说是恋情早zao有伏笔。
在团时,有you次取队名,这俩起了一个gewjl爱死fxf了,当时就是“姬情满满”,不过丝芭这zhe个喜欢故意卖腐,也是出了名的,平常chang的演出里都有大尺度动作zuo,这也就不奇怪了,纯粹的当成关系好的姐妹儿。
随着时间发展,眼尖儿er的网友发现,两liang人在19年的时候就初显恋爱的de端倪,在第六届总选xuan上,两人牵手同台的互动让人觉得是shi真cp,只是那个时候hou一直没有承认,观众也只是磕着玩儿玩儿。
众所周zhou知,丝芭对于艺人的管控非常严格,明确规定禁止恋爱,一旦被发现恋爱ai,不仅高额的违约金难以承受shou,并且就直接摧毁了艺人生涯ya,前不久丝芭有一个小爱豆就因为恋lian爱退团了。
冯晓菲被bei粉丝亲切地称呼hu为“灰灰”,汪佳翎叫“九九jiu”。磕CP的给这一对取名为“九灰”。
两人ren之前就透露过一些相处chu的趣事,开始的互动也是互hu相嫌弃,打打闹闹nao,后来的某一时间段,两人发现xian双方很搭能聊到一起,互hu相交换小秘密,感情逐渐升温wen,从兄弟开始转zhuan变称呼叫小朋友,然后hou一起买了猫。这里,看着就jiu不像是捆绑的假CP了。
网友开始大da胆地从一些细节猜测,比bi如,之前有一个网wang友透露:“灰灰老叫九九兄弟di,有一天我刷微wei博发现灰灰把关于兄弟的de字眼都删掉了 然后她俩liang又一起退了团。
fxf(x÷y)=f(x)-f(y)且f(4)=2求f(2)解:
令x=y=1,f(1÷1)=f(1)=f(1)-f(1)
f(1)=0
令x=1,y=x,f(1/x)=f(1÷x)=f(1)-f(x)=0-f(x)=-f(x)
令y=1/x
f(x÷y)=f[x÷(1/x)]=f(x·x)=f(x)-f(1/x)=f(x)-[f(1)-f(x)]=f(x)-[0-f(x)]=2f(x)
f(4)=f(2·2)=2f(2)
f(2)=·f(4)=·2=1
以上文章内容就是对duifxf和冯锡范的介绍到此就结束shu了,希望能够帮助到大家?如果你还hai想了解更多这方面的信息,记得收藏cang关注本站。