本技术公开了一种基于神经网络超分辨率技术的显微成像处理方法,包括如下步骤:全卷积神经网络的训练和利用训练好的全卷积神经网络M布置在控制显微镜的电脑上,控制显微镜进行图片拍摄,并对拍摄到的图片进行实时补偿,得到清晰图片。
本技术所公开的处理方法大大提高拍摄速度、提高图片质量,抑制散焦模糊,尤其是要对样本拍摄多幅图片时;甚至可以代替自动对焦,去掉控制镜头上下移动的电机,简化光学检测系统。
权利要求书1.一种基于神经网络超分辨率技术的显微成像处理方法,其特征在于,包括如下步骤:(1)全卷积神经网络的训练:用显微镜拍摄一组清晰图片Y,然后对Y进行高斯滤波,得到对应的散焦模糊照片X,将图像信息数据X、Y转换成numpy数组,然后对数组进行归一化处理,将归一化后的数组分别记为Xnorm、Ynorm,这里Xnorm、Ynorm是两个形状相同的矩阵,形状统一记为L*W*H*c,L为拍摄的清晰图片的张数,W是矩阵的行数,H是矩阵的列数,如果拍摄的是灰度图片,c为1,如果是彩色图片,c为3;以Xnorm为网络的输入,Ynorm为网络的输出,学习率设为3E-4,训练时采用Adam优化器,训练网络,得到全卷积神经网络M;(2)显微成像处理:将训练好的全卷积神经网络M布置在控制显微镜的电脑上,控制显微镜进行图片拍摄,同时利用训练好的全卷积神经网络M对拍摄到的图片进行实时补偿,即将拍摄到的图片首先进行归一化操作,得到1*W*H*c的数组,将该数组作为网络的输入,得到形状为1*W*H*c的输出,将输出去归一化,将像素值映射到0-255,得到清晰图片。
2.根据权利要求1所述的一种基于神经网络超分辨率技术的显微成像处理方法,其特征在于,所述全卷积神经网络对网络的输入做卷积,设有二维矩阵A和矩阵B,它们的卷积结果矩阵C的计算公式如下:C(j,k)=∑p∑qA(p,q)B(j-p+1,k-q+1)其中,p、q分别是矩阵A的横坐标、纵坐标,j、k分别是矩阵C的横坐标、纵坐标,如果矩阵元素超出边界,其值用0代替。
3.根据权利要求2所述的一种基于神经网络超分辨率技术的显微成像处理方法,其特征在于,所述全卷积神经网络做卷积时,输入形状为Winput*Hinput*c的矩阵,与n个Wfilter*Hfilter*c的卷积核分别卷积,得到形状为Woutput*Houtput*n的输出,W是矩阵的行数,H是矩阵的列数,下标代表了其所属矩阵,c是矩阵的特征通道数;输出即被视作卷积层所提取的特征,当指定了损失函数并给定了真值以后,卷积核内的参数会根据损失函数的大小按照梯度下降法向梯度下降最快的方向更新,其中Woutput=(Winput-Wfilter+2P)/S+1Houtput=(Hinput-Hfilter+2P)/S+1P为填充大小,S为步长。
4.根据权利要求3所述的一种基于神经网络超分辨率技术的显微成像处理方法,其特征在于,所述损失函数公式如下:其中,为网络的损失函数,为网络的输出,为真值,||*||1为L1范数。
5.根据权利要求3所述的一种基于神经网络超分辨率技术的显微成像处理方法,其特征在于,所述全卷积神经网络做卷积时,每个上采样和下采样中卷积核的数量均为32;下采样包含两个卷积层和一个最大池化层,卷积核大小为3*3,最大池化步长为2*2;在跳跃连接得到的张量后加一个卷积层,综合不同层之间的特征,卷积核大小为3*3,然后进行上采样;上采样采用反卷积,卷积核大小为2*2,步长为2*2。
技术说明书一种基于神经网络超分辨率技术的显微成像处理方法技术领域本技术涉及一种图像处理方法,特别涉及一种基于神经网络超分辨率技术的显微成像处理方法。
背景技术显微成像技术是一种以高时空分辨率观察细胞的有效手段。
在对样本进行观察前,研究人员需要对显微镜进行一次对焦,但当样本面积过大,需要对其连续观察时,上述操作会出现问题:如果样本的弯曲程度大于所用的光学检测系统的景深时,就会出现部分图像清晰、部分图像模糊的情况。
这种情况会严重影响后续分析、判断。
超分辨率技术指的是利用数字图像处理、计算机视觉等领域的相关知识,借由特定的算法和处理流程,从给定的低分辨率图像中复原出高分辨率图像的过程。
其旨在克服或补偿由于图像采集系统或采集环境本身的限制,导致的成像图像模糊、质量低下、感兴趣区域不显著等问题。
超分辨率针对的是由于双三次采样所带来的分辨率下降而造成的模糊,但是理论上也可以应用于克服散焦模糊上。
现有技术中采用的方案是当成像系统扫描时,将镜头上下移动,在连续的三幅图像中,会有一小部分重叠区域,通过计算重叠区域的模糊度来确定焦平面所在的位置。
该方法本质上相当于在多个地方采样,速度慢,耗费时间。
技术内容为解决上述技术问题,本技术提供了一种基于神经网络超分辨率技术的显微成像处理方法,以达到大大提高拍摄速度、提高图片质量,抑制散焦模糊的目的。
为达到上述目的,本技术的技术方案如下:一种基于神经网络超分辨率技术的显微成像处理方法,包括如下步骤:(1)全卷积神经网络的训练:用显微镜拍摄一组清晰图片Y,然后对Y进行高斯滤波,得到对应的散焦模糊照片X,将图像信息数据X、Y转换成numpy数组,然后对数组进行归一化处理,将归一化后的数组分别记为Xnorm、Ynorm,这里Xnorm、Ynorm是两个形状相同的矩阵,形状统一记为L*W*H*c,L为拍摄的清晰图片的张数,W是矩阵的行数,H是矩阵的列数,如果拍摄的是灰度图片,c为1,如果是彩色图片,c为3;以Xnorm为网络的输入,Ynorm为网络的输出,学习率设为3E-4,训练时采用Adam优化器,训练网络,得到全卷积神经网络M;(2)显微成像处理:将训练好的全卷积神经网络M布置在控制显微镜的电脑上,控制显微镜进行图片拍摄,同时利用训练好的全卷积神经网络M对拍摄到的图片进行实时补偿,即将拍摄到的图片首先进行归一化操作,得到1*W*H*c的数组,将该数组作为网络的输入,得到形状为1*W*H*c的输出,将输出去归一化,将像素值映射到0-255,得到清晰图片。
上述方案中,所述全卷积神经网络对网络的输入做卷积,设有二维矩阵A和矩阵B,它们的卷积结果矩阵C的计算公式如下:C(j,k)=∑p∑qA(p,q)B(j-p+1,k-q+1)其中,p、q分别是矩阵A的横坐标、纵坐标,j、k分别是矩阵C的横坐标、纵坐标,如果矩阵元素超出边界,其值用0代替。
进一步的技术方案中,所述全卷积神经网络做卷积时,输入形状为Winput*Hinput*c的矩阵,与n个Wfilter*Hfilter*c的卷积核分别卷积,得到形状为Woutput*Houtput*n的输出,W是矩阵的行数,H是矩阵的列数,下标代表了其所属矩阵,c是矩阵的特征通道数;输出即被视作卷积层所提取的特征,当指定了损失函数并给定了真值以后,卷积核内的参数会根据损失函数的大小按照梯度下降法向梯度下降最快的方向更新,其中Woutput=(Winput-Wfilter+2P)/S+1Houtput=(Hinput-Hfilter+2P)/S+1P为填充大小,S为步长。
更进一步的技术方案中,所述损失函数公式如下:其中,为网络的损失函数,为网络的输出,为真值,||*||1为L1范数。
更进一步的技术方案中,所述全卷积神经网络做卷积时,每个上采样和下采样中卷积核的数量均为32;下采样中包含两个卷积层和一个最大池化层,卷积核大小为3*3,最大池化步长为2*2;在跳跃连接得到的张量后加一个卷积层,综合不同层之间的特征,卷积核大小为3*3,然后进行上采样;上采样采用反卷积,卷积核大小为2*2,步长为2*2。
通过上述技术方案,本技术提供的基于神经网络超分辨率技术的显微成像处理方法利用超分辨率技术对图像模糊进行补偿,利用该技术可以避免在每一个拍摄位置都进行对焦的麻烦,大大提高拍摄速度,尤其是要对样本拍摄多幅图片时;甚至可以代替自动对焦,去掉控制镜头上下移动的电机,简化光学检测系统。
在拍摄的同时,对拍摄到的图片利用全卷积神经网络进行卷积处理,进行图像的实时补偿,从而得到清晰的图像,本技术能够实现在不增加拍摄时间的情况下,提高图片质量,抑制散焦模糊。
附图说明为了更清楚地说明本技术实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1为本技术实施例所公开的全卷积神经网络示意图;图2为本技术实施例所公开的卷积示意图;图3为本技术实施例所公开的处理前的图像;图4为本技术实施例所公开的处理后的图像。
具体实施方式下面将结合本技术实施例中的附图,对本技术实施例中的技术方案进行清楚、完整地描述。
本技术提供了一种基于神经网络超分辨率技术的显微成像处理方法,该方法能够提高图片质量,抑制散焦模糊。
一种基于神经网络超分辨率技术的显微成像处理方法,包括如下步骤:(1)全卷积神经网络的训练:用显微镜拍摄一组清晰图片Y,然后对Y进行高斯滤波,得到对应的散焦模糊照片X,将图像信息数据X、Y转换成numpy数组,然后对数组进行归一化处理,将归一化后的数组分别记为Xnorm、Ynorm,这里Ynorm、Ynorm是两个形状相同的矩阵,形状统一记为L*W*H*c,L为拍摄的清晰图片的张数,W是矩阵的行数,H是矩阵的列数,如果拍摄的是灰度图片,c为1,如果是彩色图片,c为3;以Xnorm为网络的输入,Ynorm为网络的输出,学习率设为3E-4,训练时采用Adam优化器,训练网络,得到全卷积神经网络M。
全卷积神经网络M如图1所示,输入通过连续的降采样得到了X0,0、X1,0、X2,0、X3,0、X4,0,降采样可以增加对输入图像的一些小扰动的鲁棒性,比如图像平移、旋转等,减少过拟合的风险,降低运算量以及增加感受野的大小。
而后分别将X1,0、X2,0、X3,0、X4,0上采样,其作用是把抽象的特征再还原解码到原图的尺寸,即将X1,0上采样得到了X0,1,将X2,0上采样依次得到了X1,1、X0,2,将X3,0上采样依次得到了X2,1、X1,2、X0,3,将X4,0上采样依次得到了X3,1、X2,2、X1,3、X0,4。
另外为了整合不同层次的特征,在网络中添加了大量的跳跃连接,例如X0,0到X0,1、X0,2、X0,3、X0,4都有跳跃连接。
最后为了能使网络更好地收敛,添加了深监督这一策略,即X0,1、X0,2、X0,3、X0,4都会与ground truth作比较,参与到损失函数的计算当中。
本技术采用了卷积-卷积的模式,本技术为了降低内存占用,加快计算速度,将下采样每一层的卷积核数量都固定为32,下采样中包括两层卷积层和一层最大池化层,卷积核大小为3*3,最大池化步长为2*2。
在跳跃连接得到的张量后加一个卷积层,综合不同层之间的特征,卷积核大小为3*3,然后进行上采样。