光电工程  2020, Vol. 47 Issue (1): 190104      DOI: 10.12086/oee.2020.190104     
基于超像素的联合能量主动轮廓CT图像分割方法
刘侠 , 甘权 , 刘晓 , 王波     
哈尔滨理工大学自动化学院,黑龙江 哈尔滨 150080
摘要:为解决医学CT图像主动轮廓分割方法中对初始轮廓敏感的问题,提出一种基于超像素和卷积神经网络的人体器官CT图像联合能量函数主动轮廓分割方法。该方法首先基于超像素分割对CT图像进行超像素网格化,并通过卷积神经网络进行超像素分类确定边缘超像素;然后提取边缘超像素的种子点组成初始轮廓;最后在提取的初始轮廓基础上,通过求解本文提出的综合能量函数最小值实现人体器官分割。实验结果表明,本文方法与先进的U-Net方法相比平均Dice系数提高5%,为临床CT图像病变诊断提供理论基础和新的解决方案。
关键词CT图像分割    超像素    卷积神经网络    主动轮廓模型    
Joint energy active contour CT image segmentation method based on super-pixel
Liu Xia, Gan Quan, Liu Xiao, Wang Bo     
School of Automation, Harbin University of Science and Technology, Harbin, Heilongjiang 150080, China
Abstract: In this paper, an active contour segmentation method for organs CT images based on super-pixel and convolutional neural network is proposed to solve the sensitive problem of the initial contour of the segmentation method of the CT image. The method firstly super-pixels the CT image based on super-pixel segmentation and determines the edge super-pixels by the super-pixel classification through a convolutional neural network. Afterwards, the seed points of the edge super-pixels are extracted to form the initial contour. Finally, based on the extracted initial contour, the human organ segmentation is realized by solving the minimum value of the integrated energy function proposed in this paper. The results in this paper show that the average Dice coefficient is improved by 5% compared with the advanced U-Net method, providing a theoretical basis and a new solution for the diagnosis of clinical CT image lesions.
Keywords: CT segmentation    super-pixel    convolutional neural network (CNN)    active contour method    

1 引言

计算机断层扫描(Computed tomography,CT)图像拥有成像速度快、成像清晰等优点,CT图像是评估人体最重要的医学成像技术之一,已经成为日常检查的常用手段。人体CT扫描包含丰富的信息,如复杂的软组织、骨、血管和多个器官。对于计算机辅助诊断,在CT图像中分割感兴趣区域(region of interest,ROI)是十分重要的前提条件。因此,寻求一种可以取代人工分割的自动CT图像方法是当务之急。

在之前的研究中,研究学者已经提出了阈值分割、基于区域方法、轮廓和形状分割等方法来进行器官分割。阈值分割是以像素点灰度为分割依据的经典方法,Moltz[1]将阈值方法与形态学处理相结合,对肝脏肿瘤进行了确切的分割,该方法不需要考虑空间特征,涉及计算少,但是对噪声敏感。Chang[2]提出三维区域生长方法完成了肾脏、脾脏和其他三个器官的分割,该方法取决于种子点的选择,研究人员需要手动选择种子点来提高分割质量。Klaus[3]提出了一种自适应区域增长方法,当目标不均匀时会造成分割不足。Masahiro[4]将主动轮廓分割应用于四种器官分割。主动轮廓分割通常需要研究人员仔细选择标记为目标和背景[5]的种子点,且分割结果依赖于种子点的选择。后续研究人员将模糊理论融入主动轮廓模型中并提出基于模糊能量的主动轮廓模型[6-8],此模型对噪声和初始轮廓不敏感,可以实现快速收敛,但不能正确分割灰度不均匀图像,CT图像就属于灰度不均匀图像。

近年来机器学习已广泛应用于医学图像的分割领域[9-11],最近,深度学习已经显示出自动分类算法准确度高、适应性强的优势。卷积神经网络(convolutional neural network,CNN)是深度人工神经网络的有效分支。同时,某些特定的深度学习框架可用于分割[12-15]。Yu[16]使用基于CNN的方法实现了膀胱分割,Ronneberger[17]设计了U-Net来细分生物医学图像。基于全卷积神经网络(fully convolutional networks,FCN)的语义分割中,Milletari[18]提出V-Net用于3D体积医学图像分割的完全卷积神经网络,该网络在分割精度方面有所提高但收敛速度慢,十分耗时。

综上,本文提出一种全自动的人体器官CT图像分割方法,该方法最初基于超像素分割对CT图像进行超像素网格化,并通过卷积神经网络对产生的超像素进行分类确定边缘超像素;然后提取边缘超像素的种子点组成初始轮廓;最后在提取的初始轮廓基础上,通过求解本文提出的综合能量函数最小值实现CT图像中器官的分割。

2 本文方法

本文提出的人体器官CT图像分割方法流程如图 1所示。该方法对CT图像超像素网格进行边缘超像素分类并提取种子点初始轮廓。之后,在提取的初始轮廓上迭代求解本文改进的综合能量函数最小值,实现CT图像中人体器官分割。

图 1 本文方法示意图 Fig. 1 Schematic diagram of the method in this paper
2.1 超像素分割

针对医学CT图像的特征,只需将CT图像进行超像素网格化,不需要完成分割识别等复杂任务,本文仅用SLIC算法将CT图像进行超像素分割。在超像素网格化中,像素具有相似的颜色、纹理和强度,且SLIC[19]已被证明是一种快速有效的生成超像素的方法。CT切片图像为N个像素点的集合$V = \{ {v_1}, {v_2}, {v_3}, \cdots , {v_N}\} $,其中${v_i} = \{ {x_i}, {y_i}, {g_i}\} $${x_i}, {y_i}$gi为像素i的坐标与灰度值,SLIC网格化伪代码如下:

算法1  SLIC超像素分割

Step1:初始化

1) 以步长S对图像像素采样初始化种子点${C_k} = \{ {l_k}{a_k}{b_k}{x_k}{y_k}\} $,并移动种子点到初始化2S×2S网格中梯度最小的像素点位置;

2) 初始化每个种子点邻域内的像素点类标签l(i)=-1,d(i)=∞。

Step2:重复

每个种子点Ck,在Ck周围2S×2S区域内每个像素点i,计算Ck与像素点的灰度特征上的距离dg和空间距离ds,合成单个度量D’。如果$D' < d\left( i \right)$,则设置$d(i){\rm{ = }}D'$$l(i){\rm{ = }}k$

Step3:更新

计算新的种子点;

计算残差E

直到E≤阈值。

在伪代码中,相邻种子点的距离(步长)S近似为$S{\rm{ = }}\sqrt {N/K} $,CT切片图像有像素点N个,选定分割超像素个数为K。像素点i与种子点Ck的灰度特征上的距离dg和空间距离ds及合成单个度量D’计算方法:

$\left\{ \begin{array}{l} {d_{\rm{g}}} = \sqrt {\mathop {({g_j} - {g_i})}\nolimits^2 } \\ {d_{\rm{s}}} = \sqrt {\mathop {({x_j} - {x_i})}\nolimits^2 + \mathop {({y_j} - {y_i})}\nolimits^2 } \\ D' = \sqrt {{{\left( {{d_{\rm{g}}}/m} \right)}^2} + {{\left( {{d_{\rm{s}}}/S} \right)}^2}} \\ \end{array} \right., $ (1)

其中:m是用于衡量该测量中灰度信息和空间信息的比例的平衡参数,取m=10。最后,根据计算的距离为每个簇分配一个单独的标签。

图 2所示,图 2(a)2(b)分别为K=500与K=2000时,不同参数K对肝脏CT图像的网格化分割结果,图 2(a)中的超像素网格较大,不能很好地表示器官边缘,图 2(b)中的超像素网格较小,可以较为细致的表示器官边缘。

图 2 不同参数K的超像素网格化结果。(a) K=500网格化结果;(b) K=2000网格化结果 Fig. 2 Superpixel meshing results with different parameters of (a) K=500 and (b) K=2000
2.2 超像素分类CNN

图像处理中正确分类一直是研究的热点问题,学者们先后提出过多种的分类方法,如Aadboost、随机森林、支持向量机(SVM)、CNN。其中CNN是近年发展起来,并引起广泛重视的一种高效识别方法,对于图像处理有出色表现。特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。本文提出的超像素分类CNN将超像素分为两大类:器官边缘超像素和非器官区边缘超像素(如图 2(a)所示),分别标记为1和0。超像素分类CNN如图 3所示,在卷积层后增加batch normalization(BN)层加快收敛速度。

图 3 超像素分类CNN网络 Fig. 3 Superpixel classification CNN network

超像素分类CNN各层参数如表 1所示。其中,soft-max层为二分类层,用于标记边缘超像素(标记为1)和非边缘超像素(标记为0)。本文数据集的分辨率为512×512,超像素网格化后超像素大小为128×128。CNN输入采用窗口滑动输入,滑动窗口为64×64,通过多次滑动直至数据集全部输入网络。

表 1 超像素分类CNN网络结构参数 Table 1 The parameters of super-pixel classification CNN network
Layer Kernel Stride Pad Output
Data - - - 64×64
Conv1 BN 2×2 - 1 0 64×64
- 0 64×64
Maxpool1 2×2 2 0 32×32
Conv2 2×2 1 0 32×32
Maxpool2 2×2 2 0 16×16
Conv3 2×2 1 0 16×16
Maxpool3 2×2 2 1 8×8
Conv4 2×2 1 0 8×8
Maxpool4 2×2 1 0 4×4
FC1 FC-4096
FC2 FC-1024
Soft-max Soft-max lables=1、0

本文的训练集合为$C = \{ ({I_n}, {L_n})\;, \;\;\;n = 0, 1\} \;$,其中In是原始CT图像,Ln是具有边缘超像素标签的手动标记图像,包含2个类别标签“1”和“0”分别代表边缘和非边缘超像素,超像素分类CNN的目标函数为

$ L = - \frac{1}{N}\sum\limits_{i = 1}^k {{\lambda _i} \times \left[ {\sum\limits_{x\forall {N_i}} {\log ({{\hat p}_k}(x))} } \right]} , $ (2)

其中:soft-max层输出的类概率为$\hat p$${\lambda _i}$是权重因子,N是像素总数,${N_i}$是一个类别Ln内的像素总数,并且$k \in [0, 1]$表示正确的基本事实类别标签,$x$为像素点。超像素分类CNN用随机梯度下降方法(SGD)进行训练。网络训练中,学习率η最初为0.001,每1000次迭代后学习率η降低到原来的0.1倍。重量衰减λ设置为0.0005,动量ν设置为0.9,平衡权重ω1ω2分别为0.5和0.5,训练次数n设置为1000次。最终,通过超像素分类CNN得到边缘超像素。

2.3 联合能量主动轮廓分割

本文在主动轮廓分割能量函数中加入了边缘能量函数,突出CT图像中器官区域边缘信息。本文提出联合能量函数$E(S)$由内部能量函数${E_{{\mathop{\rm int}} }}\left( S \right)$、区域能量函数${E_{{\mathop{\rm reg}} }}\left( S \right)$及边缘能量函数${E_{{\mathop{\rm edg}} }}\left( S \right)$联合表示,定义为

$ E(S){\rm{ = }}{E_{{\rm{int}}}}(S){\rm{ + }}{E_{{\rm{out}}}}(S){\rm{ = }}{E_{{\rm{int}}}}(S){\rm{ + }}{E_{{\rm{reg}}}}(S){\rm{ + }}{E_{{\rm{edg}}}}(S), $ (3)
$ \left\{ \begin{gathered} {E_{{\rm{int}}}}(S) = {\lambda _1}\sum\limits_{\upsilon \in \Omega } {\left| {\nabla H(S(\upsilon ))} \right|} \\ \mathop E\nolimits_{{\rm{reg}}} (S) = - {\lambda _2}\sum\limits_{\upsilon \in \Omega } {\log p(\left. {I(\upsilon )} \right|\mathop \Omega \nolimits_{\rm{V}} )(1 - H(S))} \\ + \log p(\left. {I(\upsilon )} \right|\mathop \Omega \nolimits_{\rm{B}} )H(S) \\ {E_{{\rm{edg}}}}(S) = {\lambda _3}\sum\limits_{\upsilon \in \Omega } {g(I(\upsilon ))\left| {\nabla H(S)} \right|} \\ \end{gathered} \right. $ (4)

其中:$S(\upsilon )$是有符号距离函数,$g(I){\rm{ = }}{(1{\rm{ + }}\alpha \nabla ({G_\theta } * I))^{ - 1}}$${\lambda _1}$${\lambda _2}$${\lambda _3}$是图像能量函数的加权参数。

在能量函数演化过程中引入高斯函数卷积法(该高斯卷积运算为${G_\theta } * I$是参数为$\theta $高斯核与图像$I$的卷积),使能量函数保持为符号距离函数。该方法不仅可以将能量函数规范为符号距离函数而且可以平滑该函数,获得更加平滑的分割结果。

图像分割即求取目标区域边界轮廓L*,并将其转化为求S最小化的问题。选择边缘超像素的种子点构造初始轮廓,计算其相应的符号距离函数S0。从初始化S0开始,对于dΩ进行遍历,通过式(5)更新,并使用梯度下降法通过式(6)求解S的最小值S*

$\mathop S\nolimits^{K + 1} {\rm{ = }}\mathop S\nolimits^K - \Delta _t^K\left( {{{\left. {\frac{{\partial {E_{{\rm{int}}}}}}{{\partial S}}} \right|}_{{S^K}}} + {{\left. {\frac{{\partial {E_{{\rm{out}}}}}}{{\partial S}}} \right|}_{{S^K}}}} \right), $ (5)
${S^ * }{\rm{ = }}\mathop {\arg \min }\limits_{\mathit{\Phi}} ({E_{{\rm{int}}}}(S) + {E_{{\rm{out}}}}{\rm{(}}S)), $ (6)

其中:t为步长且$\Delta _t^K$需要满足CFL条件,即满足:

$\Delta _t^K{\rm{ = 0}}{\rm{.45}}{\left( {{{\left. {\mathop {\max }\limits_{\upsilon \in {\mathit{\Omega}} } \frac{{\partial E}}{{\partial S}}} \right|}_{{S^K}}}} \right)^{ - 1}}。$ (7)

使用梯度下降法迭代更新每个像素的符号距离函数SS与边界L具有一对一的映射关系,最终的S*产生最终轮廓L*。一旦已知S*,通过映射关系就可以得到L*。该映射如下:

$L = \upsilon \in \mathop R\nolimits^2 , \;S(\upsilon ) = 0。$ (8)

经过上述计算得到目标区域的分割轮廓,但是在轮廓演化的过程中可能使分割轮廓粗糙。本文最后使用形态学开操作、闭操作来平滑分割轮廓曲线。

综上所述,本文提出的基于超像素的联合能量主动轮廓CT图像分割方法,具体实现步骤如下:

Step1:导入训练集后,对图像进行超像素网格化;

Step2:构建超像素分类CNN,将Step1中产生的超像素分类为器官边缘超像素和非器官边缘超像素并标记;

Step3:提取被标记为器官边缘区域超像素的种子点并将种子点组成一个闭合轮廓,作为分割初始轮廓;

Step4:根据式(3)、式(4)定义联合边缘能量的主动轮廓分割能量函数,并初始化参数;

Step5:以Step3得到的闭合轮廓构造初始轮廓计算S0

Step6:使用梯度下降法根据式(6)更新距离符号函数;

Step7:重复Step6,直至遍历全部像素,计算最小S*

Step8:将Step7计算的最小S*按式(8)的一一对应关系映射分割边界L*

Step9:将Step8获得的分割边界曲线L*进行形态学开操作、形态学闭操作来平滑分割轮廓曲线,得到最后的分割结果。

3 实验结果与分析 3.1 实验数据及评价指标

为全面评估本文方法对医学CT图像的分割效果,本文主要对四类器官CT图像进行分割实验,包括:脑部CT图像、肝脏CT图像、肺部CT图像、椎骨CT图像。本文实验所用数据如表 2所示。

表 2 数据表 Table 2 Data sheet
器官 数据集
BrainWeb:脑数据库数据集,20组模型
椎骨 SpineWeb:腰椎分割CT图像数据库,3000张512×512切片
肝脏 Segmentation of the Liver:肝脏分割数据集,5500张512×512切片
TIANCHI:开放的中文数据集,5000张512×512切片

本文分割算法实验环境为Intel(R) Core(TM) 3.4 GHz CPU、32 GB RAM、16 GHz GPU、opencv32,caffe、Python3.5。分割结果评价指标分别为相关系数(ηJaccard),重叠系数(ODice)和正确的分类系数(correct classification ration,CCR)(RCCR)对本文提出的方法进行科学的评价。评价指标计算公式如下:

$ \left\{ \begin{array}{l} {\eta _{{\rm{Jaccard}}}} = \frac{{{R_{{\rm{SEG}}}} \cap {S_{{\rm{GT}}}}}}{{{R_{{\rm{SEG}}}} \cup {S_{{\rm{GT}}}}}} \\ {O_{{\rm{Dice}}}} = \frac{{2\left| {{R_{{\rm{SEG}}}} \cap {S_{{\rm{GT}}}}} \right|}}{{\left| {{R_{{\rm{SEG}}}}} \right| + \left| {{S_{{\rm{GT}}}}} \right|}} \\ {R_{{\rm{CCR}}}} = \frac{{{N_{{\rm{CPN}}}}}}{{{T_{{\rm{IPN}}}}}} \\ \end{array} \right., $ (9)

其中:RSEG表示算法的分割结果,SGT表示手动分割结果,即标准的参考结果,NCPN表示正确分割的超像素个数,TINP表示图像像素总个数。三种指标系数的取值范围均为0到1,越接近1表示分割效果越好。

3.2 定量实验分析 3.2.1 联合能量主动轮廓分割对实验结果的影响

将CNN得到的边缘超像素进行种子点提取,组成初始轮廓,并通过求解联合能量函数最小值寻找分割边界,最后用开操作和闭操作进行边界平滑。本文算法与任意初始轮廓联合能量主动轮廓算法和无能量边缘函数的分割算法进行对比,对比结果如表 3图 4所示。

表 3 定量实验分割结果 Table 3 Quantitative experiment segmentation results
指标 任意初始轮廓 定位初始轮廓 本文方法
无边缘能量 有边缘能量 无边缘能量 有边缘能量 初始轮廓+边缘能量+后处理
Jaccard 0.545 0.773 0.881 0.943 0.945
Dice 0.548 0.778 0.892 0.947 0.948
CCR 0.547 0.775 0.890 0.944 0.945
分割耗时/(s/片) 45 43 23 27 25

图 4 定量实验分割结果图(从上到下分别为脑部、肝脏、肺部及椎骨的分割结果) Fig. 4 Quantitative experiment segmentation results

图 4给出了多个器官的分割结果,图 4(a)为原始CT图像,图 4(b)为任意初始轮廓无边缘能量项方法分割结果,该方法效果较差,基本不能完成CT图像的器官分割。图 4(c)为具有边缘能量项的任意初始轮廓的方法分割结果,该方法能够很好的约束轮廓,迭代找到完整准确地器官轮廓完成分割,不足的是有些非器官部位也被分割。图 4(d)为具有超像素边缘初始轮廓无边缘能量项方法分割结果,该方法能准确找到器官位置,但器官周围小部分相似组织被作为器官区域一起分割。图 4(e)为具有超像素边缘初始轮廓且有边缘能量项方法分割结果,该方法能够准确分割完成目标区域的提取,但分割边界不够平滑。图 4(f)为本文方法分割结果,本文方法能够正确分割目标区域,通过后操作平滑边界,分割结果最好。

3.2.2 边缘超像素分类CNN对分割结果的影响

本文提出的超像素分类CNN,与先进的VGG-16[19]网络进行比较(本文将VGG-16最终的soft-max层改变二分类层,以适应本文的二分类任务),对肺部CT图像超像素的分类结果如图 5所示。

图 5 CNN分类准确度和训练损失 Fig. 5 Accuracy and training loss of the CNN classification

本文超像素分类CNN对其他器官的边缘超像素分类结果如图 6所示。本文在针对脑部CT断层图像边缘超像素分类时,首先进行MRI与CT的图像互相关归一化配准预处理,将待分割脑部CT图像与参考MRI图像进行图像配准。本文提出的改进的具有BN层的CNN在VGG-16的基础上减少网络层数,加入批量归一化的BN层,在80次迭代时,准确率和训练损失都趋于平稳达到收敛状态,而不具有BN层的CNN网络,在110次迭代时其准确率和训练损失逐渐达到平稳收敛状态。而对于VGG-16网络在接近120次迭代时才趋于平稳。达到收敛后,本文提出的超像素分类CNN在分类准确性方面略高于VGG-16,边缘超像素识别率达到95%左右。由此可知,在BN层的帮助下能够实现卷积神经网络的快速收敛。

图 6 超像素分类CNN边缘超像素分类结果 Fig. 6 Super-pixel classification CNN edge classification results

与VGG-16结果相比,本文提出的超像素分类CNN能够对脑、肝脏、肺部和椎骨等器官边缘进行准确有效的分类,准确率提高8%,确定器官边缘大致位置,为下一步进行轮廓分割,提供先验知识信息。与VGG-16相比,本文提出的超像素分类CNN网络层数较少,更方便搭建、训练和测试,具有更大优势。

3.2.3 K值对实验结果的影响

K为超像素的个数参数,K的大小决定着超像素网格的数量和大小,K越大则超像素尺寸越小,无法表现出足够的信息特征,K越小则超像素尺寸越大,增加图像信息的复杂性,产生过度贴合现象。如图 7所示,本文对不同K值进行实验K值范围在0~2500之间每隔500取一次,边缘超像素CNN分类准确度在K=1000后明显上升直到K=2000后又下降。显然,当K的值为2000时,CNN对边缘超像素分类准确性最高,因此本文选择选择K的值为2000。

图 7 K不同取值对CNN分类准确度影响 Fig. 7 Influence of different values of K on CNN accuracy
3.3 实验结果及对比 3.3.1 本文实验结果

本文方法得到的各器官CT图像分割结果如图 8所示,图 8(a)~8(d)分别为脑部、肝脏、肺部和椎骨CT图像分割结果,自左到右分别为原始CT图、SLIC-CNN分类后的边缘超像素和初始轮廓、最终分割结果;图 8(e)为局部放大图像。其中黄色为超像素分类CNN得到的边缘超像素,蓝色为边缘超像素种子点提取的分割初始轮廓,白色为本文方法得到的最终分割结果。本文方法得到各类器官CT图像分割评价指标计算结果如表 4所示。

图 8 本文方法分割结果。 Fig. 8 Results obtained by the proposed method in this paper.

表 4 分割结果各评价指标 Table 4 Evaluation indicators of segmentation results
器官 超像素分类准确度 Jaccard Dice CCR
0.928 0.955 0.955 0.954
椎骨 0.931 0.941 0.949 0.943
肝脏 0.940 0.9430.976 0.977 0.976
0.9430.975 0.978 0.977

超像素分类CNN对于CT图像超像素的分类取得了较理想的结果,分类准确度可达92%,本文提取的超像素种子点组成的初始轮廓接近于器官边缘,在接下来的基于综合能量函数的求解过程中节省了大量的时间。对于脑、肝脏、肺部和椎骨的目标图像分割,本文方法能够准确地定位边缘超像素并完整提取边缘超像素种子点构造初始轮廓,通过最小化改进的综合能量函数求取分割轮廓,完成分割。本文方法对四类器官分割结果Dice系数在94%左右,分割一张512×512大小的CT切片图像仅需要25 s,在保证分割准确度的基础上,分割速度较快。

3.3.2 不同方法对比实验分析

本文方法使用与各文献中相同的CT图像进行分割,其结果对比分析如表 5

表 5 不同方法对比实验结果 Table 5 Comparisons among different methods
器官 方法 Dice 耗时/s
本文方法 0.955 28
文献[21] 0.958 -
椎骨 本文方法 0.941 26
文献[22] 0.942 60
肝脏 本文方法 0.976 26
文献[23] 0.975 38
肺部 本文方法 0.975 24
文献[23] 0973 38
U-Net[17] 0.923 20

在脑CT图像分割中,本文和文献[21]均使用轮廓分割方法,文献[21]需人机交互操作而本文方法在保证分割准确度的同时完成自动分割,由于边缘超像素种子点初始轮廓接近最终分割结果,减少了迭代计算时间。在椎骨CT图像分割中,文献[22]提出基于Canny边缘+随机森林强度回归方法,边缘检测和随机森林回归消耗了大量时间,与之相比,本文方法分割速度提高2.5倍,在分割准确度上略小于该方法,但也在可以接受范围内。在肝脏和肺部CT图像中,文献[23]首先超像素网格化,接着SVM进行超像素分类,最终用CNN完成分类分割。而本文使用超像素和CNN直接进行超像素分类提取初始轮廓结合改进的联合能量函数主动轮廓分割提高了分割准确度,同时比文献[23]方法耗时缩短10 s。与U-Net方法相比,本文方法在肝脏分割结果上准确率提高5%以上。在同一数据集上,各文献结果与本文方法分割结果如图 9所示,可以发现与不同研究者的分割结果相比,本文的结果基本令人满意。

图 9 不同方法对比实验结果 Fig. 9 Comparison of experimental results by different methods
4 结论

本文提出了基于超像素的联合能量主动轮廓CT图像分割方法,用于多种CT扫描图像的分割。通过超像素网格化和分类CNN得到边缘超像素,选择超像素种子点组成联合能量主动轮廓分割的初始轮廓,降低初始轮廓敏感性,使主动轮廓分割得到改善,减少分割耗时。用本文方法对包括脑、肝脏、肺部和椎骨的数据集进行分割。总体来说,本文方法在保证分割精度的同时减少了分割耗时,提高了效率。在后续研究中,将致力于在其他类型医学图像上测试这个框架,如MRI图像和超声图像。同时我们也期待提高准确性和效率,将框架纳入可以使患者受益的临床诊断中。

参考文献
[1]
Moltz J H, Bornemann L, Dicken V, et al. Segmentation of liver metastases in CT scans by adaptive thresholding and morphological processing[C]//The MIDAS Journal-Grand Challenge Liver Tumor Segmentation (2008 MICCAI Workshop), 2008, 472: 195-222.
[2]
Chang Y L, Li X B. Adaptive image region-growing[J]. IEEE Transactions on Image Processing, 1994, 3(6): 868-872. [Crossref]
[3]
Pohle R, Toennies K D. Segmentation of medical images using adaptive region growing[J]. Proceedings of SPIE, 2001, 4322: 1337-1346. [Crossref]
[4]
Oda M, Nakaoka T, Kitasaka T, et al. Organ segmentation from 3D abdominal CT images based on atlas selection and graph cut[C]//Proceedings of the Third International Conference on Abdominal Imaging: Computational and Clinical Applications, 2012, 7029: 181-188.
[5]
Criminisi A, Shotton J, Robertson D, et al. Regression forests for efficient anatomy detection and localization in CT studies[C]//International MICCAI Workshop, MCV 2010, 2011: 106-117.
[6]
Tang L M, Tian X Q, Huang D R, et al. Image segmentation model combined with FCMS and variational level set[J]. Acta Automatica Sinica, 2014, 40(6): 1233-1248.
唐利明, 田学全, 黄大荣, 等. 结合FCMS与变分水平集的图像分割模型[J]. 自动化学报, 2014, 40(6): 1233-1248 [Crossref]
[7]
Chen K, Li B, Tian L F. A segmentation algorithm of pulmonary nodules using active contour model based on fuzzy speed function[J]. Acta Automatica Sinica, 2013, 39(8): 1257-1264.
陈侃, 李彬, 田联房. 基于模糊速度函数的活动轮廓模型的肺结节分割[J]. 自动化学报, 2013, 39(8): 1257-1264 [Crossref]
[8]
Sun W Y, Dong E Q, Cao Z L, et al. A robust local segmentation method based on fuzzy-energy based active contour[J]. Acta Automatica Sinica, 2017, 43(4): 611-621.
孙文燕, 董恩清, 曹祝楼, 等. 一种基于模糊主动轮廓的鲁棒局部分割方法[J]. 自动化学报, 2017, 43(4): 611-621 [Crossref]
[9]
Jones J L, Xie X H, Essa E. Combining region-based and imprecise boundary-based cues for interactive medical image segmentation[J]. International Journal for Numerical Methods in Biomedical Engineering, 2014, 30(12): 1649-1666. [Crossref]
[10]
Tah A A, Hanbury A. Metrics for evaluating 3D medical image segmentation: analysis, selection, and tool[J]. BMC Medical Imaging, 2015, 15(1): 29. [Crossref]
[11]
Criminisi A, Robertson D, Konukoglu E, et al. Regression forests for efficient anatomy detection and localization in computed tomography scans[J]. Medical Image Analysis, 2013, 17(8): 1293-1303. [Crossref]
[12]
Shin H C, Orton M R, Collins D J, et al. Stacked autoencoders for unsupervised feature learning and multiple organ detection in a pilot study using 4D patient data[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1930-1943. [Crossref]
[13]
Wang Z, Yang J. Automated detection of diabetic retinopathy using deep convolutional neural networks[J]. Medical Physics, 2016, 43(6): 3406. [Crossref]
[14]
Kooi T, Litjens G, Van Ginneken B, et al. Large scale deep learning for computer aided detection of mammographic lesions[J]. Medical Image Analysis, 2017, 35: 303-312. [Crossref]
[15]
Tao Y P, Jing Y, Xu C. CT image segmentation method combining superpixel and CNN[J]. Computer Engineering and Applications, 2019, 1-8.
陶永鹏, 景雨, 顼聪. 融合超像素和CNN的CT图像分割方法[J]. 计算机工程与应用, 2019, 1-8
[16]
Yu L Q, Yang X, Hao C, et al. Volumetric ConvNets with mixed residual connections for automated prostate segmentation from 3D MR images[C]//Proceedings of the 31th AAAI Conference on Artificial Intelligence (AAAI-17), 2017: 66-72.
[17]
Sevastopolsky A. Optic disc and cup segmentation methods for glaucoma detection with modification of U-Net convolutional neural network[J]. Pattern Recognition and Image Analysis, 2017, 27(3): 618-624. [Crossref]
[18]
Milletari F, Navab N, Ahmadi S A. V-Net: fully convolutional neural networks for volumetric medical image segmentation[C]//2016 Fourth International Conference on 3D Vision (3DV), 2016: 565-571.
[19]
Ren M. Learning a classification model for segmentation[C]//Proceedings Ninth IEEE International Conference on Computer Vision, 2003: 10-17.
[20]
Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[Z]. arXiv: 1409.1556, 2015.
[21]
Aghaei F, Ross S R, Wang Y Z, et al. Implementation of a computer-aided detection tool for quantification of intracranial radiologic markers on brain CT images[C]//Proceedings Volume 10138, Medical Imaging 2017: Imaging Informatics for Healthcare, Research, and Applications, 2017: 10138.
[22]
Korez R, Ibragimov B, Likar B, et al. Interpolation-based shape-constrained deformable model approach for segmentation of vertebrae from CT spine images[C]//Recent Advances in Computational Methods and Clinical Applications for Spine Imaging, 2015: 235-240.
[23]
Liu X M, Guo S X, Yang B T, et al. Automatic organ segmentation for CT scans based on super-pixel and convolutional neural networks[J]. Journal of Digital Imaging, 2018, 31(5): 748-760. [Crossref]