注册

人工智能与临床创新研究院月刊 总第10期

其他分类其他2020-12-01
1070

影像前沿技术跟踪月刊

Monthly Journal

10

2020第10期

主办单位:
人工智能与临床创新研究院

*  本月刊仅供内部员工个人学习参考,请勿外传

1

Lancet Neurol:预测卒中风险的颈动脉易损斑块的
影像学标记物及其临床意义

2

3

基于变换一致性的半监督医学图像分割

4

Contents

目录

人工智能在心脏影像诊断中的研究进展

肝脏MR定量研究进展

02

03

肝脏MR定量

作者:钱山

2020年硕士毕业于北京航空航天大学生物医学工程专业。目前担任人工智能与临床创新研究院 前沿临床技术创新部 前沿产品研究员,研究方向包括心血管流体动力学,动脉粥样硬化建模仿真,磁共振成像。

钱山  硕士

4

5

>

2. 肝脏脂肪定量

肝脏是人体重要的代谢器官,也是多数慢性病变和原发性肿瘤的发源地。肝脏脂肪堆积可能引发非酒精性脂肪性肝病、肝脏脂肪变性等多种肝脏疾病[1]。铁元素能将过氧化氢转化为自由基,进而损伤细胞膜、蛋白质以及DNA,故肝脏铁过载也会引发器官损害[2]。因此,肝脏脂肪和铁的定量评估一直是临床研究的热门方向。近年来,磁共振成像(magnetic resonance imaging, MRI)在肝脏疾病诊断和量化中得到了广泛的应用以及临床实践的肯定[3]。本文主要介绍了肝脏脂肪和铁定量方面典型的MR技术,并结合ISMRM 2020相关报告,简述了目前肝脏脂肪和铁定量方面的热点研究方向。

肝脏活检是评估肝脏脂肪含量的金标准[5]。但肝穿活检是有创性检查,而且肝脏脂肪变性常呈不均匀分布,肝穿活检容易受到取样误差的影响,可重复性欠佳,不适用于对肝脏脂肪变性的筛查、严重程度判断和病情的长期监测,因此迫切需要能对肝脏脂肪进行无创定量评估的技术[1, 6]。近年来随着影像学技术的飞速发展,一些非侵入性影像学技术如超声肝脏瞬时弹性检测技术、CT定量技术以及磁共振波谱和化学位移技术等逐渐应用于肝脏脂肪的定量评估中。超声是一种用于非酒精性脂肪肝疾病的便捷的诊断工具,但对于肝脂肪含量低于20%的个体相对不敏感,且过度依赖于操作者的临床经验。定量CT近年来也用于测量肝脏脂肪含量,但缺点是有辐射且准确性不高。MRI肝脏脂肪定量技术具有无创性、无辐射、可重复性好、准确性高等特点,临床应用较广泛[1]。
传统Dixon技术利用同/反相位信号可计算组织中脂肪信号所占比例,其准确性高于CT技术、无辐射,适用于长期随访病情,但当肝内有铁沉积或存在明显的纤维化时,组织的T2*衰减明显加快,同、反相位回波时间(TE)的差别所导致的信号衰减非常明显,以至于无法通过简单观察同、反相位信号差别明确肝内脂肪含量的变化情况[6]。

>

1. 肝脏MR定量研究进展

非酒精性脂肪性肝病(nonalcoholic fatty liver disease, NAFLD)是指除酒精和其他明确的损肝因素所致的肝细胞内脂肪过度沉积为主要特征的临床病理综合征,其全球患病率为20%-33%,被认为是包括肝硬化和肝细胞癌等在内的多数慢性肝脏疾病的重要原因,如图1所示[1, 4]。肝脏脂肪含量的精准定量对于非酒精性脂肪肝等疾病的诊断、治疗和监测至关重要。

2020年硕士毕业于北京航空航天大学生物医学工程专业。目前担任人工智能与临床创新研究院 前沿临床技术创新部 前沿产品研究员,研究方向包括心血管流体动力学,动脉粥样硬化建模仿真,磁共振成像。

6

7

组织的T2*衰减明显加快,同、反相位回波时间(TE)的差别所导致的信号衰减非常明显,以至于无法通过简单观察同、反相位信号差别明确肝内脂肪含量的变化情况[6]。多回波Dixon技术可在多个回波时间采集信号从而测量并矫正T2*效应,同时定量评估肝脏脂肪分数及T2*值,准确性高于传统Dixon技术,对肝脏脂肪含量的量化评估具有一定的指导意义[7]。另外,磁共振波谱成像(magnetic resonance spectroscopy, MRS)是广泛应用的量化肝脏脂肪代谢的无创影像学方法之一[8]。但MRS易受到临近器官运动伪影的干扰,在肝脏脂肪定量评估中耗时较长,且同穿刺活检一样会存在严重的采样误差。此外,1H-MRS可以根据脂肪浓度的变化鉴别正常组织和病变,且敏感性较高[1]。但1H-MRS检查费用较高、耗时长,不能评估全部肝脏的脂肪,因而1H-MRS在临床中的广泛应用受到限制[5]。质子密度脂肪分数(proton density fat fraction,PDFF)为脂肪中可移动质子密度在组织中所占比例,可由矫正了所有影响脂肪定量因素的MR技术测得,不受场强及MR机型影响,是目前组织脂肪定量的标准化MR指标。已有研究显示PDFF可作为治疗前后肝脏脂肪含量变化的监测指标,与病理结果的相关性较好,且敏感性高于组织病理学[5]。为了校正T2*效应并消除铁对化学位移水脂分离的影响,GE推出了定量非对称回波的最小二乘估算法迭代水脂分离序列(iterative decomposition of water and fat with echo asymmetry and least squares estimation quantification sequence, IDEAL-IQ)又称“T2*修正梯度多回波水脂分析脂肪定量技术”[9]。IDEAL-IQ技术由DIXON技术发展而来,通过非对称采集技术和迭代最小二乘水脂分离算法,对T2*衰减、脂肪多谱峰分布等进行校正,把水脂分离从定性提升到定量。IDEAL-IQ通常采用6个回波采集信号,还能通过多种技术减轻相关因素的影响,比如校正后的局部磁场均匀性位图、T1弛豫、脂肪多峰成份的化学位移、涡流等,来改善脂肪定量的准确性。此外,IDEAL-IQ技术通过并行采集技术提高图像获取速度,全部扫描可在单次屏气内完成,由于采用小翻转角激发,降低了水像、脂像和脂肪分数图像中的T1效应,一次扫描便可生成纯肪脂像、脂肪比像、同相位像、反相位像、纯水像和R2*弛豫图像,在脂肪比像和R2*弛豫图像上勾勒感兴趣区,便可自动获得感兴趣区内脂肪百分比含量和铁百分比含量,无需进一步后处理。

IDEAL-IQ获得的肝脏脂肪定量结果(图2),经与多种脂肪定量技术包括磁共振波谱成像(magnetic resonance spectroscopy, MRS)、活检穿刺等对比,具有很好的一致性。有研究为评估IDEAL-IQ技术对肝脏脂肪定量的准确性,根据脂肪含量将69例肝移植供肝者(部分供肝者有不同程度的脂肪肝)分成4组(组1为无脂肪肝;组2为5%-10%脂肪肝;组3为11%-15%脂肪肝;组4为>15%脂肪肝),并进行IDEAL-IQ扫描和穿刺活检,并通过脂肪分数图和病理分级之间的线性回归评估扫描的准确性。结果发现,IDEAL-IQ获得的肝脏脂肪分数与病理分级具有良好相关性(组1 R2为0.813;组2、3、4 R2为0.9286),IDEAL IQ在探测肝脂肪变性方面的敏感性和特异性分别是100﹪和77.1﹪,表明IDEAL-IQ在肝脏脂肪量化方面具有较高的准确性[9]。

图2 IDEAL-IQ脂肪量化图

为了进一步提高算法计算的精确度,飞利浦推出mDixon-Quant技术,用于肝脏脂肪定量。该技术不依赖于固定的同反相位时间,能保证同样的分辨率,缩短扫描时间,特别是用在腹部做动态增强扫描,能让病人少屏气2-3s。其次,该技术大大提高了算法的精确度,进一步降低算错概率的发生。当然,mDIXON也有不足,如可能在冠状位大范围扫描的时候出现周边四个角、由于B0场偏中心不均匀出现脂肪分数图像不均匀等。

2020年硕士毕业于北京航空航天大学生物医学工程专业。目前担任人工智能与临床创新研究院 前沿临床技术创新部 前沿产品研究员,研究方向包括心血管流体动力学,动脉粥样硬化建模仿真,磁共振成像。

8

9

因此,研发人员以此为基础,推出mDIXON XD_Quant:采用梯度回波序列做的3D采集,采集6个回波,可以实现七种对比度的显示(IP、OP、Water-压脂、Fat-压水、FF脂肪分数、T2*和R2*),通过分析7个脂肪峰精确测量脂肪含量及T2*mapping和R2*mapping成像,结合T2*和R2*,可推测铁含量[10]。同样的,研究人员利用mDixon-Quant技术也开展了大量的研究工作。张勇等利用MR mDixon-Quant技术评估Ⅱ型糖尿病组与正常对照组研究对象的肝脏脂肪含量,发现糖尿病组脂肪肝的检出率高于正常对照组,认为MR mDixon-Quant技术可简便、精确量化肝脏脂肪含量,可为Ⅱ型糖尿病合并非酒精性脂肪肝患者的筛查、诊断和治疗提供帮助[5]。此外,由于脂肪在肝脏组织的微环境比较复杂,因此需要采用动物实验来更好验证。为此,与以往采用不同比例的脂肪和水的混合物来验证磁共振测量准确性的研究不同,北京积水潭医院程晓光教授团队,利用飞利浦3T磁共振Ingenia的mDixon Quant技术,扫描测量自行饲养的重度脂肪肝不同阶段的朗德鹅肝脏的脂肪含量,并将测量值与生化提取的甘油三酸酯的体积百分比进行了比较[11]。实验结果表明,MRI的质子密度脂肪分数(MRI-PDFF)的感兴趣区(ROI)与生化测量和组织学的样本区基本匹配。这说明,mDixon Quant评估肝脏脂肪含量的方法准确,可进一步推广至临床中肝脂肪变性的评估和监测。为了进一步验证动物研究的结果在人群的适用性,该团队前瞻性地测量了400位22至83岁之间的志愿者的肝脏脂肪百分比[12]。结果表明,mDixon Quant测量的MRI质子密度脂肪分数(PDFF)对轻度和中度肝脂肪变性的诊断均具有良好的敏感性和特异性,可以作为肝脂肪变性的可靠筛查和定量工具。

肝细胞肝癌(hepatic cell carcinoma, HCC)是最常见的肝脏原发恶性肿瘤,在东方人群中,80%-90%的HCC伴有肝硬化背景,而12%-20%的肝硬化也将进展为HCC[15]。其中,小肝癌是肝硬化发展为HCC的一个阶段,通常指单个癌结节最大直径不超过3厘米或两个癌结节直径之和不超过3厘米的肝癌。肝硬化时常伴有铁沉积,此前的研究认为肝癌的演变可能与铁过载导致细胞增殖及DNA损害有关[16]。同时,肝硬化背景下肝内结节的铁含量也会随着病变的进展发生相应变化。因此,定量评估肝铁含量有助于鉴别肝脏结节的性质,从而提高对HCC早期诊断的敏感性。在肝硬化背景上,铁常选择性地沉积于肝硬化结节内,再生结节(RN)和不典型增生结节(DN)均可出现铁沉积[15]。沉积的铁可位于肝细胞内,也可位于网状内皮系统,前者可能与肝细胞膜表面介导内源性铁摄取的转铁蛋白受体表达增加有关,后者主要与Kupffer细胞数目及功能有关。铁与HCC的发生关系密切,既可通过氧自由基的产生对细胞造成直接损害,也可通过改变局部免疫微环境间接促使肝细胞癌变。已有研究表明,肝硬化结节癌变后,肿瘤组织内铁的含量明显减少。在HCC的多步进展中,铁沉积的减少是其早期征象之一,表现为铁沉积背景下的乏铁灶[17]。因此,结节内铁含量的差异有助于HCC与癌前结节的鉴别。
目前,用于判定肝脏铁含量的技术比较多元化,主要包括:测定肝脏与椎旁肌肉的T2信号比值、同反相位信号差异、以自旋回波为基础的R2/T2定量、以梯度回波为主的R2*/T2*定量、磁敏感加权成像(SWI)、定量磁化率成像(QSM)或超短回波时间(ultro short echo time,UTE)等。其中,Ferriscan的R2定量结果广泛被认可[18]。但是,这一商用软件的使用成本较高,难以广泛普及。R2*/T2*定量扫描时间短、后处理简单,已有研究表明R2*/T2*定量结果与Ferriscan具有很好的线性相关性及可重复性,且对轻度铁过载测量敏感性及准确性相对R2更高,是目前多国铁过载治疗的专家指南推荐的检查手段。

图3 mDixon Quant脂肪量化图 

>

3. 肝脏铁定量

2020年硕士毕业于北京航空航天大学生物医学工程专业。目前担任人工智能与临床创新研究院 前沿临床技术创新部 前沿产品研究员,研究方向包括心血管流体动力学,动脉粥样硬化建模仿真,磁共振成像。

10

11

LiverLab肝脏定量的实现思路如图4所示[17]。第一步:首先进行单次屏气两点法Dixon成像,初步粗略评价是否存在可疑的脂肪或铁沉积。在此过程中,通过先进的肝脏分割算法,设备会对肝脏组织进行识别,在各个扫描层面将肝脏轮廓自动勾勒出来,此后,所有来源于肝脏的数据被自动整合计算,最后得出粗略定量的结果(正常、脂肪沉积、铁沉积、同时存在脂肪和铁沉积),用户可以根据该结果决定是否进行下一步的更为精准的定量程序。第二步:使用多回波Dixon法进行成像,并根据上一步中肝脏自动分割的结果自动生成全肝及ROI局部的脂肪及铁含量信息,并以脂肪百分数图及R2*/T2*数值结合彩虹图的形式进行显示,多回波法所得定量指标较两点法更为精准。第三步:HISTO肝脏波谱成像,使用波谱的手段对感兴趣区进行再次定量,获得R2/T2定量结果,为临床提供更丰富的诊断信息。

此外,为了减少或消除呼吸运动伪影,以往的多数肝脏定量参数扫描通常需要患者在扫描前进行呼吸训练,包括均匀呼吸和屏气。这不仅限制了覆盖空间,而且多数重病、儿科、老年等患者不能自主控制呼吸和屏气。因此自由呼吸(Free-Breathing)条件下,结合运动补偿(motion compensated)的MR数据采集成为研究热点。Zhang等人提出一种3D可变翻转角(variable-flip-angle, VFA)的径向扫描序列。该序列具备运动补偿的能力,在自由呼吸的条件下,可实现3分钟内覆盖肝脏容积的多参数成像,准确、重复地量化肝脏T1、R2*和质子密度脂肪分数(PDFF)。同时,采用并行成像技术,进一步缩短成像时间。健康志愿者实验也表明,自由呼吸扫描与屏气扫描结果具有良好的一致性(#879)。Li等人提出了一种全新的翻转恢复(inversion-recovery, IR)MR序列,用于在患者自由呼吸的情况下,3D肝脏快速磁共振成像。该序列在3D GRE序列的基础上结合了一个非选择性的180° IR脉冲,支持高对比度的水/脂分离以及自由呼吸条件下肝脏容积T1 mapping(#1015)。Zhong等人提出了一种自门控自由呼吸3D肝脏MR量化技术,自门控技术的加入有效校正了呼吸运动伪影,与屏气采集的3D笛卡尔方法相比,该技术能在患者自由呼吸的情况下准确地量化肝脏的R2*,尤其在儿科患者的肝脏脂肪和铁定量评估中具有重大潜力(#86-Siemens)。

图4 LiverLab肝脏脂肪及铁含量自动化分析流程图

>

4. 热门方向

近年来,多参数成像(Multi-Parameter Mapping,MPM)即单次扫描同时、快速获取T1、T2、R2、T2*、R2*以及脂肪分数等多种肝脏定量参数成为热门方向。今年的ISMRM大会录用并报道了大量相关研究成果。Jaubert等人提出了一种全新的梯度回波肝脏MR指纹(MR Fingerprinting, MRF)扫描序列,该序列支持在一次~15s屏气扫描中,同时获得肝脏T1、T2、T2*和脂肪分数(FF)等多种肝脏定量参数,能够有效避免不同呼吸阶段、不同扫描部位对定量参数的影响,用于肝脏疾病的评估和随访,包括肝脏肿瘤特征、铁超载、脂质含量和纤维变性等(#870)。

>

5. 总结

肝脏的脂肪堆积、铁过载均可能引起肝纤维化以及肝硬化,严重时甚至可能引起肿瘤。因此,肝脏的脂肪和铁定量评估一直都是临床研究的热点。当前临床认为,MRI是肝细胞癌诊断与监测的重要手段,MRI定量技术可能成为评估人体脂肪含量以及肝铁过载情况首选手段[8]。近些年,随着医学影像技术的发展,肝脏MR定量技术屡次创新,MR成像速度、效率以及质量均得以提升。然而,仍缺乏标准化扫描参数设置、后处理模式以及检查标准,因此MRI检查序列有待进一步优化;同时,需要建立更完善与更规范数据分析处理方法,从而优化MRI技术在脂肪肝、铁过载患者临床诊断、疗效评估中的应用效果。

2020年硕士毕业于北京航空航天大学生物医学工程专业。目前担任人工智能与临床创新研究院 前沿临床技术创新部 前沿产品研究员,研究方向包括心血管流体动力学,动脉粥样硬化建模仿真,磁共振成像。

12

13

[10] 李懋.飞利浦mDIXON家族序列特点及临床应用 [EB/OL]. (2017-11-20). [2020-09-18]. https://mp.weixin.qq.com/s/m7tWscinxuG9q6IFMmlD5w.
[11] Xu Li, Duanmu Yangyang, Blake Glen M., et al. Validation of goose liver fat measurement by QCT and CSE-MRI with biochemical extraction and pathology as reference. 2018.
[12] Guo Z., Blake G. M., Li K., et al. Liver Fat Content Measurement with Quantitative CT Validated against MRI Proton Density Fat Fraction: A Prospective Study of 400 Healthy Volunteers. Radiology[J], 2020,294(1): 89-97.
[13] Guo Zhe. Fat-water separation based on Transition REgion Extraction (TREE). Magnetic resonance in medicine[J], 2019.
[14] 中科院之声.磁共振全身脂肪定量成像技术研究取得新进展[EB/OL]. (2019-07-18). [2020-09-18]. https://mp.weixin.qq.com/s/coDq7FNRfQVPA28XXZJHTg.
[15] 李若坤. MR磁敏感加权成像在肝硬化结节多步癌变中的临床应用研究[D]: 复旦大学, 2012.
[16] 刘华平, 李文政, 李海兰, et al. 磁共振成像技术在肝脏铁过载的应用进展. 磁共振成像[J], 2017,8(006): 475-480.
[17] 赵欣智.MR定量诊断新篇章--肝脏自动化铁定量技术有助于HCC的早期识别[EB/OL]. (2018-05-24). [2020-09-18]. https://mp.weixin.qq.com/s/xg6q1zyJNUnEZpDiyTCMWA.
[18] 丁蕊, 贾继东. 肝脏铁过载的评估及治疗新进展. 临床肝胆病杂志[J], 2014,30(09): 961-964.

>

6.参考文献

[1] 尹子铭, 石建军, 续秋艳, et al. 磁共振对非酒精性脂肪肝定量诊断的初步研究. 医疗卫生装备[J], 2017,38(07): 63-66.
[2] 黄永红, 刘荣波. 磁共振定量技术在肝脏铁过载中的研究进展. 河北医学[J], 2019.
[3] 韩美叶. 浅谈核磁共振对肝硬化肝内结节的诊断价值 %J 影像研究与医学应用. 2019,3(03): 205-206.
[4] 魏晓萍. 磁共振技术对脂肪性肝病诊断的进展. 世界最新医学信息文摘[J], 2016,16(84): 26.
[5] 宋彬.肝脏脂肪变性的CT与MR定量研究[EB/OL]. (2017-06-23). [2020-09-18]. https://mp.weixin.qq.com/s/IHD9q13jgnAgCXmK2YOkPg.
[6] 张英魁.磁共振成像脂肪定量解决方案(一)[EB/OL]. (2019-08-27). [2020-09-18]. https://mp.weixin.qq.com/s/FODuz4aapK1mV0GIVmD2iQ.
[7] 马静, 宋志强, 宋琼, et al. T_2~*校正的多回波Dixon技术定量分析非酒精性脂肪肝的临床应用研究. 放射学实践[J], 2014,29(04): 423-427.
[8] 蒋涵羽, 刘曦娇, 磁共振成像 宋彬 %J. 磁共振成像技术在肝细胞癌中的应用进展. 2015,(2): 91-97.
[9] 吴小伟, 陈自谦. 磁共振IDEAL-IQ技术对肝脏脂肪定量的应用研究进展 学(电子版). 功能与分子医学影像[J], 2017,6(01): 1159-1162.

Lancet Neurol:预测卒中风险的颈动脉易损斑块的影像学标记物及其临床意义

颈动脉粥样硬化对缺血性卒中的发生起重要作用,约有18–25%的缺血性卒中归因于颈动脉粥样硬化性疾病引起的血栓栓塞。指南提示,颈动脉斑块相关性卒中风险不仅归因于狭窄程度,还可以归因于斑块成分。本综述讨论了颈动脉易损斑块的影像学生物标记物的进展,比较了斑块影像模态的相对优势和局限性,评估了斑块影像对于症状性和无症状性斑块患者的预测价值,讨论了疾病预防和研究的方向。该文章于2019年6月发表在Lancet Neurol期刊上,题目为Imaging biomarkers of vulnerable carotid plaques for stroke risk prediction and their potential clinical implications。

作者:王文馨 博士

成像技术(如超声、CT)的发展使得我们能够对颈动脉斑块的常规表征和易损性进行评估。美国神经放射学会(ASNR)和欧洲心脏病学会(ESC)的指南都强调,我们需要更好的诊断和治疗策略。2018年,ASNR血管壁影像学研究小组发布了指南,重点关注颈动脉斑块成像技术的影响。同年,ESC建议对于寿命更长的无症状患者应考虑进行颈动脉血运重建,如寿命大于五年、中度至重度(60-99%)的颈动脉狭窄,以及存在斑块易损性的影像学特征(例如斑块内出血或脂质丰富的坏死核心)。这些指南提示,颈动脉斑块相关的卒中风险不仅可归因于狭窄程度,还受到斑块成分的影响。
本综述讨论了颈动脉易损斑块的影像学生物标记物的进展,比较了斑块影像模态的相对优势和局限性,评估了斑块影像对于症状性和无症状性斑块(存在和不存在狭窄)患者的预测价值,讨论了疾病预防和研究的方向。

2019年获北京工业大学生物医学工程博士学位,2017年赴美国伍斯特理工学院数学系国家公派联合培养。目前担任人工智能与临床创新研究院 临床合作科学家,研究方向包括生物力学,医学影像等。

王文馨 博士

14

15

卒中是重要公共卫生问题之一。约有18–25%的缺血性卒中归因于颈动脉粥样硬化性疾病引起的血栓栓塞。欧洲和美国卒中指南提示,颈动脉斑块患者的卒中预防主要基于动脉粥样硬化过程中管腔直径的狭窄程度,选择最佳的治疗策略。然而,我们需要更好的卒中预防方案,因为某些类型的颈动脉斑块(如易损斑块)极有可能引发缺血性卒中和血栓并发症,而与狭窄程度的无关。

前言

1

◀ 背景与目的 ▶

颈动脉斑块的特征

2

斑块影像的目的是超越管腔(和狭窄程度)来识别卒中风险预测价值最高的颈动脉易损斑块的影像学生物标记物。在如下内容中,我们基于最佳证据来证实斑块易损性的相关特征(图1)。

16

17

3.斑块炎症和斑块内新生血管生成
斑块易损性的另一特征是炎症,通常与血管生成相关,被称为斑块活动。一项纳入62名动脉粥样硬化斑块患者的横断面研究发现,巨噬细胞斑块浸润、斑块破裂和缺血性症状之间存在相关性。通过MRI监测斑块内炎症,我们发现MRI与炎症的组织学标记物相关,表明MRI是斑块炎症的定量和无创性标记物。需要进一步研究加以证实。
分子影像是一种监测斑块炎症的新型技术。多种纳米颗粒,例如氧化铁、氟化钠或聚乙二醇分子,均已应用于患者和动物模型中的动脉粥样硬化的分子影像。
斑块易损性的另一个重要特征是斑块内新生血管形成,其与斑块活动相关,能够增高新血管破裂、出血和炎症风险。CT可用于监测和量化斑块内新生血管形成,因为CT的对比增强与斑块内新生血管形成的程度相关。通过MRI监测斑块内新生血管形成,发现斑块强化与斑块内新生血管生成程度之间存在相关性。动态对比增强灌注MRI测量,可以在给药后随时间(通常长达5-10分钟)测量组织内信号强度随时间的变化,从而量化斑块血管的形成。然而,动态对比增强灌注MRI的主要限制原因,是血管壁因其体积小而难以动态成像和存在较严重的运动伪影。
4.颈动脉斑块厚度
颈动脉斑块的厚度可通过超声、CT和MRI进行量化。最大斑块厚度是斑块易损性的特征,因为它与斑块大小和体积相关。Mannheim共识定义斑块的厚度大于等于1.5mm。一项对1072名患有脑缺血症状的患者的横断面研究表明,最大血沉厚度(通过MRI量化)与脑缺血症状的相关性高于狭窄程度,这表明斑块大小代表与中风发生相关的参数。
5.表面形态
颈动脉斑块的表面可以分为光滑、不规则(表面起伏0.3mm-0.9mm)或溃疡(管腔1mm)。管腔表面形态不规则,特别是溃疡的存在,被认为是卒中的危险因素。然而,溃疡可能是以前斑块破裂的标志,因此其预测价值尚不确定。颈动脉斑块表面可以通过超声、CT和MRI评估,这些影像手段具有不同的准确性。

图1:斑块易损性的影像学特征。上、中、下图分别为CT、MRI和超声影像图。对于第1列(斑块内出血)和第2列(富含脂质的坏死核心,LRNC)箭头提示3种影像学检查方式监测到的特征,MRI是监测斑块内出血的最佳影像学技术,因为其外观取决于血红蛋白的氧化状态,可以使用常规的影像学序列进行监测。超声和CT不适合斑块内出血的监测。CT和MRI能够监测脂质成分。超声不能有效监测LRNC, 因为L RNC与斑块内出血区难以区分,这两种特征均为低回声。第3列为新生血管生成, 可见CT和MRI适合新生血管生成的监测, 因为CT的对比增强与斑块内新生血管形成的程度相关。MRI上斑块强化与斑块内新生血管生成程度之间也存在相关性。第4列是颈动脉斑块厚度,可见颈动脉斑块的厚度可通过超声、CT和MRI进行量化。第5列是表面形态,可见颈动脉斑块表面可以通过超声、CT和MRI评估,这些影像手段具有不同的准确性。最后1列是对颈动脉斑块体积的评估,红线显示颈动脉斑块壁的内部边界;黄线表示颈动脉斑块壁的外边界;绿色代表脂肪成分;蓝色表示混合成分。
1.斑块内出血
斑块内出血是颈动脉易损斑块的关键特征之一,能够促进富含脂质的坏死性核心区域(LRNC) 的增大和斑块的快速进展。一项纳入了9项研究的Meta分析表明,MRI监测的颈动脉斑块内出血提示,症状性和无症状的颈动脉狭窄患者未来发生缺血性卒中的风险增高(风险比[HR]4.59,95% CI 2.91-7.24)。斑块内出血被认为是与卒中发生相关行最强的影像学参数。MRI是监测斑块内出血的最佳影像学技术,因为其外观取决于血红蛋白的氧化状态,可以使用常规的影像学序列(T1加权序列饱和脂肪自旋回波、反转梯度涡轮回波序列、或反转恢复快速破坏梯度回波序列)进行监测。超声和CT不适合斑块内出血的监测。
2.富含脂质的坏死区和纤维囊
斑块易损性的另外两个特征在于LRNC和纤维囊。CT和MRI能够监测脂质成分;超声不能有效监测LRNC,因为难以区分LRNC与斑块内出血区域,这两种特征均为低回声。纤维囊(薄或破损的囊壁) 的改变是易损斑块的另一重要特征。MRI是监测纤维囊的首选影像学手段。

18

19

颈动脉斑块易损性的生物标记物可以作为新型替代性标记物,不仅用于卒中,也可以用于系统性动脉粥样硬化血栓形成风险的评估。
3.存在非狭窄性斑块患者的高危斑块特征的识别
尽管冠状动脉中的狭窄斑块是心肌梗死的公认病因,但是颈动脉中的狭窄斑块在卒中发病中的作用有待于进一步研究。越来越多的证据表明,即使患者不存在中重度狭窄(>50%),卒中也可以由颈动脉易损斑块引发。
4.动脉粥样硬化斑块的纵向评估
一项纵向研究表明,颈动脉斑块的进展,特别是斑块内出血的增大,与卒中发生风险增高相关。尽管动脉粥样硬化通常被认为是慢性不可逆疾病,纳入了7项研究的荟萃分析表明,动脉粥样硬化可以通过高剂量的降脂治疗而减轻,如图2。还有研究表明,有效内科治疗(例如降脂和抗炎)能够驱动斑块逆转,转变为稳定表型。

6.颈动脉斑块体积
颈动脉斑块体积可能是颈动脉斑块易损性的重要特征。研究发现颈动脉斑块体积与斑块易损性和卒中相关。一项回顾性研究分析了两组患者的颈动脉斑块组成和体积变化,发现颈动脉斑块的体积与斑块易损性和卒中相关。由于CT具有良好的空间分辨率,因此可以根据体素的衰减值准确计算出总的颈动脉斑块体积和斑块亚成分的体积(例如脂肪,混合,钙化)。对63例有症状的同侧颈动脉粥样硬化狭窄(30-69%狭窄)的患者进行了纵向研究,随访55个月,MRI评估的颈动脉斑块体积逐年增加与复发性缺血性卒中独立相关。MRI与CT相似,对量化颈动脉斑块的体积非常有价值。尽管MRI的空间分辨率低于CT,但MRI软组织对比度更高。对七项三维超声研究的荟萃分析发现,评估颈动脉斑块体积具有良好的可重复性。

卒中的预防

3

有研究详细报道了对于患有中度(50%-69%)或重度(70%-99%)颈动脉狭窄的症状患者(即既往存在短暂性脑缺血发作或卒中发作),颈动脉血管重建能够有效预防复发性卒中。斑块成像能够鉴别存在稳定性斑块而且不需要进行颈动脉介入的患者。辨别存在稳定性和不稳定性斑块的无症状颈动脉狭窄患者以及可能从颈动脉干预治疗中实现临床获益的患者,至关重要。
1.存在临床表现的颈动脉狭窄患者的复发卒中风险预测
存在症状的颈动脉硬化患者,通常进行颈动脉血运重建以预防卒中复发。短暂性脑缺血发作后,最初的90天内卒中风险为3.7%-11.7%。斑块易损性(例如斑块内出血、LRNC、纤维囊的状态)的特征与缺血性卒中发生风险密切相关。一些颈动脉斑块特征提示严重狭窄患者的复发性卒中风险较低,如严重钙化的斑块。
2.无症状性颈动脉狭窄患者卒中初次发作的风险预测
存在高危颈动脉斑块的无症状患者的原发性卒中的预防具有挑战性,因为破裂的风险与狭窄程度无关。卒中风险与纤维囊变薄或破裂、斑块内出血、最大LRNC增大和最大斑块厚度增大相关。对于既往无短暂性脑缺血发作史的患者,我们可能会监测到具有卒中发生预测风险影像学特征-即斑块内出血、纤维囊变薄或破裂、LRNC的最大百分比,以及最大斑块厚度的增大。

图2:他汀类药物治疗后斑块减小。A-C是72岁老年男性患者在2015年7月的影像结果,D-F是该患者在2017年7月的影像结果。A-D,B-E和C-F分别为对比增强磁共振血管造影、T1脂肪饱和快速自旋回波及其增强像的对比结果,可见患者在他汀类治疗后,斑块减小,右侧颈内动脉管腔增大。

20

21

文章阐述了几点未来的挑战,包括斑块易损性的生物标记物参与临床决策。一些前瞻性研究已经发表了初步结果,或指出了实验的基本原理和设计方案,包括MESA、ARIC、ARIC、SCAPIS、CAPIAS、PARISK、CAIN、Rotterdam Scan Study、CARE­II、和HeCES。另一个挑战是,根据斑块易损性的许多不同特征定义患者够个性化的最佳治疗方案,建立最佳风险模型,这些模型并非仅依赖于狭窄程度,而是将动脉粥样硬化斑块的形态和成分也纳入在内。最后,我们需要在随机临床试验中进一步评估颈动脉易损斑块在缺血性卒中预防的临床决策中的作用。这些临床试验的结果尚未公布,但是目前证据已经表明颈动脉斑块成像能够为患者带来临床获益。

结论和未来方向

43

一些影像学技术能够用于颈动脉斑块及其易损性的研究,这些影像学技术在某些情况下互补。超声(比其它的影像学技术)受操作人员影响较大,使纵向监测相对困难。CT的局限性主要在于患者接受的辐射剂量以及造影剂的潜在副作用(例如造影剂引发肾衰、低血压和支气管痉挛)是当前最适合评价斑块易损性的影像学技术。在MRI可以监测到的特征中,斑块内出血和未来卒中风险密切相关。这些新技术进入临床实践为时过早,因为目前尚未明确这些技术能否改善治疗策略,也没有彻底研究这些新技术对临床结果的影响。此外,记住最佳的斑块成像技术的要求也非常重要,如表1。证据表明,基于斑块特征进行治疗决策有助于降低医疗成本。
表1:颈动脉斑块成像的最低和最佳技术要求

文献总结

5

本综述针对缺血性卒中这一常见的疾病,从颈动脉易损斑块的角度进行论述,介绍了不同的颈动脉斑块成分和厚度对于研究结果的影响,讨论了颈动脉易损斑块的影像学生物标记物的进展,比较了斑块影像模态的相对优势和局限性,评估了斑块影像对于症状性和无症状性斑块(存在和不存在狭窄)的患者的预测价值,讨论了疾病预防和研究的方向。同时,也为后续研究指明了方向:研究新型MRI序列对颈动脉易损斑块的监测价值;设计临床试验,探究颈动脉斑块的患者的个性化最佳治疗方案,评估治疗效果等。

基于变换一致性的半监督医学图像分割

作者:郭宁宁

毕业于东北大学模式识别与智能系统专业,目前担任东软医疗人工智能与临床创新研究院AI算法研究员,从事人工智能与医学影像相结合的工作,研究方向包括医学图像质量优化、医学图像处理与分析等。

郭宁宁   硕士

22

23

文章介绍了一种用于医学图像分割的半监督方法,该方法在训练过程中引入了数据扰动(翻转、旋转、噪声等)和模型扰动(随机丢弃)来构建同一输入在不同扰动下的一致性,通过监督损失和非监督损失的加权组合来优化网络。本文的标题是《Transformation-consistent Self-ensembling Model for Semi-supervised Medical Image Segmentation》,已发表于2020年6月的IEEE Transactions on Neural Networks and Learning Systems。

1、研究概况

2、研究背景和目的

从医学图像(如皮肤镜图像,眼底和3D计算机断层扫描(CT)扫描)分割解剖结构或异常区域对于临床实践具有重要意义。近年来,深度学习技术在语义分割任务上取得了令人瞩目的进展,并成为计算机视觉和医学成像界的主流选择。深度神经网络的成功通常取决于大量的有标签的数据集。然而,获得有标签的数据既困难又昂贵,特别是在医学成像领域,只有专家才能提供可靠的数据标签。例如,在临床中心有成千上万的皮肤镜图像记录,但是经验丰富的皮肤科医生对黑素瘤的标注却非常少,参见图1。在视网膜眼底图像的视盘分割中,和CT扫描的肝脏分割中,也存在同样的情况,特别是CT扫描图像,需要以逐层勾画的方式在多层图像中进行标注,非常耗时并且昂贵。然而,有标签数据的缺乏激励了可以在有限的监督下进行训练的方法的研究,如半监督学习、无监督学习等方法。
半监督学习旨在从有限数量的有标签数据和任意数量的无标签数据中学习,这是一个非常有挑战性的问题,对现实世界的临床应用具有很大的影响。半监督问题已被医学影像研究界广泛研究[13-17],半监督学习在医学图像分割方面的最新进展以深度学习为特色[5,18-21]。Bai等人[18]提出了一种用于心脏磁共振图像分割的半监督深度学习模型,其中来自无标签数据的分割图被添加到训练集中以完善分割网络。其他半监督学习方法是基于最新技术的,例如变分自动编码器(VAE)[5]和生成对抗网络(GAN)[19]。本文从不同的角度解决了半监督分割问题,随着自组装模型在半监督分类问题中的成功[22],作者将该方法进一步扩展到医学图像分割任务,包括2D样本和3D样本的分割。
本文提出了一种基于变换一致性自组装(Transformation-consistent Self-ensembling Model, TCSM)策略的医学图像分割半监督学习方法。整个框架是通过有监督损失和无监督损失的加权组合进行训练和优化的。有监督损失旨在利用有标注的数据进行准确的预测。在分割任务中需要预测像素级分类,如果输入图像做了一个变换(例如旋转),则预期的输出图像应该以相同的方式进行变换。

郭宁宁   硕士

24

25

而在分类任务中,当CNN的输入旋转时,相应的网络输出将不会以相同的方式旋转[23]。在这方面,本文通过在网络的输入和输出空间引入变换(即旋转,翻转)一致方案来利用此属性。具体来说,就是通过最小化同一输入在不同转换下的网络输出之间的差异来设计无监督损失。为了进一步改善正则化,本文对TCSM_v1进行了改进,主要区别在于:本文通过缩放操作扩展了变换一致性正则化方法,并在缩放一致性方案下优化了网络;此外,本文采用基于滑动平均的教师模型来预测扰动下的图像,以构建更好的目标,而TCSM_v1使用同一个模型进行两次推理,该模型具有教师模型和学生模型的双重角色;本文在三个有代表性的分割任务上对半监督医学图像分割方法进行了广泛的评估,即皮肤镜图像中的皮肤病变分割,视网膜图像的视盘分割以及CT肝脏分割,而TCSM_v1只在皮肤镜图像中的皮肤病变分割任务上进行了评估。总而言之,实验结果表明,与有监督方法相比,本文提出的半监督方法取得了显著改进,并且优于TCSM_v1和其他半监督分割方法。

图1 三个常见的医学图像分割任务。第一排,第二排和第三排显示了皮肤镜检查图像中的皮肤病变分割,视网膜眼底图像中的视盘分割以及CT扫描的肝脏分割。 蓝色表示结构边界,红色表示肝脏。

3.1 基于平均教师的半监督框架

3、研究方法

郭宁宁   硕士

26

27

3.2变换一致性自组装模型

1) 动机:在一般的自组装半监督学习中,可以很容易地为分类问题设计正则化和扰动。然而,在医学图像领域,对重要结构或病变进行精确的分割是一个非常具有挑战性的问题,因此对于分割任务的扰动更值得探讨。这两个常见任务之间的一个显著区别是,分类问题是变换不变的,而分割任务则是变换等价的。具体而言,对于图像分类,卷积神经网络仅识别整个图像中是否存在物体,无论将什么数据转换操作(即平移,旋转和翻转)应用于输入图像,其分类结果都应该保持不变。在图像分割任务中,如果旋转输入图像,则分割蒙版也应该做相同的旋转,参见图3(a)中的示例。但是,一般而言,卷积不是变换(即翻转,旋转)等价的,这意味着如果旋转或翻转CNN的输入,则其特征图不一定以有意义的方式旋转[23],如图3(b)所示。因此,由一系列卷积组成的卷积网络也不是变换等价的。形式上,输入x的每个变换π∈Π与输出的变换ψ∈Ψ是有关联的,即ψ[f(x)]=f(π[x]),但通常π≠ψ。

图3 (a)分割任务期望旋转等价。如果旋转输入图像,则分割蒙版应以相同方式旋转。 (b)卷积通常不是旋转等价的。如果旋转输入图像,则生成的输出与以相同方式旋转的原始输出不相同。

郭宁宁   硕士

28

29

对于视网膜眼底图像数据集,使用JA评分来测量视盘分割的准确性。
对于肝脏CT数据集,采用DI评分来测量肝脏分割结果的准确性。
4.1皮肤镜图像数据集实验
1)在不同数量的有标签数据下的结果
表1展示了在不同数量的有标签/无标签数据下,TCSM_v1和TCSM_v2(有标签数据和无标签数据训练)和有监督方法(仅用有标签数据训练)的皮肤镜图像病变分割结果。图4中绘制了结果的JA评分。

郭宁宁   硕士

30

31

2)与其他半监督分割方法的比较
在本实验中,作者将TCSM_v2与医学影像界的两种最新的半监督分割方法[18,28]和基于对抗学习的半监督分割方法[59]进行比较。另外,将半监督分类模型[52]扩展到分割进行比较。用于医学图像分割的方法[19]采用与基于对抗学习的方法[59]类似的思想。为了公平地比较,作者在此数据集上使用相同的网络主干重新实现了这些方法。所有实验都使用相同的数据扩充和训练策略,均在50张有标签图像和1950张无标签图像的设置下进行实验。表2展示了不同方法在验证集上的JA性能。

图4 具有不同数量的有标签/无标签数据的皮肤镜图像数据集的验证集上的结果

从上述结果可以看出,在不同数量的有标签/无标签数据设置中,半监督方法始终比有监督方法表现更好,这表明我们的方法有效地利用了无标签数据并带来了性能的提升。在所有半监督学习实验中,作者使用了总共2000张图像(包括标记图像和未标记图像)训练网络。当有更多标记的训练图像可用时,有监督训练的性能将提高,参见图4中的蓝线。同时,随着更多有标签训练图像的出现,半监督学习的分割性能也将提高,参见图4中的橙色线。随着有更多有标签的样本可用,有监督训练和半监督学习之间的表现差距会缩小。当有标签数据集的数量较少时,由于正则化损失可以有效利用来自无标签数据的更多信息,因此本文提出的方法可以获得较大的改进。比较而言,随着标记数据的数量增加,改进变得有限。这是因为有标签和无标签的数据是从同一数据集中随机选择的,并且大量的标记数据可能会达到数据集的上限性能。
从TCSM_v1和TCSM_v2之间的比较中,可以看到TCSM_v2在不同数量有标签/无标签设置下持续提高了TCSM_v1的性能。从图4中使用2000个有标记图像训练的半监督方法和有监督方法之间的比较中可以看出,当使用所有标签时,TCSM_v2提高了JA性能。这个性能提升表明,无监督损失也可以为标记数据提供正则化。换句话说,在正则化项中的变换一致性要求可以鼓励网络学习更健壮的功能以提高分割性能。

如表2所示,TCSM_v2方法通过利用未标记的数据实现了4.07%的JA性能改善。与其他方法相比,TCSM_v2在有监督学习的基线上实现了最高的改进,比较结果显示了本文提出的半监督分割方法的有效性。

3)与挑战排行榜上的方法进行比较
作者还将TCSM_v2方法提交给ISIC 2017皮肤病变分割挑战赛,与最先进方法进行了比较[56]。共有21项提交,表3中列出了最高的结果,最终排名是根据测试集上的JA评分确定的。作者训练了两个模型:TCSM_v2和基线模型(有监督模型)。 TCSM_v2用300张带标签的图像训练,其他数据当做无标签数据使用。基线模型仅使用300个有标签数据训练。其他方法将所有标签的数据用作训练数据。

郭宁宁   硕士

32

33

如表3所示,TCSM_v2方法达到了最佳性能,优于最新方法[60],JA改善了1.6%(从76.5%降至78.1%)。 DI和SE的性能提升与JA相同,分别提高了1.1%和3.7%。由于采用了最新的网络架构,作者训练的带有300个标记数据的基准模型也优于其他方法。在这个强大的基准的基础上,半监督学习方法进一步取得了显着改进,证明了TCSM_v2模型的有效性。
4.2视网膜眼底图像数据集实验
表4展示了在10%的有标签的训练图像和20%的有标签的训练图像的设置下,TCSM_v2模型的结果,并与其他半监督方法进行了比较。

图5 对眼底图像和肝脏CT扫描进行半监督(20%有标签数据)分割结果的示例。蓝色表示视盘的分割边界,红色表示分割的肝脏。

4.3 LiTS数据集上的实验

从表4可以看出,在10%有标签训练图像的设置下,TCSM_v2模型实现了1.82%的改进,在所有这些方法中排名最高。同样,TCSM_v2模型在20%有标签训练图像的设置下所实现的改进也是最高的。图5展示了TCSM_v2半监督方法的一些眼底图像视盘分割和肝脏分割结果。

表5中分别展示了在10%的有标签的训练图像和20%的有标签的训练图像的设置下,TCSM_v2方法和其他三种半监督方法的性能。可以看到,TCSM_v2在10%和20%的有标签训练图像的设置中均实现了最高的性能改进,分别提高了5.33%和5.72%。在半监督学习中,在10%和20%的设置下,该方法始终比其他方法[18、28、52、59]具有更高的性能。图7第二行中是本实验的一些肝脏分割结果。

郭宁宁   硕士

34

35

如表3所示,TCSM_v2方法达到了最佳性能,优于最新方法[60],JA改善了1.6%(从76.5%降至78.1%)。 DI和SE的性能提升与JA相同,分别提高了1.1%和3.7%。由于采用了最新的网络架构,作者训练的带有300个标记数据的基准模型也优于其他方法。在这个强大的基准的基础上,半监督学习方法进一步取得了显着改进,证明了TCSM_v2模型的有效性。
4.2视网膜眼底图像数据集实验
表4展示了在10%的有标签的训练图像和20%的有标签的训练图像的设置下,TCSM_v2模型的结果,并与其他半监督方法进行了比较。

5、总结

本文提出了一种新颖有效的变换一致自组装半监督方法,用于医学图像分割。整个框架通过教师-学生模型的方案进行训练,并通过有监督和无监督损失的加权组合进行优化。为此,作者为分割任务引入了一种变换一致的自组装模型,增强了正则化功能,可以轻松地应用于2D和3D网络。对三个医学影像数据集(即皮肤病变,视网膜图像和肝脏CT数据集)的综合实验分析证明了该方法的有效性。

参考文献

1. D. Nie, L. Wang, Y. Gao, J. Lian, and D. Shen, “Strainet: Spatially varying stochastic residual adversarial networks for mri pelvic organ segmentation,” IEEE transactions on neural networks and learning systems, vol. 30, no. 5, pp. 1552–1564, 2018.
2. M. Mahmud, M. S. Kaiser, A. Hussain, and S. Vassanelli, “Applications of deep learning and reinforcement learning to biological data,” IEEE transactions on neural networks and learning systems, vol. 29, no. 6, pp. 2063–2079, 2018.
3. M. D. Kohli, R. M. Summers, and J. R. Geis, “Medical image data and datasets in the era of machine learning—whitepaper from the 2016 c-mimi meeting dataset session,” Journal of digital imaging, vol. 30, no. 4, pp. 392–399, 2017.
4. Y. Zhou, Y. Wang, P. Tang, S. Bai, W. Shen, E. Fishman, and A. Yuille, “Semi-supervised 3d abdominal multi-organ segmen- tation via deep multi-planar co-training,” in WACV. IEEE, 2019, pp. 121–140.
5. S. Sedai, D. Mahapatra, and S. e. a. Hewavitharanage, “Semi- supervised segmentation of optic cup in retinal fundus images using variational autoencoder,” in MICCAI. Springer, 2017, pp. 75–82.
6. V. Cheplygina, M. de Bruijne, and J. P. Pluim, “Not-so- supervised: a survey of semi-supervised, multi-instance, and transfer learning in medical image analysis,” Medical image analysis, vol. 54, pp. 280–296, 2019.

郭宁宁   硕士

36

37

13. X. You, Q. Peng, Y. Yuan, Y.-m. Cheung, and J. Lei, “Seg- mentation of retinal blood vessels using the radial projection and semi-supervised approach,” Pattern Recognition, vol. 44, no. 10-11, pp. 2314–2324, 2011.
14. N. M. Portela, G. D. Cavalcanti, and T. I. Ren, “Semi-supervised clustering for mr brain image segmentation,” Expert Systems with Applications, vol. 41, no. 4, pp. 1492–1497, 2014.
15. A. Masood, A. Al-Jumaily, and K. Anam, “Self-supervised learning model for skin cancer diagnosis,” in International IEEE EMBS Conference on Neural Engineering. IEEE, 2015, pp. 1012–1015.
16. L. Gu, Y. Zheng, R. Bise, I. Sato, N. Imanishi, and S. Aiso, “Semi-supervised learning for biomedical image segmentation via forest oriented super pixels (voxels),” in MICCAI. Springer, 2017, pp. 702–710.
17. S. Jaisakthi, A. Chandrabose, and P. Mirunalini, “Automatic skin lesion segmentation using semi-supervised learning technique,” arXiv preprint, 2017.
18. W. Bai, O. Oktay, and M. e. a. Sinclair, “Semi-supervised learning for network-based cardiac mr image segmentation,” in MICCAI. Springer, 2017, pp. 253–260.
19. D. Nie, Y. Gao, L. Wang, and D. Shen, “Asdnet: Attention based semi-supervised deep networks for medical image segmenta- tion,” in MICCAI. Springer, 2018, pp. 370–378.

7. Y. Hu, M. Modat, E. Gibson, W. Li, N. Ghavami, E. Bon- mati et al., “Weakly-supervised convolutional neural networks for multimodal image registration,” Medical image analysis, vol. 49, pp. 1–13, 2018.
8. W. M. Gondal, J. M. Köhler, R. Grzeszick, G. A. Fink, and M. Hirsch, “Weakly-supervised localization of diabetic retinopathy lesions in retinal fundus images,” in 2017 IEEE International Conference on Image Processing (ICIP). IEEE, 2017, pp. 2069–2073.
9. X. Feng, J. Yang, A. F. Laine, and E. D. Angelini, “Discrimina- tive localization in cnns for weakly-supervised segmentation of pulmonary nodules,” in MICCAI. Springer, 2017, pp. 568–576.
10. K. Kamnitsas, C. Baumgartner, C. Ledig, V. Newcombe, J. Simpson, A. Kane et al., “Unsupervised domain adaptation in brain lesion segmentation with adversarial networks,” in
International conference on information processing in medical imaging. Springer, 2017, pp. 597–609.
11. N. Dong, M. Kampffmeyer, X. Liang, Z. Wang, W. Dai, and E. Xing, “Unsupervised domain adaptation for automatic estimation of cardiothoracic ratio,” in MICCAI. Springer, 2018, pp. 544–552.
12. F. Mahmood, R. Chen, and N. J. Durr, “Unsupervised reverse domain adaptation for synthetic medical images via adversar- ial training,” IEEE transactions on medical imaging, vol. 37, no. 12, pp. 2572–2581, 2018.

郭宁宁   硕士

38

39

28. Y. Zhang, L. Yang, J. Chen, M. Fredericksen, D. P. Hughes, and D. Z. Chen, “Deep adversarial networks for biomedical image segmentation utilizing unannotated images,” in MICCAI. Springer, 2017, pp. 408–416.
29. A. Chartsias, T. Joyce, G. Papanastasiou, S. Semple, M. Williams, D. Newby, R. Dharmakumar, and S. A. Tsaftaris, “Factorised spatial representation learning: application in semi- supervised myocardial segmentation,” in MICCAI. Springer, 2018, pp. 490–498.
30. Y. Xia, F. Liu, D. Yang, J. Cai, L. Yu, Z. Zhu et al., “3d semi-supervised learning with uncertainty-aware multi-view co training,” arXiv preprint arXiv:1811.12506, 2018.
31. T. Cohen and M. Welling, “Group equivariant convolutional networks,” in ICML, 2016, pp. 2990–2999.
32. S. Dieleman, J. D. Fauw, and K. Kavukcuoglu, “Exploiting cyclic symmetry in convolutional neural networks,” in ICML, 2016, pp. 1889–1898.
33. X. Li, L. Yu, C.-W. Fu, and P.-A. Heng, “Deeply supervised rotation equivariant network for lesion segmentation in der- moscopy images,” pp. 235–243, 2018.
34. M. Emre Celebi, Q. Wen, S. Hwang, H. Iyatomi, and G. Schae- fer, “Lesion border detection in dermoscopy images using ensembles of thresholding methods,” Skin Research and Tech- nology, vol. 19, no. 1, 2013.
35. T. Heimann and H.-P. Meinzer, “Statistical shape models for 3d medical image segmentation: a review,” Medical image analysis, vol. 13, no. 4, pp. 543–563, 2009.

20. C. S. Perone and J. Cohen-Adad, “Deep semi-supervised seg- mentation with weight-averaged consistency targets,” in Deep Learning in Medical Image Analysis and Multimodal Learning for Clinical Decision Support. Springer, 2018, pp. 12–19.
21. P.-A. Ganaye, M. Sdika, and H. Benoit-Cattin, “Semi- supervised learning for segmentation under semantic con- straint,” in MICCAI. Springer, 2018, pp. 595–602.
22. S. Laine and T. Aila, “Temporal ensembling for semi-supervised learning,” in ICLR, 2017.
23. D. E. Worrall, S. J. Garbin, D. Turmukhambetov, and G. J. Brostow, “Harmonic networks: Deep translation and rotation equivariance,” in CVPR, vol. 2, 2017.
24. X. Li, L. Yu, H. Chen, C.-W. Fu, and P.-A. Heng, “Semi- supervised skin lesion segmentation via transformation consis- tent self-ensembling model,” BMVC, 2018.
25. K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual learning for image recognition,” in CVPR, 2016, pp. 770–778.
26. H. Jegou, M. Douze, and C. Schmid, “Product quantization for nearest neighbor search,” IEEE transactions on pattern analysis and machine intelligence, vol. 33, no. 1, pp. 117–128, 2010.
27. K. He, X. Zhang, S. Ren, and J. Sun, “Spatial pyramid pooling in deep convolutional networks for visual recognition,” IEEE transactions on pattern analysis and machine intelligence, vol. 37, no. 9, pp. 1904–1916, 2015.

郭宁宁   硕士

40

41

42. O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical image segmentation,” in MICCAI. Springer, 2015, pp. 234–241.
43. F. Milletari, N. Navab, and S.-A. Ahmadi, “V-net: Fully con- volutional neural networks for volumetric medical image seg- mentation,” in International Conference on 3D Vision. IEEE, 2016, pp. 565–571.
44. L. Yu, H. Chen, Q. Dou, J. Qin, and P.-A. Heng, “Automated melanoma recognition in dermoscopy images via very deep residual networks,” IEEE transactions on medical imaging, vol. 36, no. 4, pp. 994–1004, 2017.
45. H. Fu, J. Cheng, Y. Xu, C. Zhang, D. W. K. Wong, J. Liu, and X. Cao, “Disc-aware ensemble network for glaucoma screening from fundus image,” IEEE transactions on medical imaging, vol. 37, no. 11, pp. 2493–2501, 2018.
46. J. H. Tan, U. R. Acharya, S. V. Bhandary, K. C. Chua, and S. Sivaprasad, “Segmentation of optic disc, fovea and retinal vasculature using a single convolutional neural network,” Jour- nal of Computational Science, vol. 20, pp. 70–79, 2017.
47. F. Lu, F. Wu, P. Hu, Z. Peng, and D. Kong, “Automatic 3d liver location and segmentation via convolutional neural network and graph cut,” International Journal of Computer Assisted Radiology and Surgery, vol. 12, no. 2, pp. 171–182, 2017.
48. D. Yang, D. Xu, S. K. Zhou, B. Georgescu, M. Chen, S. Grbic, D. Metaxas, and D. Comaniciu, “Automatic liver segmentation using an adversarial image-to-image network,” in MICCAI. Springer, 2017, pp. 507–515.

36. Y. He and F. Xie, “Automatic skin lesion segmentation based on texture analysis and supervised learning,” in ACCV. Springer, 2012, pp. 330–341.
37. A. R. Sadri, M. Zekri, S. Sadri, N. Gheissari, M. Mokhtari, and F. Kolahdouzan, “Segmentation of dermoscopy images using wavelet networks,” IEEE transactions on biomedical engineer- ing, vol. 60, no. 4, pp. 1134–1141, 2013.
38. J. Cheng, J. Liu, Y. Xu, F. Yin, D. W. K. Wong, N.-M. Tan, D. Tao, C.-Y. Cheng, T. Aung, and T. Y. Wong, “Superpixel classification based optic disc and optic cup segmentation for glaucoma screening,” IEEE transactions on medical imaging, vol. 32, no. 6, pp. 1019–1032, 2013.
39. M. D. Abramoff, W. L. Alward, E. C. Greenlee, L. Shuba, C. Y. Kim, J. H. Fingert, and Y. H. Kwon, “Automated segmentation of the optic disc from stereo color photographs using physiolog- ically plausible features,” Investigative Ophthalmology & Visual Science, vol. 48, no. 4, pp. 1665–1673, 2007.
40. G. Chlebus, A. Schenk, J. H. Moltz, B. van Ginneken, H. K. Hahn, and H. Meine, “Automatic liver tumor segmentation in ct with fully convolutional neural networks and object-based postprocessing,” Scientific reports, vol. 8, no. 1, p. 15497, 2018.
41. Ö. Çiçek, A. Abdulkadir, S. S. Lienkamp, T. Brox, and O. Ron- neberger, “3d u-net: learning dense volumetric segmentation from sparse annotation,” in MICCAI. Springer, 2016, pp. 424– 432.

郭宁宁   硕士

42

43

57. P. Bilic, P. F. Christ, E. Vorontsov, G. Chlebus, H. Chen, Q. Dou, C.-W. Fu, X. Han, P.-A. Heng, J. Hesser et al., “The liver tumor segmentation benchmark (lits),” arXiv preprint arXiv:1901.04056, 2019.
58. H. Seo, C. Huang, M. Bassenne, R. Xiao, and L. Xing, “Modi- fied u-net (mu-net) with incorporation of object-dependent high level features for improved liver and liver-tumor segmentation in ct images,” IEEE transactions on medical imaging, 2019. 59. W.-C. Hung, Y.-H. Tsai, Y.-T. Liou, Y.-Y. Lin, and M.-H. Yang,
59. W.-C. Hung, Y.-H. Tsai, Y.-T. Liou, Y.-Y. Lin, and M.-H. Yang,“Adversarial learning for semi-supervised semantic segmenta- tion,” BMVC, 2018.
60. Y. Yuan and Y.-C. Lo, “Improving dermoscopic image segmen- tation with enhanced convolutional-deconvolutional networks,” IEEE journal of biomedical and health informatics, vol. 23, no. 2, pp. 519–526, 2017.
61. G. Venkatesh, Y. Naresh, S. Little, and N. E. O’Connor, “A deep residual architecture for skin lesion segmentation,” in OR 2.0 Context-Aware Operating Theaters, Computer Assisted Robotic Endoscopy, Clinical Image-Based Procedures, and Skin Image Analysis. Springer, 2018, pp. 277–284.
62. M. Berseth, “Isic 2017-skin lesion analysis towards melanoma detection,” arXiv preprint, 2017.
63. L. Bi, J. Kim, E. Ahn, and D. Feng, “Automatic skin lesion analysis using large-scale dermoscopy images and deep residual networks,” arXiv preprint, 2017.

49. Y. Yuan, M. Chao, and Y.-C. Lo, “Automatic skin lesion seg mentation using deep fully convolutional networks with jaccard distance,” IEEE transactions on medical imaging, vol. 36, no. 9, pp. 1876–1886, 2017.
50. X. Li, H. Chen, X. Qi, Q. Dou, C.-W. Fu, and P.-A. Heng, “H- denseunet: hybrid densely connected unet for liver and tumor segmentation from ct volumes,” IEEE transactions on medical imaging, vol. 37, no. 12, pp. 2663–2674, 2018.
51. M. Sajjadi, M. Javanmardi, and T. Tasdizen, “Regularization with stochastic transformations and perturbations for deep semi- supervised learning,” in NIPS, 2016, pp. 1163–1171.
52. A. Tarvainen and H. Valpola, “Mean teachers are better role models: Weight-averaged consistency targets improve semi- supervised deep learning results,” in NIPS, 2017, pp. 1195– 1204.
53. G. Huang, Z. Liu, L. Van Der Maaten, and K. Q. Weinberger, “Densely connected convolutional networks.” in CVPR, vol. 1, no. 2, 2017, p. 3.
54. D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,” arXiv preprint arXiv:1412.6980, 2014.
55. A. Paszke, S. Gross, S. Chintala, G. Chanan, E. Yang, Z. De- Vito, Z. Lin, A. Desmaison, L. Antiga, and A. Lerer, “Automatic differentiation in PyTorch,” in NIPS Autodiff Workshop, 2017.
56. N. C. Codella, D. Gutman, M. E. Celebi, B. Helba, M. A. Marchetti, S. W. Dusza et al., “Skin lesion analysis toward melanoma detection: A challenge at the 2017 international symposium on biomedical imaging (isbi),” in ISBI. IEEE, 2018, pp. 168–172.

人工智能在心脏影像诊断中的研究进展

心脏影像诊断是评估心脏疾病的主要方法之一。目前,MRI、CT、超声、核医学等心脏成像技术已普遍应用于临床,其临床价值亦得到广泛认可。但图像后处理较为耗时并且易受影像医师个人主观因素的影响,导致对疾病检出或病情程度判断的结果不一致,故而有其局限性。人工智能(artificial intelligence,AI)是以计算机科学为基础进行的多领域多学科交叉研究,将模拟及扩展人的智能的理论和方式应用于生活的各个领域。
AI在医学成像领域的应用可以缩短图像后处理时间,基于大数据的客观分析使诊断结果更为可靠。基于AI技术的心脏影像诊断不仅使影像检查更为快速、安全,还能为病人提供经济、精准的医疗方案。

转自公众号:邵医影像 任宏 

CNN由输入层、输出层及中间隐藏层组成。每一层以端到端的方式连接,并且使用反向传播来优化权重。目前,CNN已成为提取心血管成像集中特征的“首选”方法。DL与传统的ML在医学成像中的应用各有优势。传统的ML适用于小数据的影像分析,且算法的执行时间较少,严格按照设置的标准将病灶拆分,再通过逐个分析得出结果、整合定义,但需要人工标记病灶特征,成本较高。而DL适用于大数据的处理,计算量庞大,但需大量耗时训练,对系统配置要求较高。此外,传统的ML按照人工标准定义病灶,而DL采取深度神经网络“端到端”的处理模式,即所谓“黑箱”模式,其结果有时使人费解,但这超越人类思维的处理模式同时也证明了DL在未来医学成像发展中的潜力。

王文馨 博士

44

45

AI分为传统的机器学习(machine learning,ML)和深度学习(deep learning,DL)。ML是通过将以往的经验性数据输入计算机中,基于大数据逐步学习规则和识别模式,通过分析人工设置的特征性指标得出结果。DL是在ML基础上引入多层感知机即人工神经网络,它是一种高度依赖大数据的算法,依靠建立的深度神经网络模拟人脑学习、分析病灶特征,其性能随着导入数据量和训练强度的增加而增强。两者主要学习模式均为监督学习和非监督学习。
监督学习是通过训练智能系统识别目标病灶特征与其定义标签的联系,按照标签结果自动对病灶进行精确的定义,可对通过影像扫描采集的离散型数据进行分类,对连续型数据进行回归分析。而非监督学习的训练数据并未录入标签,通过相似性确定分类的学习方法,由系统对数据进行聚类分析,自动从数据中提取一个特殊的结构。医学领域应用较多的为卷积神经网络(convolutional neural networks,CNN),可降低运算的复杂程度,减少训练参数的数目。

AI自动化处理和基本原理

1

基于AI的不同影像检查方法在心脏成像中的应用    

2

2.1心脏超声成像
AI在心脏超声中可对心脏进行检测、分类、分割和生成报告,而研究主要集中在分类和分割。Madani等研究表明AI在视图分类方面的性能与人工分类的超声心动图相似;Khamis等报道,AI利用一种新型的时间-空间特征训练和监督学习,可以正确地分类顶端双腔、顶端四腔和顶端长轴影像,准确度分别为97%、91%和97%。而心室的分割可为自动化测定射血分数提供基础,随着训练影像数量的增加,AI对心室分割的精准度更高。
AI可以在三维超声心动图数据采集中自动分割整个心动周期的左心室和左心房心内膜边界,从而可以精确测量左心室、左心房的容积和射血分数。Knackstedt等研究表明AI自动化测量超声心动图数据可靠,能可重复地计算射血分数和纵向应变。将自动生成的数值与通过视觉估计和手动追踪获得的数值进行比较,前者仅需约8s即可获得优于人工采集的图像和精准的数据,耗时大大减少。
AI对心室轮廓的自动分割和功能参数的自动计算不仅可以较好地诊断心脏疾病,还能客观地判断预后。Shah等利用心脏超声影像数据和临床变量组合训练AI对射血分数保留性心力衰竭病人分类并预测其预后,结果显示受试者操作特征曲线下面积(AUC)为0.70~0.76。但Tamborini等研究发现,对于少数病例(如先天性小心腔室疾病),AI不能很好地识别这类病人的左心室心肌。

利用CCTA数据,通过计算流体力学和血管解剖生理模型的结合可以模拟计算血流储备分数(fractional flow reserve,FFR)。AI也可以直接通过CCTA特征计算基于CTA的FFR(FFRCT),结果表明其对评估不良心血管事件风险具有实用价值。Dey等在一项多中心研究中,利用AI提取254例病人的CCTA影像特征预测FFR,发现基于AI的FFR对病变血管特异性缺血的诊断效能高于单独的CCTA。目前一些研究者也开展了基于CT影像的心脏分割研究。
Commandeur等通过对AI的训练和验证,结果显示全自动分割胸腔和心外膜脂肪的结果与心血管专家手动分割具有极好的相关性(相关系数分别为0.945和0.926),自动化分割仅需3s,而心血管专家手动分割则需10~11min。Zreik等也将AI应用于心肌内缺血性变化的CCTA影像的自动分析,可以鉴别心功能受限的冠状动脉狭窄。AI通过自动测量钙化积分、冠状动脉斑块体积及冠状动脉管腔狭窄程度,可获得CCTA中有关解剖学和功能的信息,更好地评估心血管病变,进而精准判断病人预后。
目前在AI的研究中,传统ML主要应用在基于CT影像数据分类分析对心血管疾病进行诊断和预后预测,而DL则是采取直接“端到端”模式对影像直接预测结果,适用于大型复杂数据的分析,如基因组学。传统ML的研究相对较成熟,基于CT影像数据的ML方法不仅可以提高诊断疾病的特异性并预测远期疾病进展风险,还可以预测病人的预后情况。
基于CCTA数据的ML预测冠状动脉疾病病人5年全因死亡率的AUC为0.79,Framingham风险评分为0.61,节段狭窄评分0.64,节段累积积分0.64,杜克指数0.62,ML结合动脉粥样斑块表征定量软件可对病人进行精确的心血管风险分层,对病人个体化精准治疗具有重要的临床意义。
综上,通过AI低剂量数据特征训练,在不改变影像诊断质量的前提下可大幅降低病人在一次扫描时所接受的辐射剂量。同时,AI对心脏自动分割的耗时不仅低至3s,而且对冠状动脉钙化斑块的分类、定性、定量及冠状动脉狭窄程度的判断一定程度上比人工诊断更精确,尤其是基于CCTA数据自动化计算的FFRCT对冠状动脉疾病病人进行预后风险评估的性能显著优于单独的临床和CCTA指标。
2.3心脏MRI
在心脏MRI中,自动分割心脏结构和鉴别心肌梗死组织是AI的研究热点。尤其是分割短轴图像重建中的心脏结构,可以量化心脏功能。Karim等利用AI对心脏MRI增强晚期影像进行自动分割,表明AI算法分割比固定模型具有更好的准确性。

王文馨 博士

46

47

而Genovese等对56例心脏MR检查提示心功能降低的病人采用AI-超声心动图全自动测量右心室大小、收缩末期及舒张末期体积和射血分数,结果显示通过AI-超声心动图可对所有病人的右心室进行定量分析,在32%的病人中实现了完全自动数据采集处理,另外68%在自动处理后还需编辑心内膜轮廓来保证数据的精确性。
因此,在目前的AI影像研究中,对于左心室的研究相对成熟,而对右心室影像和罕见病例的自动化处理可能还需要进一步扩充相关影像数据。尽管AI对于部分影像资料和罕见疾病数据仍无法实现完全自动化处理,但在对心脏超声影像的自动分割及房室容积的自动化测量、快速采集图像和数据收集得出射血分数等心功能指标,以及对病人分类的功能和预后评估方面,其效能均有较大技术突破。
有研究报道,基于超声数据库的人工神经网络可根据心阻抗图直接为临床提供重要的超声心动图参数,也能通过心电图筛查心脏收缩功能障碍。基于AI的心脏超声影像检查方法将来可进一步简化,成为一种更经济、高效的心脏检查技术。
2.2心脏CT成像
目前心脏CT成像的研究主要是基于AI的冠状动脉低剂量CT成像和针对血管狭窄段的直径、面积、长度的分析以及动脉硬化软硬斑块的检出与定量评估。AI中基于DL的图像重建不同于传统的迭代重建,在噪声数据库中,AI可以自动重组高噪声图像像素位点,从而降低图像噪声。
有研究者以低剂量特征训练AI中的CNN,可将病人的低剂量扫描影像重建为常规剂量的CT影像,展示了AI在改善冠状动脉CT影像重建中的价值。Tatsugami等以高辐射剂量扫描得到的优质冠状动脉影像作为训练数据,结果在低剂量冠状动脉CT血管成像(coronary computed tomography angiography,CCTA)上得到了低噪声、高分辨力的影像,并且输入更复杂的数据训练CNN时,可以增强基于DL的图像重建效能。AI已广泛应用于冠状动脉钙化积分和冠状动脉狭窄的定性、定量诊断。
通过两阶段分类法实现自动化低剂量心电门控CT冠状动脉钙化评分,其评分结果与手动操作一致性较高。Kang等应用AI自动化分类CCTA阻塞性和非阻塞性冠状动脉疾病,准确度高达94%,AUC为0.94。AI自动化分析能对斑块分类,对斑块总体积和冠状动脉狭窄数据的测定比单纯CCTA更精确。此外,基于AI的CCTA冠状动脉病变特征评分较传统的冠状动脉疾病报告与数据系统(coronary artery disease reporting and data system,CAD-RADS)评分能更好地区分是否发生心血管不良事件的病人。

加之部分体积效应引起的室腔边界模糊,左心室乳头肌、右心室小梁与周围心肌组织信号相似导致自动化处理时不易分割等问题,致使AI在心脏MRI中的应用还存在较多困难。但在2018年北美放射学年会上多位研究者报道了AI在心脏MRI中的技术突破,在诊断扩张型心肌病、测定心肌纤维化、快速采集高质量心脏MRI影像以及评估左心室容积方面均取得了较好的研究成果。随着AI算法的更新,心脏MRI在心脏疾病中的应用将具有潜在的良好价值。
2.4心脏SPECT和PET成像
AI对单光子发射体层成像(SPECT)的研究主要集中在评估心肌灌注。AI能对正常和异常的SPECT心脏图像进行分类,效能与人工视觉分类相似,而且相较于常规评分,人工神经网络对心肌异常部分检测时能够显著提高对心肌负荷显像、静息显像和应激性心肌缺血的识别能力,对于AI系统的再培训还能进一步增强其诊断心肌缺血的能力。AI中LogitBoost和支持向量机算法能整合心肌灌注成像的定量灌注、功能和临床变量数据,可显著改善SPECT的诊断效能。
Betancur等应用AI处理1638例病人心脏SPECT极坐标靶心图像,发现AI可以基于心肌总灌注不足识别阻塞性冠状动脉疾病,提高对CAD病人和病变血管的诊断准确率,同时,结合病人临床信息和心肌灌注SPECT数据进行风险评估的效能较单一心肌灌注SPECT数据更高,可以提高SPECT的准确性。
Arsanjani等研究也表明AI联合SPECT在预测心脏早期血运重建和心血管不良事件方面具有显著优势。AI也能处理正电子发射体层成像(PET)结合CCTA产生的冠状动脉功能障碍数据,对斑块狭窄、心肌负荷、心肌质量进行定量分析,且整合后进行风险评估,以量化受损心肌血流储备。但由于PET心脏成像成本较高,故很少应用于临床。尽管SPECT和PET成像时病人所接受的高辐射剂量仍然是AI用于心脏核成像模式的主要限制,但AI在SPECT和PET心肌灌注成像的应用价值已得到证实。随着研究的不断深入,AI在心脏SPECT和PET成像中的临床价值有望得到进一步提升。

王文馨 博士

48

49

Baessler等通过利用AI从MRI影像中提取心脏纹理特征来区分心肌梗死组和对照组,多重逻辑回归显示AUC为0.92,亦表明AI可以较好地鉴别心肌正常组织和梗死组织。
Bernard等已成功地在心脏MRI中自动分割左心室腔、左心室心肌和右心室,并基于图像数据诊断区分扩张型心肌病、肥厚型心肌病、左室射血分数改变的心肌梗死、右心室异常和无心脏疾病的病人,评价心功能方面,2D-3DU-Net集成模型效能最佳,左室射血分数和右室射血分数测量误差低于5%的病人分别占92%和68%。

AI还能基于输入的右心室三维心脏运动数据对肺动脉高压病人进行建模预测其生存率,表明了在心脏MRI中AI的应用对高风险病人早期干预可以起到积极作用。有研究报道,因临床检查需求不同(如心肌、血流),心脏MRI扫描需多个序列完成,单个序列检查需6~7min,且后处理耗时较长,完成需30min,而AI自动化分析单个序列,仅需不足1min,并且可获得高质量的对比增强曲线,2种方法所得影像的诊断效能基本一致(AUC为0.72和0.73),但由于MRI中不同的脉冲序列、扫描参数和成像协议使得自动化处理变得复杂,大多数基于AI的心脏MRI扫描和后处理仍需要人工辅助完成。

王文馨 博士

50

51

AI在心脏成像中的应用均以心脏分割和快速成像为核心,但在不同成像方法中各有优势。心脏超声主要通过射血分数评价心脏功能,今后可能围绕射血分数的自动化计算以及AI-心阻抗图-超声心动图参数快速检测进行研究,而心脏CT主要通过钙化斑块的自动化定性、定量和FFRCT对病人进行诊断及预后评估。
AI-MRI对心肌疾病(如心肌纤维化)的诊断优于其他成像方法,但由于序列复杂等多种因素限制,目前对图像的自动化处理程度不如CT和超声。SPECT和PET在心肌灌注、心脏早期血运重建和心血管不良事件预估方面有一定优势,但需要进行更多的实验进一步论证,且一次扫描中的高成本和高辐射剂量问题尚待解决。
目前基于AI的心脏成像技术在各个方面已取得了突破性进展,但需要认识其局限性:①ML依赖人工标记病灶特征进行学习,但人工成本偏高;而DL高度依赖大数据库进行优化,基于数据的产权问题使资料难以收集;②用以训练AI的数据库并不统一,自动化评估病灶的算法也不尽相同,对疾病的诊断、预后评估等仍存在一定偏差;③AI应用于临床带来的一系列如医疗安全、责任划分等伦理性挑战,目前仍没有很好的应对策略。随着AI研究进步,心脏影像诊断已经进入了一个新的时代,AI系统研发以及临床应用的日渐成熟,心脏影像检查将会为临床提供更多的信息,也将进一步推进精准医疗的发展。
来源:张湘敏,吕梁,刘兴利,宋巍,杨净松,杜自宏,龙芳敏.人工智能在心脏影像诊断中的研究进展[J].国际医学放射学杂志,2020,43(02):192-196.

小结

3

人工智能与临床创新研究院

主编:
编辑:

杨明雷
韩冬    杨俊    齐艳辉

NMS-AICIR@neusoftmedical.com

投稿方式

Copyright © 2024 陕西妙网网络科技有限责任公司 All Rights Reserved

增值电信业务经营许可证:陕B2-20210327 | 陕ICP备13005001号 陕公网安备 61102302611033号