0
本文作者: AI掘金志 | 编辑:李雨晨 | 2020-04-14 11:58 | 专题:雷锋网公开课 | 医疗 AI 云课堂 |
近期,雷锋网AI掘金志邀请东软医疗人工智能与临床创新研究院总监杨明雷博士,做客雷锋网公开课,以“影像设备成像端AI应用进展”为题进行,集中梳理了东软医疗在不同的设备端、不同专科疾病上的技术干货。
后续将有更多课程上线,添加微信公众号【医健掘金志】报名听课,或收看本节课程视频回放
自去年成立以来,东软医疗人工智能与临床创新研究院率先将AI技术应用于设备端,提升成像的质量和速度。
杨明雷表示,在MR方面,在AI技术的加持下,东软医疗的头部成像技术Smart BrainQuant可以将扫描时间从69分钟缩短至4分31秒;在CT方面,利用前沿空洞卷积和边缘检测算子技术优化低剂量扫描,在保证CT图像质量的同时降低辐射剂量。
除了在设备端,研究院还将AI拓展至专病领域,将AI整合到急性缺血卒中图像分析。东软开发的NeuBrain care软件可以自动分析完成脑卒中灌注影像,得出缺血半暗带和梗死灶的核心定量指标,提高脑卒中患者救治效率,目前该产品已经搭载在东软影像云上。
新冠肺炎爆发后,东软研发了全流程一体化快速AI筛查系统“火眼AI”,设计基于3D和2D混合卷积网络对病灶分割,再结合已有肺叶分割模型,实现对肺炎病灶定量分析。杨明雷介绍到,该方案结合采取了本地化和云平台两种部署方式,既可以直接在东软后处理工作站AVW升级,也可以搭载在东软智能医学影像云平台NewMiva。
目前,国际上已经相继研发出区分新冠肺炎和流感的“筛查区分模型”、帮助医生评估影像疾病发展的“病灶衡量模型”、临床信息建立的“预后分析模型”。杨明雷博士对这些成果一一进行了分享与讲解。
以下为杨明雷的演讲全文内容,雷锋网做了不改变原意的编辑。
东软医疗人工智能与临床创新研究院,成立的目标就是构建成像源头的AI平台,用AI来赋能全线医学影像设备,如MR、CT、DSA、US等。
通过开展专科化疾病前沿临床应用研究,解决脑卒中、心血管、肺癌、慢阻肺等疾病临床诊疗的痛点问题;同时通过与业内专家、医院、上下游厂商等建立广泛的科研合作,帮助提升临床诊疗水平和科研水平。
得益于高性能并行计算能力和神经网络算法的创新,以及深度学习在大数据上的优秀表现,深度学习不仅在自动驾驶、智能翻译等多个容易获取大数据的生活领域得到了非常充分的应用,在医学影像领域也进行了很多应用探索。
完整医学影像链条分为两个环节:获得数据和使用数据
获得数据是以设备为核心,放射医生或者技师需要以较快的速度获取患者的高质量影像,在扫描过程中要 保证患者以及设备操作者的安全,同时要尽量让影像扫描流程简易、流畅,减少或者改进其中不必要的、且对人依赖程度较高的环节,而且还要保持影像设备在长时间工作运行中性能的稳定,尽量避免出现故障。
获得数据之后,更关键的是如何使用数据。获取影像的最终目的是来帮助医生对患者进行疾病诊断和治疗,所以影像使用以扫描的部位或者患者疾病为核心进行展开,利用传统、AI等图像处理技术,甚至结合更多维度的临床信息进行影像分析、挖掘丰富的信息帮助医生对疾病进行诊断、治疗决策、随访评估、辅助导航等。
人工智能可以参与到上述所有的影像应用环节,提供更丰富的信息、更智能的处理、更便捷的操作等。
东软医疗作为影像设备公司,依托设备积累优势,设计和研发从源头的全链条人工智能影像解决方案。
东软医疗在影像设备端AI应用开发
首先我们要知道,影像设备端目前存在哪些痛点问题,这些痛点可以从两个角度去理解。
1.数据采集和成像
医学影像设备有很多类别,包括磁共振、x射线类、伽马射线类以及超声设备。
MRI成像设备拥有很强软组织对比度,在神经影像领域应用广泛,局限是扫描时间长,成像速度慢,虽然有很多加速方法,但都存在各自的问题。
x射线成像类,如CT、DR、DSA等,是临床使用最广泛的成像设备。但问题是,x线对人体是有损伤,长时间暴露在X射线下会对人体产生不可逆危害。
伽马射线成像,如PET。但问题是PET扫描时间长,在扫描时需要口服或注射放射性核素,对人类存在一定危害性。
超声设备是目前最安全、最廉价的成像设备。超声问题在于波长相对较长,容易受空气、骨骼影响,获取的图像中通常存在杂波噪声。而且不同于 CT或MRI,超声成像的扫描层面角度随意,依赖技师扫描手法,对技师经验要求高。
2.扫描工作流程
在CT和MRI扫描过程中,患者进入扫描间之后,需要在技师或者护士的指导下,躺到扫描床上,摆好合适待扫描姿势,技师根据每一个患者躺的姿势、躺的位姿来调整扫描床深度和高度,随后需要先扫描定位像,在定位像上去定义所要扫描的解剖结构,然后选择一个合适的FOV,再开始后续的扫描工作。
患者摆位和FOV选择严重依赖于技师或者护士的操作,有很强的主观依赖性,带来的一个副作用是,即便是同一个医院同一台设备,多次扫描得到的图像可能都会存在一定的太一致。另外,完成图像扫描和重建后,技师或医生经常会需要对一个患者的可能是几百张图像进行逐一检查,来确保图像质量满足后续诊断需求。
AI如何让成像速度更快
MRI最大的问题是慢,分为两个层面:一是扫描慢,二是重建慢。
目前主要的MRI加速成像技术大都是通过在K空间降采样减少采样时间,这样就能够显著地加快成像速度,但是在k空间降采样必然会带来图像质量的损失。
科学家们提出了多种方法,在降采样同时能够实现图像质量的不损失或低损失,最常用的是并行成像和压缩感知成像方法。
并行成像是通过已知位置和敏感度接收线圈实现相位编码次数减少,从而提升图像的扫描速度,但不可避免地带来图像对比度下降。
在人工智能成为大家关注热点之后,有研究者很快就想到是否能用人工智能技术去改进这些成像技术,来实现k空间降采样图像的高质量重建。比如这一篇文章提出的deepcomplexMRI方法,它也是对k空间降采数据重建。
如果直接使用端到端卷积模型模型训练,很难得到立项的结果,所以deepcomplexMRI设计针对虚部和实部的卷积模块实现MR信息重建,为了保证图像真实性,每卷积层后都加数据保真层,用来自k空间真实采样点的数据填补到重建得到的MR影像对应位置上,从而保证图像质量真实性。
另一种比较优秀的加速成像技术是压缩感知成像。
压缩感知成像的理论基础MR影像信息的稀疏性,通过迭代方式对K空间数据进行重建后,再补全的k空间数据进行高质量的MRI图像重建。信息的迭代式恢复是一个渐进优化过程,费时较,用足够长的时间,压缩感知方法能够恢复出来非常高质量的图像。
压缩感知MR重建中比较常用的一个迭代方法是交叉方向乘子法,是一种常用的用来求解优化问题的框架:通过把一个大的难解的优化问题分析成多个小的容易求解的问题,然后通过协调这些小的问题的解得到一个大的难解问题的解。
图中的ADMM网络模仿了ADMM方法迭代过程,把每一次的迭代转化成卷积运算。这样就可以通过并行加速的方式实现快速卷积运算,取代了之前迭代的优化方式,从而显著的提升MRI重建的速度,并且重建出来的影像质量也非常可观。
在之后的三年里,很多研究者尝试了各种方法对原始的低质量和降采样的MRI图像进行高质量恢复,有的是采用图像域的卷积重建去学习高质量影像,有的是先用图像域卷积然后再跟一个k空间卷积,有的反过来先对k空间卷积,然后再是一个图像域卷积。
最近有一个研究者提出了一个可以兼顾的一个方法—同时对k空间和图像域进行卷积运算,然后将得到的图像进行融合后再经过卷积神经网络做进一步的图像的恢复,效果也非常好,最后在8倍的加速下实现了心脏MRI的快速重建。
我们看一下东软医疗在这一块进行了一些尝试。
首先实现了头部的基于AI的快速重建技术,图中上面一行是在常规扫描情况下得到的脑部的结构影像,可以看到放大框里面的脑组织边界部分图像结构比较清楚,但是仍然有一些吉布斯伪影,也就是高对比度区域附近有一些信号震荡,成像共用时5分钟56秒,是比较长,扫描中需要病人在扫描床上连续躺5分钟头不动,要求蛮高。
用AI技术进行加速之后,就可以在扫描的时候降低采样的点数,显著加快扫描速度,然后用AI非常快速地完成影像重建,下面一行可以看到,得到的图像结果和满采扫描之下图像质量是非常一致,而且还间接消除了上述吉布斯伪影。
东软医疗拥有一种非常独特的头部MR成像技术叫Smart BrainQuant,可以一站式完成10种对比度MR影像扫描。在常规情况下,如果想获取这十类对比度图像,大约需要69分钟。BrainQuant技术在满采样情况下大约需要23分钟就能得到这样的图像,时间明显压缩。
而且Smart BrainQuant采用AI技术进行再加速,在k空间降采样,然后使用卷积神经网络进行快速重建,就可以实现更快的成像速度,大约需要4分31秒,获取10种对比度图像,包括4种常规、4种定量和两种血管成像,这种速度非常快。
东软医疗也将这种AI技术应用于心脏电影成像。左侧是一个在满采情况下得到的心脏电影图像,中间是对它进行6倍加速,右侧进行了9倍加速,可以看到图像质量基本没有区别,效果非常明显。
前面我们提到用AI技术进行MR图像的加速,那么如果我们已经获得了一定质量的MR影像,能不能用人工智能技术对图像进行增强得到更加高质量的影像呢?
前面也提到, MR扫描现在基本上都会在k空间降采样,k空间降采样不可避免的会带来图像的损失,比如说可能会带来一些吉布斯伪影,在图像的高对比区域会发生一些信号震荡。如果我们在k空间进行伪随机降采样,会在图像中引入非相干伪影,通常会采用一些窗函数,来消除这些吉布斯伪影。
但是吉布斯伪影存在于高频区域,影像中的结构细节存在于高频区域,在滤波时就会把这些细节一起滤掉,就导致建图像会产生一些边界或细节的模糊。对于伪随机k空间降采样数据,虽然压缩感知方法能够重建出较高的图像,但时间会非常长。
因此有研究者就提出用深度学习模型对已获取的低质量、低采样频率的 MR影像进行图像恢复,通过学习MR影像的噪声以及它的伪影来将伪影从原始图像中去除。
图中的模型分别对图像的实部和虚部建模,然后再将两部分的图像的合并、融合,得到最终的高质量影像,这种模型能够有效地消除卷褶伪影。
MR成像是通过两通道MR信号同时采集,通过模运算得到重建的MR图像,每一个通道在采集的时候都会伴随着一些高斯噪声,导致最后重建出来的图像里面的噪声表现为莱斯噪声分布,莱斯噪声与图像的数据紧密结合,去除非常困难。
有没有什么办法能够在去除这些莱斯噪声的时候前提下,同时保证我们图像里面的细节和边界仍然清晰?
图中是复旦大学几位老师做的研究,采用了一个多通道的模型来学习影像中的莱斯噪声分布,为了充分利用这个3D空间的信息,利用多通道、也就是相邻5层作为输入,最终得到一个比较好的噪声去除效果。
传统高对比度DWI图像获取中通常会采用多次激发,之后以平均的方式消除噪声,最终得到较高信噪比和对比度DWI的图像,但导致时间成本成倍增加。
有研究者尝试使用深度学习模型一次激发信号获取的高噪声DWI影像特征,之后将噪声从图像中去除,就得到高质量的DWI的影像,效果非常明显。
前面也提到超声扫描对操作者扫描手法依赖性非常强,尤其是胎儿检测中,医生需要去扫查胎儿的几个标准切面,这对医生的操作手法、操作经验和临床经验要求非常高,很多初级医生可能难以做到,如果可以解决这种困难会让儿科的这种检查变得更加容易。
研究者决定用人工智能模型去分析一段超声扫描电影,从电影里面找到这几张标准切面的位置,因为电影是连续的,所以为了充分利用电影层间的信息和层内的信息,模型结合了卷积神经网络和LSTM神经网络。考虑到数据量是相对有限,又设计了一个多任务的学习的目标,从而加速模型的收敛,最终得到一个比较好的结果。
东软医疗在精准成像方向的尝试。
图中用人工智能技术得到了一个高信噪比的DWI图像,信噪比提高了两倍,图像细节得到了比较好的保留,同时速度也是得到了显著提高。
用AI技术得到一个高分辨率DWI影像,DWI影像高分辨率重建扫描的时候,容易碰到一个问题是图像会有一些明显的变形,用AI技术进行重建,信噪比提高,但是图像并没有明显变形,而且扫描和重建速度相对更快。
东软医疗也将AI应用于腹部精准成像。
左侧是常规成像方法得出的图像,可以看到图像里面有非常多的一些条形状的伪影—吉布斯伪影,传统的方法很难将它有效去除,即便是能去除也会顺便带来细节的损失。而我们用AI方法进行重建,就可以把这些吉布斯伪影去除,同时去除了运动的伪影,最后得到的图像里面还对影像细节得到了高度的还原。
CT成像领域著名的原则叫as low as reasonably achievable(在扫描中需要让CT的辐射剂量尽可能的合理的低)。为什么?因为辐射对人体是有损害的,但是如果直接降低辐射剂量,那么必然会带来图像质量的下降。
因此大家采用了很多技术去对辐射剂量进行优化,比如降低kv或者是加光子滤过器,但是这些方法多少会带来一定的图像质量损失,很多研究者灌注如何将低辐射剂量图像的质量提升到常规剂量相当的水平。
比如说图中这项研究,研究者利用空洞卷积和可训练的边缘检测算子设计了一个低剂量CT去噪模型,直接从低剂量CT中学习一个常规CT剂量的高质量图像,作者将均方差loss和感知loss结合作为模型的损失函数,从而有效保留了图像细节。
而且为了保证图像质量的真实性和细节的完整性,在常规均方差loss函数基础上加了感知误差,均方误差利用的是相同级别的灰度的差异。而感觉误差就是将预测图像和原图像分别进行高维的分析提取,比较其高级语义特征的相似性,从而间接保证学习出来的图像细节信息具有较高的真实性。
同样也有研究者将这种方式应用于超低剂量CT图像优化,并将优化之后的图像应用于肺气肿筛查,最后发现用优化之后的图像做筛查,虽然图像可能存在一些过度的平滑、丧失一些细节,但是诊断效能和全剂量的CT诊断效能是相当的,而且比低剂量常规重建方法得到图像的诊断效能提高了很多。
这是一个非常积极的信号,低剂量CT在肺癌、肺气肿等重大疾病筛查中可以起到很重要的作用;但用CT做筛查,肯定不能让剂量降低导致图像质量损失影响医生读片,至少不能影响诊断效能。
如果后续多中心大型研究证明,能在这么低的剂量下用AI方法恢复出的图像获得与常规剂量相当的筛查效果的话,那么它就有非常大的实用价值。
东软医疗也将AI方法应用于肺部低剂量CT。
图中是东软实际效果图,在25%的辐射剂量下对肺部进行扫描,可以看到左侧是传统方法重建得到的图像,图中里面解剖细节仔细去分辨也能看清楚,但是噪声水平非常高,真实结构受噪声的干扰很严重,用基于AI重建方法来对图像进行优化,可以看到噪声水平得到明显的抑制,肺部的血管、气管结构都能够比较清晰的分辨。
同样东软医疗也将 AI低剂量CT重建应用于腹部。
左侧是一个40%的辐射剂量下进行的腹部成像结果,可以看到在噪声水平很高,对肝脏的细节都已经不能分辨,用基于AI的方法进行图像优化之后,噪声得到了显著的压制。
这是一个非常典型的例子,患者肾脏有一个明显的病灶,但是在这么一张超低剂量扫描、传统重建方法得到的图像上无法有效识别病灶。病灶在下图的圆圈中。
用AI优化后一目了然。↓
东软医疗也做了CT最常见应用场景——心脏CT。
在冠脉CT的扫描中,跟前面不太一样的是,不但追求辐射剂量的降低,也追求造影剂剂量的降低。相当一部分患者、比如老年人患者可能存在肾脏不耐受,不能使用太高剂量的造影剂,如果造影剂和辐射计量都减低,图像质量就不可避免的会受到影响。
左图传统方法对低剂量扫描进行重建,得到的图像里面血管充盈明显有缺损,心肌和心血池的显示也不够理想。但用AI重建后,发现血管和心肌显示都清楚。
关于这部分成果,东软医疗与北京协和医院进行了一项科研验证,最后发现使用这种AI技术可以在显著降低辐射剂量和对比剂用量的同时,提升冠脉CTA的主客观图像质量以及诊断可读性。
在DSA引导下的,包括外周血管、脑血管以及冠脉等介入治疗中,患者和医生长时间暴露在X射线之下,剂量一旦积累到比较高的水平就会对医生和患者产生一定程度的损伤。因此如何降低在介入手术之中辐射剂量也是大家一直以来非常关注的问题,直接降低辐射剂量肯定不行,导致的图像质量一旦太差的话,就会影响到对手术引导效果。
我们需要对低剂量扫描的时候得到图像的质量进行优化。
现在已经有研究者对静态的x光片进行去噪处理,得到了一个还算比较好的去噪图像。但是在实际使用中X光片是动态拍摄的,它不但有空间产生的噪声,也会有时间上的噪声。因此,东软医疗就设计了一种结合了空域和时域的信息的方法,来对我们动态获取的x光片进行去噪和改善质量。
为了利用时间上的信息,loss函数不但有前面提到的均方误差也有感知误差,还结合了一个描述噪声水平的时域loss。
这个是实际应用的效果,左侧是1/5辐射剂量下得到的DSA影像,用AI对它进行去噪,明显看到噪声水平得到显著抑制,里面的导管、骨骼等结构,都能够清晰的显示。
东软医疗希望未来医学影像设备像智能手机一样方便、快捷,这是遥远的期望,可能需要很长时间实现,但AI让智能影像扫描工作流程成为一种可能。
智能影像扫描主要包括患者身份识别、智能语音交互、智能患者摆位、扫描区域识别和自动质量控制。涉及到影像扫描工作流程三个痛点,摆位、扫描区域识别和质量控制。
里面涉及到前面说过的影像扫描工作流程中三个痛点问题:摆位、扫描区域识别和质量控制。通过智能扫描工作流,我们能够进一步的降低师和护士的一些重复劳动,这样能够有效的提高医院患者的流通量,同时提升患者就医体验,且能够进一步的提高不同医师采集不同或者同一患者影像数据时的一致性。
通过自然图像人体区域识别技术来完成患者各种摆位。图中研究利用3D深度摄像头对扫描床上患者扫描,可以进一步分析患者空间位置,床位置,自动选择合适床高度和进入机架进深。 也有研究者对获取的定位图像分析,识别解剖结构。根据识别解剖结构就准确圈出扫描位置,实现FOV选择。
东软医疗在流程自动化方面做了很多的尝试并得到初步的成果,比如已经在CT上实现了肺部、脊椎、以及腹部的定位像的自动分析和相应的FOV的自动选择。
在MR上东软医疗实现了头部、脊柱、膝关节和颈椎的FOV自动选择。不论是患者的什么样的姿态或者是胖瘦,都能够在0.5秒内完成 FOV的选择,而且不改变现在任何的影像扫描流程,非常方便医生和技师使用。保持影像扫描的一致性,对于那些可能需要长期随访对比的患者来说,每一次扫描他们的图像的姿态、位置都保持一致,这样就非常有利于医师对比每一个不同时期上的影像,这样更加有利于发现疾病的变化。
扫描工作流程的第3个痛点是图像的质量评估,这与放射科的工作流程的特殊性是有关系的,前面也提到,放射影像分为扫描技师和审查医师两个角色,扫描技师完成图像扫描、和后面的影像阅读、报告撰写在时间上是不连续的。一旦患者完成扫描离开扫面间,在读片环节才发现图像质量问题,需要重新进行扫描的话,会带来时间和金钱的浪费,甚至会延误疾病的诊断和治疗。
我们希望在扫描完及时判断影像是否满足要求,现在技师扫描完会浏览一遍影像,可能会涉及几百上千张图像,工作量大,会影响扫描速度和效率。
为了解决这个问题,研究者尝试用AI直接对图片质量判断。例如这篇去年的文章,作者尝试用人工智能模型判断弥散图像伪影。
右侧是6种比较常见的伪影。医学影像和自然图像不太一样,很难获取到像自然图像几万几千或者是几十万量级的带有伪影和正常图像的数据。所以作者就将自然图像训练的权重直接迁移到模型的训练中来。这些伪影有些在横断面内表现的比较明显,所以分别设计了两个模型:一个是矢状面模型,一个是横断面模型来对影像进行判断,最终能够有效地识别带有伪影的图像。
目前,东软医疗已经实现CT肺部和头部图像质量控制,之后在1.5T磁共振上实现了脑部图像质量判断,提高图像质量控制效果,减少病人返回拍摄图像可能性。
总结起来,东软医疗基于人工智能平台NeuAI实现了更快速扫描、更精准图像、更安全资源获取和更流畅工作流程,并且能够更加可靠地保证我们获取的影像质量。
东软医疗在专科化方向、重大疾病上进行了一些AI的应用探索。
东软医疗首先将人工智能应用在了急性的脑卒中的影像评估上。我国脑卒中防治目前面临着非常巨大的挑战。脑卒中是我国成年人致死致残的首位病因,而且发病率和致死率都非常高,到目前我国的发病率仍在逐年上升。
脑卒中占我国居民死亡率比例也较高,每5位死亡者中至少有一位死于脑卒中,医疗费用也在逐年上涨,随着我国的老龄化问题加重,未来会更加凸显。
脑卒中是什么?它特指一种急性的脑血管病,是急性发病的局灶性的血管源性神经损伤,症状为持续24小时以上或死亡,排除了其他的非脑血管病病因。这里面急性的缺血性脑卒中占百分之七八十;出血可能低一些,占百分之二三十或在我国可能更高一些。在这些急性缺血脑卒中临床中,如何对患者进行快速的精确诊断和分析评估,以及及时的干预和治疗,是能够影响患者预后的关键。
目前临床中的诊疗流程主要是途中这个样子:
患者自行就医或者通过120送到医院之后,临床医生首先对他进行一些临床评分、评估运动功能,然后进行急诊常规影像检查,来排除这个人是不是出血或者其他的类卒中病变。确认这个人是缺血之后,再根据其他的影像指标来制定不同治疗方式。现在临床中急性缺血卒中主要是有三种治疗方式:标准内科治疗(比较保守);溶栓治疗;取栓治疗(积极的进行血管开通)。
统计数据显示,我国发病6小时以内入院患者不足6%,我们需要对这1小时患者更加严格的影像评估,来决定适合哪种治疗方式。
这些影像扫描会包括什么呢?
首先需要对患者进行血管成像,医生需要知道患者哪一个部位的血管闭塞了。如果患者已经超过了6小时时间窗的话,就需要进行进一步的组织窗评估。组织窗评估目前主要是通过灌注影像进行。
缺血性卒中治疗中存在的问题。
诊疗水平和临床经验不足。高端医院虽然有高端影像设备,但并不能被充分使用、价值尚待挖掘。
影像分析效率与准确度难以保证。目前,大部分医院并没有智能分析软件帮医生分析,主要是通过手术方式测量,效率难以保证,或通过主观判断,这样的话就缺乏一个量化指标,准确度就更加难以保证。
醒后卒中发病时间难以确认。很多患者可能是睡眠中发病,不能明确知道发病时间,只能以最后正常作为发病时间,但这样信息作为决策依据肯定不准确。
治疗风险难以评估。并不是所有患者都接受积极性治疗方案,所以在治疗之前需要对患者评估,是否有比较严重出血转化风险,方法是对患者微出血点评估,但并没有可靠的软件,评估过程缓慢而且困难。
那么什么是组织窗评估呢?
组织窗评估
我们知道脑组织是通过脑动脉血管来供应的,一旦脑动脉发生闭塞之后,它所供应的脑血管区域就会发生缺血,然后发生一些组织的坏死,脑细胞的坏死,甚至再时间长了之后就会有大片的组织坏死,形成一个梗死的一个聚集区域。这些细胞已经不可挽救,所以被称为一个梗死核心区。
那么为什么会有这样一个缺血半暗带存在?
这是因为脑血管的复杂性决定的。虽然说对这一部分组织进行直接供血的血管闭塞了,但是组织周围的一些血管可以代偿性的为当前组织提供供血。所以就有了这缺血半暗带的形成。
临床中希望患者的缺血半暗带足够大,同时梗死核心区足够小,这就意味着患者能够很大概率的从取栓和溶栓治疗中受益。
那么什么是灌注呢?
灌注是指血流通过毛细血管网,将它所携带的氧和营养物质输送给组织细胞,它存在于正常组织和病变。这种毛细血管中的血液的流动,使得灌注成像成为可能。灌注成像是可以反映组织微血管分布和血流灌注情况的成像方式,被广泛用来评估脑组织血流动力学参数,例如CBF等。
实际上怎么做的呢?
通过静脉快速注射造影剂,然后在选择的层面上连续的拍摄一些 CT或者MR影像,这些影像上的信号强度就反映了它的组织密度随时间变化。也就是说我们可以监察每一块组织在每一个时间点上的造影剂的聚集浓度。通过一些在灌注图像的一些解算,就可以得到能够更加直接反映这些脑组织血流动力学功能的一些参数,比如说脑血流量、脑血容量、Tmax等。
在解算过程中有几个比较重要的环节,其中一个是动脉输入函数的选择,我们需要知道哪一根血管是对我们所关注的脑组织进行供血的。另外得到参数特征图之后,需要根据这些信息来求解和分割梗死核心和缺血半暗带,这也是另外一个技术核心。
目前这些梗死核心和缺血半暗带的测量,基本上都是通过人工化进行的,比较费时,而且也有很大的主观依赖性。因此东软医疗就开发了NeuBrain care软件,可以自动完成灌注影像分析,得出缺血半暗带和梗死灶的核心定量指标。
这是CT灌注图测试结果,在处理过程中能准确找到动脉输出函数位置。与传统方法不同,东软采用了深度学习模型。
一个卷积分割模型把血管束寻找出来,然后再找到定位到合适的血管的位置,这样就能够帮助我们进行更加精确的进行灌注图像的分析。
我们怎么得到梗死核心和缺血半暗带?
用病侧的这一个CBF值和对侧健康的这边做比较,如果低于30%,那就认为是梗死核心区域。在TMAX上时间大于6秒的区域,就认为是低灌注区域。低灌注区域是包含了前面提到的缺血半暗带以及梗死核心区域。
然后根据我们算出的一些参数,比如说梗死核心区域小于70毫升,低区与核心梗死区不匹配比大于1.2或1.8,同时严重低灌注区域在100毫升以内,就认为这个患者是适合接受血管内治疗的。
点CT定量分析结果示意图
这是一个点CT 定量分析的一个结果示意图。我们直接把这个结果呈现给临床医生,医生就可以很快做一个比较精准的决策。
MR分析与前面的CT比较相似,唯一不同的是梗死核心区域在MR分析中并不是基于CBF计算,而是采用DWI的高信号区域,就是ADC小于620的区域,简单地用阈值进行梗死核心区域做分割肯定会引入一些噪声。
所以我们利用深度学习方法进行分割,以人分割的结构作为标准,来对 ADC上的梗死核心做一个自动分割。我们进行了简单测试,发现与专家标注结果的一致性达到基本上达到100%。
这是一个MR的测试结果。
我们通过将AI整合急性缺血卒中患者图像分析过程,实现全自动分析过程,而且把产品挂接在影像云,医生可以将图像上传到云端,很快就可以返回分析结果。
前面也提到我们需要在治疗结束之前评估患者的出血转化的风险,怎么做?
一个比较有潜力的方法评估微出血点,利用患者的SWI影像进行评估。但是微出血点一般是体积比较小,一般是3~20毫米的尺寸,而且很多患者脑中分布比较分散,所以人工去做分割、去统计,这工作量非常庞大,基本上不太可行。
因此我们用数据信息模型对这个出血灶数据点进行分割,分割完之后对它进行相应的自动统计,看它的位置、数量、体积。这样的好处在于根据统计报表,医生就可以定量的分析这位患者是不是有一些治疗之后的出血风险。
典型病例,女,63岁,因为左侧肢体弱之后入院。因为在8小时以外,所以就很快磁共振检查,发现其Mismatch比例在4.4左右,也就是十分适合做取栓治疗,在4天后,基本上就可以自行步行出院,治疗效果理想。
目前,国内新冠肺炎已经控制比较好,但国际上仍然汹涌。
新冠肺炎传染性强、致死率高,早发现、早隔离是比较好的手段。但确诊依赖于核酸检测,检测方法特异性强,敏感性差,CT就发挥了重要的作用,对早期诊断和筛查起到补充。
大量CT影像早期筛查和诊断会给医生带来庞大的工作量,反而不利于所以控制疾病的蔓延和患者的及时治疗。
东软医疗在这方面有一些比较好的优势,我们很早就推出了自主研发的全身车载CT,而且也有自己的一个智能影像云平台NeuMiva。而且我们跟钟南山院士的团队成立了呼吸影像大数据与人工智能应用联合实验室。
在疫情爆发之后,东软医疗很快就组建了新冠CT、AI项目组。在7天时间内联合吉大一医院、武汉市一医院专家们完成了第1版产品的研发和发布,到目前为止已经在全国的五六十家医院、60多家医院进行安装使用,包括了武汉的洪山体育馆方舱医院和武汉的雷神山医院。
技术路线相对比较简单,我们针对新冠肺炎影像的特殊性(因为我们基本上都是确诊数据),设计了一个基于3D和2D混合卷积的一个网络对病灶进行分割。再结合我们已经有的肺分割和肺叶分割的模型,就可以对肺炎的病灶进行定量分析。
目前功能就是检测新冠肺炎相关典型征象,例如,磨玻璃影质、实性病变以及索条等,可以提示医生患者是否有新冠病毒感染风险,在短时间内完成病例检查。数据因为自于一线医院真实数据,所以结果在同类对比中相当准确。
目前产品有两种部署方式:
第一种,是部署在东软医疗后处理工作站AVW,通过本地部署方式,只要把AVW升级就可以实现。
第二种,搭载于东软NewMiva,智能医学影像云平台。
火眼AI的云端的版本界面示意图
火眼AI本地版的示意图
本地版和云端版各有优劣。
本地版因为是院内部署,所以图像传输速度和检测速度相对更快,信息数据更安全,但对硬件的配置有一定要求,而且更新性慢。
云端版是自行更新,迭代会比较快,对设备要求低,普通电脑和手机都可以使用,也可以发起远程医疗会诊,但受网络速度影响。
人工智能影像平台可以为新冠做更多,3月20号发表的一篇文章显示,新冠肺炎不同的发展阶段,影像有各自特点。
在早期,是多发或散发磨玻璃影,多分布于胸膜下、叶间裂下或支气管血管束分布;
在进展期,病灶增大,出现不同程度的实变;
在重症期,双肺发生弥漫性病变面性改变,严重会出现白肺;
在转归期,神经病变或磨玻璃基本都会被吸收。有的病人会出现纤维条索。
意味AI在影像筛查、诊断、分析以及各个环节都发挥着重要作用。
这一篇是比较早的预印本文章,还没有正式发表,通过深度神经学习网络对患者区分,看到底是新肺炎患者,还是普通流感患者。
收集了110位核酸阳性患者和224位普通流感患者,以及175位的健康患者,对他们2D图像逐层检测,之后对患者多张2D图像投票,确定患者到底是哪一种疾病,最终达到86.7%分类准确性。
也有研究者尝试这种模型对患者诊断,区分新冠肺炎患者和其他疾病患者。数据量相对少,只有51位新冠肺炎确诊患者和55位其他患者,模型是基于2D。测试集只有前瞻性数据27位患者,但效果值得我们进一步数据验证。
这是一篇最近3月19号发表的文章,它是截至目前深度学习相关的文章里面数据量最大的一篇。
收集了1296位新冠肺炎确诊患者,相关社区获得性肺炎确诊患者1735位,以及1325位非肺炎的患者图像。将数据按9:1分为训练集和测试集,去训练一个分类神经网络,然后判断患者到底是新冠肺炎还是社区获得性肺炎还是没有肺炎,最后结果尤其敏感性也是比较可观的。
新冠肺炎分类敏感性90%,特异性96%,为了提高模型可解释性,还使用热力图体现模型关注点。最后发现新冠肺炎患者影像关注点是在贴近胸模的病灶,而社区型肺炎关注点在位于肺部的中央区域,那些非肺炎、也不是新冠肺炎的患者,图像上并没有聚焦关注点。
更早时候,国外研究者也尝试用AI模型建立病灶衡量模型,通过对比不同扫描、不同随访获取的实体影像动态观察病灶病变,从而帮助医生评估影像疾病发展。但这项研究训练集都是5~10毫米,跟新冠肺炎实情不太一样。新冠肺炎建议是薄层影像,因为很多潜在磨玻璃影在厚层影像是看不到,这也是研究需要注意的问题。
也有研究者收集临床信息建立预后分析模型,模型里面没有涉及影像信息,经过特征实验筛选后,发现有三个特征较好预测性能。包括乳酸脱氢酶、淋巴细胞以及高敏感性c反应蛋白,对患者生存率和死亡率预测,发现precision(精密度)高。
总结起来,人工智能模型可以用于整个医学影像链。从图像获取、成像环节到图像应用的处理环节、辅助诊疗环节以及存储传输环节都可以得到应用。
经验看来,医学影像和AI结合有其特殊性。
1、数据获取的困难,医学影像和自然图像领域不一样,虽然数据大,但数不等于大数据,这一次深度学习有效,是因为能获取很多大数据。虽然影像数据量也随着时间在累积,但分布在不同病种、不同部位、不同医院等,所以当想做具体应用的时候,很难针对具体应用去获取大批量数据,上万、上千是比较难的,尤其是需要精准标签的时候。
另外问题是疾病复杂性和不确定性。例如,新冠肺炎,最大的特点就是具有同病异影和异影同病问题,如果没有核酸作为金标准,很难确定肺炎CT数据到底新冠肺炎还是其他肺炎。
考虑判断主观性,例如我们提到的AI质量控制,但判断图像是否满足诊断需求,医生有很大主观性的。A医生认为图像质量差,不能诊断,但B医生认为没问题,可以精准诊断。如果用不同医生做数据标注之后模型训练,结果肯定有问题。
2、医学问题的专业性,用深度学习网络CT、MR的重建加速,也可以直接把自然图像领域模型迁移,但图像质量肯定不好。所以在模型设计阶段,结合传统 MR和CT成像理论,将神经网络技术应用进去,得到比较好结果,也可以进一步提高模型可解释性,例如,在设计 MR 的AI重建,数据重建后都加k空间数据保真层,也提示我们数据结果可靠的原因。
3、临床场景的重要性。AI是一个强大工具,但并不能一下解决所有问题。卒中影像分析,AI只能在其中某几个重要环节起到作用;但灌注图像的解算,还是用传统方法,有研究者直接把持续多个时间点图像输入到模型,直接学习梗死核心和缺血半暗带。首先样本肯定相对局限,之后将模型应用到新数据,泛化能力也明显不理想。
还有肺结节,很多公司都推出肺结节AI。它在局限场景下,例如去做大批量肺癌影像筛查,帮医生很快筛查出风险患者,这是非常有用的,但医生用于日常工作中,分析普通病人胸部影像,会漏掉很多没有学过的病灶,需要针对性设计完整解决方案。
总结来看,医疗人工智能在临床价值已经得到初步印证,而可能存在的问题我们已经得到认识,法律法规也逐渐健全。我相信在未来,医疗影像能够得到非常快速的发展。
本文来源:东软医疗人工智能与临床创新研究院总监 杨明雷 博士
雷峰网原创文章,未经授权禁止转载。详情见转载须知。