有丝分裂细胞的描述是肿瘤诊断的关键特征。但是,由于有丝分裂细胞形态的变异性,检测肿瘤组织中有丝分裂细胞是一项高度挑战的任务。同时,尽管先进的深度学习方法在细胞检测方面取得了巨大成功,但从另一个域(即不同的肿瘤类型和不同的扫描仪)测试数据时,性能通常是不令人满意的。因此,有必要开发用于检测域中稳健性的有丝分裂细胞的算法。我们的工作进一步提出了基于基线(视网膜)的前景检测和肿瘤分类任务,并利用数据扩展来改善模型的域泛化性能。我们在具有挑战性的前测试数据集上实现了最先进的性能(F1分数:0.5809)。
translated by 谷歌翻译
免疫组织化学染色图像的可靠定量分析需要准确稳健的细胞检测和分类。最近的弱监督方法通常估计细胞识别的概率密度图。但是,在密集的细胞场景中,由于无法找到通用参数设置,因此可以通过预处理和后处理受到限制。在本文中,我们引入了一个端到端框架,该框架应用了预设锚点的直接回归和分类。具体而言,我们提出了一种锥体特征聚合策略,可以同时组合低级特征和高级语义,该策略为我们的纯粹基于点的模型提供了准确的细胞识别。此外,优化的成本功能旨在通过匹配地面真相和预测点来调整我们的多任务学习框架。实验结果证明了所提出的方法的卓越准确性和效率,这揭示了辅助病理学家评估的很大潜力。
translated by 谷歌翻译
肺癌治疗中有针对性疗法的标准诊断程序涉及组织学亚型和随后检测关键驱动因素突变,例如EGFR。即使分子分析可以发现驱动器突变,但该过程通常很昂贵且耗时。深度学习的图像分析为直接从整个幻灯片图像(WSIS)直接发现驱动器突变提供了一种更经济的替代方法。在这项工作中,我们使用具有弱监督的自定义深度学习管道来鉴定苏木精和曙红染色的WSI的EGFR突变的形态相关性,此外还可以检测到肿瘤和组织学亚型。我们通过对两个肺癌数据集进行严格的实验和消融研究来证明管道的有效性-TCGA和来自印度的私人数据集。通过管道,我们在肿瘤检测下达到了曲线(AUC)的平均面积(AUC),在TCGA数据集上的腺癌和鳞状细胞癌之间的组织学亚型为0.942。对于EGFR检测,我们在TCGA数据集上的平均AUC为0.864,印度数据集的平均AUC为0.783。我们的关键学习点包括以下内容。首先,如果要在目标数据集中微调特征提取器,则使用对组织学训练的特征提取器层没有特别的优势。其次,选择具有较高细胞的斑块,大概是捕获肿瘤区域,并不总是有帮助的,因为疾病类别的迹象可能存在于肿瘤 - 肿瘤的基质中。
translated by 谷歌翻译
整个幻灯片组织学图像中的组织类型学注释是一项复杂而乏味但既繁琐但必要的任务,用于开发计算病理学模型。我们建议通过将开放式识别技术应用于共同分类属于一组带注释类的组织的任务来解决此问题。临床相关的组织类别,同时拒绝测试时间开放式样品,即属于训练集中不存在的类别的图像。为此,我们引入了一种基于训练模型的开放式组织病理图像识别的新方法,以准确识别图像类别,并同时预测已应用了哪些数据增强变换。在测试时间中,我们测量了模型的置信度预测这种转换,我们期望开放集中的图像较低。在组织学图像的结直肠癌评估的背景下,我们进行了全面的实验,这些实验为我们的方法提供了证据,以自动从未知类别中识别样品的优势。代码在https://github.com/agaldran/t3po上发布。
translated by 谷歌翻译
数据分析方法的组合,提高计算能力和改进的传感器可以实现定量颗粒状,基于细胞的分析。我们描述了与组织解释和调查AI方法有关的丰富应用挑战集,目前用于应对这些挑战。我们专注于一类针对性的人体组织分析 - 组织病理学 - 旨在定量表征疾病状态,患者结果预测和治疗转向。
translated by 谷歌翻译
H&E载玻片中的细胞识别是必不可少的先决条件,可以为进一步的病理分析铺平道路,包括组织分类,癌症分级和表型预测。但是,使用深度学习技术执行此类任务需要大型的细胞级注释数据集。尽管以前的研究已经调查了组织分类中对比度自我监督方法的性能,但该类别算法在细胞鉴定和聚类中的实用性仍然未知。在这项工作中,我们通过提出对比度细胞表示学习(CCRL)模型来研究了在细胞聚类中自学学习(SSL)的实用性。通过全面的比较,我们表明该模型可以通过来自不同组织类型的两个数据集的大幅度优于所有当前可用的细胞聚类模型。更有趣的是,结果表明,我们提出的模型在几个单元格类别中运作良好,而SSL模型的实用性主要在具有大量类别的自然图像数据集的背景下显示(例如Imagenet)。本研究中提出的无监督表示学习方法消除了细胞分类任务中数据注释的耗时步骤,这使我们能够在与以前的方法相比更大的数据集上训练我们的模型。因此,考虑到有希望的结果,这种方法可以为自动细胞表示学习打开新的途径。
translated by 谷歌翻译
癌症是人体内部异常细胞的无法控制的细胞分裂,可以蔓延到其他身体器官。它是非传染性疾病(NCDS)和NCDS之一,占全世界总死亡人数的71%,而肺癌是女性乳腺癌后第二次诊断的癌症。肺癌的癌症生存率仅为19%。有各种方法用于诊断肺癌,如X射线,CT扫描,PET-CT扫描,支气管镜检查和活组织检查。然而,为了了解基于组织型H和E染色的肺癌亚型,广泛使用,其中染色在从活组织检查中吸入的组织上进行。研究报道,组织学类型与肺癌预后和治疗相关。因此,早期和准确地检测肺癌组织学是一种迫切需要,并且由于其治疗取决于疾病的组织学,分子曲线和阶段的类型,最重要的是分析肺癌的组织病理学图像。因此,为了加快肺癌诊断的重要过程,减少病理学家的负担,使用深层学习技术。这些技术表明了在分析癌症组织病变幻灯片的分析中提高了疗效。几项研究报告说,卷积神经网络(CNN)在脑,皮肤,乳腺癌,肺癌等各种癌症类型的组织病理学图片的分类中的重要性。在本研究中,通过使用Reset50,VGG-19,Inception_Resnet_V2和DenSenet进行特征提取和三重态丢失来引导CNN以引导CNN,以引导CNN,以引导CNN使得其增加群集间距离并减少集群内距离。
translated by 谷歌翻译
由于形态的相似性,皮肤肿瘤的组织学切片分化为个体亚型可能具有挑战性。最近,基于深度学习的方法证明了它们在这方面支持病理学家的潜力。但是,这些监督算法中的许多都需要大量的注释数据才能进行稳健开发。我们提供了一个公开可用的数据集,该数据集是七个不同的犬皮肤肿瘤的350张全滑图像,其中有13种组织学类别的12,424个多边形注释,包括7种皮肤肿瘤亚型。在评估者间实验中,我们显示了提供的标签的高稠度,尤其是对于肿瘤注释。我们通过训练深层神经网络来进一步验证数据集,以完成组织分割和肿瘤亚型分类的任务。我们的肿瘤尤其是0.7047的类平均Jaccard系数为0.7047,尤其是0.9044。对于分类,我们达到了0.9857的幻灯片级准确性。由于犬皮肤肿瘤对人肿瘤具有各种组织学同源性,因此该数据集的附加值不限于兽医病理学,而是扩展到更一般的应用领域。
translated by 谷歌翻译
Background and Purpose: Colorectal cancer is a common fatal malignancy, the fourth most common cancer in men, and the third most common cancer in women worldwide. Timely detection of cancer in its early stages is essential for treating the disease. Currently, there is a lack of datasets for histopathological image segmentation of rectal cancer, which often hampers the assessment accuracy when computer technology is used to aid in diagnosis. Methods: This present study provided a new publicly available Enteroscope Biopsy Histopathological Hematoxylin and Eosin Image Dataset for Image Segmentation Tasks (EBHI-Seg). To demonstrate the validity and extensiveness of EBHI-Seg, the experimental results for EBHI-Seg are evaluated using classical machine learning methods and deep learning methods. Results: The experimental results showed that deep learning methods had a better image segmentation performance when utilizing EBHI-Seg. The maximum accuracy of the Dice evaluation metric for the classical machine learning method is 0.948, while the Dice evaluation metric for the deep learning method is 0.965. Conclusion: This publicly available dataset contained 5,170 images of six types of tumor differentiation stages and the corresponding ground truth images. The dataset can provide researchers with new segmentation algorithms for medical diagnosis of colorectal cancer, which can be used in the clinical setting to help doctors and patients.
translated by 谷歌翻译
肿瘤浸润淋巴细胞(TIL)的定量已被证明是乳腺癌患者预后的独立预测因子。通常,病理学家对含有tils的基质区域的比例进行估计,以获得TILS评分。乳腺癌(Tiger)挑战中肿瘤浸润淋巴细胞旨在评估计算机生成的TILS评分的预后意义,以预测作为COX比例风险模型的一部分的存活率。在这一挑战中,作为Tiager团队,我们已经开发了一种算法,以将肿瘤与基质与基质进行第一部分,然后将肿瘤散装区域用于TILS检测。最后,我们使用这些输出来生成每种情况的TILS分数。在初步测试中,我们的方法达到了肿瘤 - 细胞瘤的加权骰子评分为0.791,而淋巴细胞检测的FROC得分为0.572。为了预测生存,我们的模型达到了0.719的C索引。这些结果在老虎挑战的初步测试排行榜中获得了第一名。
translated by 谷歌翻译
数字病理学是现代医学中最重要的发展之一。病理检查是医疗方案的黄金标准,并在诊断中发挥基本作用。最近,随着数字扫描仪的出现,现在可以将组织组织病理学载玻片数字化并作为数字图像存储。结果,数字化组织病理组织可用于计算机辅助图像分析程序和机器学习技术。核的检测和分割是癌症诊断中的一些基本步骤。最近,深度学习已被用于核细胞分割。然而,核细胞分割的深度学习方法中的一个问题是缺乏斑块的信息。本文提出了深入的基于学习的核细胞分割方法,这解决了补丁边界地区误入歧途的问题。我们使用本地和全局修补程序来预测最终的分割图。多器官组织病理学数据集上的实验结果表明,我们的方法优于基线核细胞分割和流行分割模型。
translated by 谷歌翻译
冷冻切片(FS)是手术操作期间组织微观评估的制备方法。该程序的高速允许病理学医师快速评估关键的微观特征,例如肿瘤边距和恶性地位,以引导手术决策,并尽量减少对操作过程的干扰。然而,FS容易引入许多误导性的人工结构(组织学人工制品),例如核冰晶,压缩和切割人工制品,妨碍了病理学家的及时和准确的诊断判断。额外的培训和长期经验通常需要对冻结部分进行高度有效和时间关键的诊断。另一方面,福尔马林固定和石蜡嵌入(FFPE)的黄金标准组织制备技术提供了显着优越的图像质量,而是一种非常耗时的过程(12-48小时),使其不适合术语用。在本文中,我们提出了一种人工智能(AI)方法,通过在几分钟内将冻结的整个幻灯片(FS-WSIS)计算冻结的整个幻灯片(FS-WSIS)来改善FS图像质量。 AI-FFPE将FS人工制品终止了注意力机制的指导,该引导机制在利用FS输入图像和合成的FFPE样式图像之间利用建立的自正则化机制,以及综合相关特征的合成的FFPE样式图像。结果,AI-FFPE方法成功地生成了FFPE样式图像,而不会显着扩展组织处理时间,从而提高诊断准确性。我们证明了使用各种不同的定性和定量度量,包括来自20个董事会认证的病理学家的视觉图灵测试的各种不同的定性和定量度量。
translated by 谷歌翻译
组织学图像中核和腺体的实例分割是用于癌症诊断,治疗计划和生存分析的计算病理学工作流程中的重要一步。随着现代硬件的出现,大规模质量公共数据集的最新可用性以及社区组织的宏伟挑战已经看到了自动化方法的激增,重点是特定领域的挑战,这对于技术进步和临床翻译至关重要。在这项调查中,深入分析了过去五年(2017-2022)中发表的原子核和腺体实例细分的126篇论文,进行了深入分析,讨论了当前方法的局限性和公开挑战。此外,提出了潜在的未来研究方向,并总结了最先进方法的贡献。此外,还提供了有关公开可用数据集的概括摘要以及关于说明每种挑战的最佳性能方法的巨大挑战的详细见解。此外,我们旨在使读者现有研究的现状和指针在未来的发展方向上开发可用于临床实践的方法,从而可以改善诊断,分级,预后和癌症的治疗计划。据我们所知,以前没有工作回顾了朝向这一方向的组织学图像中的实例细分。
translated by 谷歌翻译
and the CAMELYON16 Consortium IMPORTANCE Application of deep learning algorithms to whole-slide pathology images can potentially improve diagnostic accuracy and efficiency.OBJECTIVE Assess the performance of automated deep learning algorithms at detecting metastases in hematoxylin and eosin-stained tissue sections of lymph nodes of women with breast cancer and compare it with pathologists' diagnoses in a diagnostic setting.DESIGN, SETTING, AND PARTICIPANTS Researcher challenge competition (CAMELYON16) to develop automated solutions for detecting lymph node metastases (November 2015-November 2016). A training data set of whole-slide images from 2 centers in the Netherlands with (n = 110) and without (n = 160) nodal metastases verified by immunohistochemical staining were provided to challenge participants to build algorithms. Algorithm performance was evaluated in an independent test set of 129 whole-slide images (49 with and 80 without metastases). The same test set of corresponding glass slides was also evaluated by a panel of 11 pathologists with time constraint (WTC) from the Netherlands to ascertain likelihood of nodal metastases for each slide in a flexible 2-hour session, simulating routine pathology workflow, and by 1 pathologist without time constraint (WOTC).EXPOSURES Deep learning algorithms submitted as part of a challenge competition or pathologist interpretation. MAIN OUTCOMES AND MEASURESThe presence of specific metastatic foci and the absence vs presence of lymph node metastasis in a slide or image using receiver operating characteristic curve analysis. The 11 pathologists participating in the simulation exercise rated their diagnostic confidence as definitely normal, probably normal, equivocal, probably tumor, or definitely tumor. RESULTSThe area under the receiver operating characteristic curve (AUC) for the algorithms ranged from 0.556 to 0.994. The top-performing algorithm achieved a lesion-level, true-positive fraction comparable with that of the pathologist WOTC (72.4% [95% CI, 64.3%-80.4%]) at a mean of 0.0125 false-positives per normal whole-slide image. For the whole-slide image classification task, the best algorithm (AUC, 0.994 [95% CI, 0.983-0.999]) performed significantly better than the pathologists WTC in a diagnostic simulation (mean AUC, 0.810 [range, 0.738-0.884]; P < .001). The top 5 algorithms had a mean AUC that was comparable with the pathologist interpreting the slides in the absence of time constraints (mean AUC, 0.960 [range, 0.923-0.994] for the top 5 algorithms vs 0.966 [95% CI, 0.927-0.998] for the pathologist WOTC). CONCLUSIONS AND RELEVANCEIn the setting of a challenge competition, some deep learning algorithms achieved better diagnostic performance than a panel of 11 pathologists participating in a simulation exercise designed to mimic routine pathology workflow; algorithm performance was comparable with an expert pathologist interpreting whole-slide images without time constraints. Whether this appro
translated by 谷歌翻译
组织病理学图像包含丰富的表型信息和病理模式,这是疾病诊断的黄金标准,对于预测患者预后和治疗结果至关重要。近年来,在临床实践中迫切需要针对组织病理学图像的计算机自动化分析技术,而卷积神经网络代表的深度学习方法已逐渐成为数字病理领域的主流。但是,在该领域获得大量细粒的注释数据是一项非常昂贵且艰巨的任务,这阻碍了基于大量注释数据的传统监督算法的进一步开发。最新的研究开始从传统的监督范式中解放出来,最有代表性的研究是基于弱注释,基于有限的注释的半监督学习范式以及基于自我监督的学习范式的弱监督学习范式的研究图像表示学习。这些新方法引发了针对注释效率的新自动病理图像诊断和分析。通过对130篇论文的调查,我们对从技术和方法论的角度来看,对计算病理学领域中有关弱监督学习,半监督学习以及自我监督学习的最新研究进行了全面的系统综述。最后,我们提出了这些技术的关键挑战和未来趋势。
translated by 谷歌翻译
人们普遍认为,污渍差异引起的颜色变化是组织病理学图像分析的关键问题。现有方法采用颜色匹配,染色分离,污渍转移或它们的组合以减轻污渍变化问题。在本文中,我们提出了一种用于组织病理学图像分析的新型染色自适应自我监督学习(SASSL)方法。我们的SASSL将一个域 - 交流训练模块集成到SSL框架中,以学习独特的特征,这些功能对各种转换和污渍变化都具有鲁棒性。所提出的SASSL被视为域不变特征提取的一般方法,可以通过对特定下游任务的特征进行细微调整特征来灵活地与任意下游组织病理学图像分析模块(例如核/组织分割)结合。我们进行了有关公开可用的病理图像分析数据集的实验,包括熊猫,乳腺癌和camelyon16数据集,以实现最先进的性能。实验结果表明,所提出的方法可以鲁棒地提高模型的特征提取能力,并在下游任务中实现稳定的性能改善。
translated by 谷歌翻译
KI-67是一种核蛋白,可以在细胞增殖过程中产生。 Ki67指数在几种癌症中是有价值的预后变量。在乳腺癌中,该指数甚至经常检查许多患者。目前,病理学家使用免疫组织化学方法将KI-67阳性恶性细胞的百分比视为KI-67指数。较高的分数通常意味着更具侵略性的肿瘤行为。在临床实践中,KI-67指数的测量取决于视觉识别方法和手动计数。然而,视觉和手动评估方法是时间耗费,由于评估标准不同或评估中的肿瘤面积有限,因此可重复性差。在这里,我们使用数字图像处理技术,包括图像二进制和图像形态操作来创建数字图像分析方法来解释KI-67索引。然后,将10个乳腺癌标本用作高精度的验证(相关效率r = 0.95127)。借助数字图像分析,病理学家可以更有效地解释KI67指数,并具有出色的可重复性。
translated by 谷歌翻译
骨肉瘤是最常见的原发性骨癌,其标准治疗包括术前化疗,然后切除。化学疗法反应用于预测患者的预后和进一步治疗。坏死在切除标本上的组织学幻灯片通常评估了坏死比定义为坏死肿瘤与总体肿瘤之比。已知坏死比> = 90%的患者的预后更好。多个载玻片对坏死比的手动微观综述是半定量性的,并且可能具有观察者间和观察者间的变异性。我们提出了一种基于目标和可再现的深度学习方法,以估计坏死比,并从扫描的苏木精和曙红全幻灯片图像预测结果。我们以3134个WSI的速度收集了103例骨肉瘤病例,以训练我们的深度学习模型,验证坏死比评估并评估结果预测。我们训练了深层多磁化网络,以分割多个组织亚型,包括生存的肿瘤和像素级中的坏死肿瘤,并计算来自多个WSI的病例级坏死比。我们显示了通过分割模型估算的坏死比,高度与由专家手动评估的病理报告中的坏死比高度相关,其中IV级的平均绝对差异(100%),III(> = 90%)和II(> = 50%和<50%和< 90%)坏死反应分别为4.4%,4.5%和17.8%。我们成功地对患者进行了分层,以预测P = 10^-6的总生存率,而P = 0.012的无进展生存率。我们没有可变性的可重现方法使我们能够调整截止阈值,特别是用于模型和数据集的截止阈值,为OS的80%,PFS为60%。我们的研究表明,深度学习可以支持病理学家作为一种客观的工具,可以分析组织学中骨肉瘤,以评估治疗反应并预测患者结果。
translated by 谷歌翻译
在过去的几年中,用于计算机视觉的深度学习技术的快速发展极大地促进了医学图像细分的性能(Mediseg)。但是,最近的梅赛格出版物通常集中于主要贡献的演示(例如,网络体系结构,培训策略和损失功能),同时不知不觉地忽略了一些边缘实施细节(也称为“技巧”),导致了潜在的问题,导致了潜在的问题。不公平的实验结果比较。在本文中,我们为不同的模型实施阶段(即,预培训模型,数据预处理,数据增强,模型实施,模型推断和结果后处理)收集了一系列Mediseg技巧,并在实验中探索了有效性这些技巧在一致的基线模型上。与仅关注分割模型的优点和限制分析的纸驱动调查相比,我们的工作提供了大量的可靠实验,并且在技术上更可操作。通过对代表性2D和3D医疗图像数据集的广泛实验结果,我们明确阐明了这些技巧的效果。此外,根据调查的技巧,我们还开源了一个强大的梅德西格存储库,其每个组件都具有插件的优势。我们认为,这项里程碑的工作不仅完成了对最先进的Mediseg方法的全面和互补的调查,而且还提供了解决未来医学图像处理挑战的实用指南,包括但不限于小型数据集学习,课程不平衡学习,多模式学习和领域适应。该代码已在以下网址发布:https://github.com/hust-linyi/mediseg
translated by 谷歌翻译
Attention-based multiple instance learning (AMIL) algorithms have proven to be successful in utilizing gigapixel whole-slide images (WSIs) for a variety of different computational pathology tasks such as outcome prediction and cancer subtyping problems. We extended an AMIL approach to the task of survival prediction by utilizing the classical Cox partial likelihood as a loss function, converting the AMIL model into a nonlinear proportional hazards model. We applied the model to tissue microarray (TMA) slides of 330 lung cancer patients. The results show that AMIL approaches can handle very small amounts of tissue from a TMA and reach similar C-index performance compared to established survival prediction methods trained with highly discriminative clinical factors such as age, cancer grade, and cancer stage
translated by 谷歌翻译