Designing efficient and labor-saving prosthetic hands requires powerful hand gesture recognition algorithms that can achieve high accuracy with limited complexity and latency. In this context, the paper proposes a compact deep learning framework referred to as the CT-HGR, which employs a vision transformer network to conduct hand gesture recognition using highdensity sEMG (HD-sEMG) signals. The attention mechanism in the proposed model identifies similarities among different data segments with a greater capacity for parallel computations and addresses the memory limitation problems while dealing with inputs of large sequence lengths. CT-HGR can be trained from scratch without any need for transfer learning and can simultaneously extract both temporal and spatial features of HD-sEMG data. Additionally, the CT-HGR framework can perform instantaneous recognition using sEMG image spatially composed from HD-sEMG signals. A variant of the CT-HGR is also designed to incorporate microscopic neural drive information in the form of Motor Unit Spike Trains (MUSTs) extracted from HD-sEMG signals using Blind Source Separation (BSS). This variant is combined with its baseline version via a hybrid architecture to evaluate potentials of fusing macroscopic and microscopic neural drive information. The utilized HD-sEMG dataset involves 128 electrodes that collect the signals related to 65 isometric hand gestures of 20 subjects. The proposed CT-HGR framework is applied to 31.25, 62.5, 125, 250 ms window sizes of the above-mentioned dataset utilizing 32, 64, 128 electrode channels. The average accuracy over all the participants using 32 electrodes and a window size of 31.25 ms is 86.23%, which gradually increases till reaching 91.98% for 128 electrodes and a window size of 250 ms. The CT-HGR achieves accuracy of 89.13% for instantaneous recognition based on a single frame of HD-sEMG image.
translated by 谷歌翻译
这项研究的目的是开发一个强大的基于深度学习的框架,以区分Covid-19,社区获得的肺炎(CAP)和基于使用各种方案和放射剂量在不同成像中心获得的胸部CT扫描的正常病例和正常情况。我们表明,虽然我们的建议模型是在使用特定扫描协议仅从一个成像中心获取的相对较小的数据集上训练的,但该模型在使用不同技术参数的多个扫描仪获得的异质测试集上表现良好。我们还表明,可以通过无监督的方法来更新模型,以应对火车和测试集之间的数据移动,并在从其他中心接收新的外部数据集时增强模型的鲁棒性。我们采用了合奏体系结构来汇总该模型的多个版本的预测。为了初始培训和开发目的,使用了171 Covid-19、60 CAP和76个正常情况的内部数据集,其中包含使用恒定的标准辐射剂量扫描方案从一个成像中心获得的体积CT扫描。为了评估模型,我们回顾了四个不同的测试集,以研究数据特征对模型性能的转移的影响。在测试用例中,有与火车组相似的CT扫描,以及嘈杂的低剂量和超低剂量CT扫描。此外,从患有心血管疾病或手术病史的患者中获得了一些测试CT扫描。这项研究中使用的整个测试数据集包含51 covid-19、28 CAP和51例正常情况。实验结果表明,我们提出的框架在所有测试集上的表现良好,达到96.15%的总准确度(95%CI:[91.25-98.74]),COVID-119,COVID-96.08%(95%CI:[86.54-99.5],95%),[86.54-99.5],),,),敏感性。帽敏感性为92.86%(95%CI:[76.50-99.19])。
translated by 谷歌翻译
逆转录 - 聚合酶链反应(RT-PCR)目前是Covid-19诊断中的金标准。然而,它可以花几天来提供诊断,假负率相对较高。成像,特别是胸部计算断层扫描(CT),可以有助于诊断和评估这种疾病。然而,表明标准剂量CT扫描对患者提供了显着的辐射负担,尤其是需要多次扫描的患者。在这项研究中,我们考虑低剂量和超低剂量(LDCT和ULDCT)扫描方案,其减少靠近单个X射线的辐射曝光,同时保持可接受的分辨率以进行诊断目的。由于胸部放射学专业知识可能不会在大流行期间广泛使用,我们使用LDCT / ULDCT扫描的收集的数据集进行人工智能(AI)基础的框架,以研究AI模型可以提供人为级性能的假设。 AI模型使用了两个阶段胶囊网络架构,可以快速对Covid-19,社区获得的肺炎(帽)和正常情况进行分类,使用LDCT / ULDCT扫描。 AI模型实现Covid-19敏感性为89.5%+ - 0.11,帽敏感性为95%+ \ - 0.11,正常情况敏感性(特异性)85.7%+ - 0.16,精度为90%+ \ - 0.06。通过纳入临床数据(人口统计和症状),性能进一步改善了Covid-19敏感性为94.3%+ \ - PM 0.05,帽敏感性为96.7%+ \ - 0.07,正常情况敏感性(特异性)91%+ - 0.09,精度为94.1%+ \ - 0.03。所提出的AI模型基于降低辐射暴露的LDCT / ULDCT扫描来实现人级诊断。我们认为,所提出的AI模型有可能协助放射科医师准确,并迅速诊断Covid-19感染,并帮助控制大流行期间的传输链。
translated by 谷歌翻译
牙齿分割是牙科修复体中的一个重要主题,这对于牙冠的产生,诊断和治疗计划至关重要。在牙科字段中,输入数据的可变性很高,没有公开可用的3D牙科拱门数据集。尽管最近对3D数据的深度学习体系结构提供的领域有所改善,但仍然存在一些问题,例如正确识别拱门中缺失的牙齿。我们建议将光谱聚类用作自我探测信号,以将3D拱门分割的联合训练神经网络进行分割。我们的方法是通过观察到的,即K-均值聚类提供了捕获与人类感知相关的边缘线的线索。主要思想是通过将未标记的3D拱门分解为仅依靠几何信息的细分市场来自动生成训练数据。然后,使用关节损失对网络进行训练,该联合损失结合了注释输入的监督损失和无标签输入的自制损失。我们收集的数据有多种拱门,包括牙齿缺失的拱门。我们的实验结果表明,在使用半监督学习时,对完全监督的最先进的meshsegnet进行了改善。最后,我们贡献代码和数据集。
translated by 谷歌翻译