人纹理感知是多感官输入的加权平均值:视觉和触觉。当视觉传感机制提取全局特征时,触觉机制通过提取本地特征来补充它。文献中缺乏耦合的视觉效果数据集是研究类似于人类质地知觉的多模式融合策略的挑战。本文介绍了一个视觉数据集,可扩大现有的触觉数据集。我们提出了一种新型的深层融合体系结构,该融合体使用四种类型的融合策略融合了视觉和触觉数据:求和,串联,最大程度和注意力。我们的模型仅在触觉(SVM -92.60%)和仅视觉(FENET -50-50-85.01%)体系结构方面显示出显着的性能改进(97.22%)。在几种融合技术中,注意引导的体系结构可提高分类的精度。我们的研究表明,类似于人类纹理感知,提出的模型选择了两种方式(视觉和触觉)的加权组合,从而导致表面粗糙度分类的精度较高。它选择最大化视觉模态失败的触觉方式的重量,反之亦然。
translated by 谷歌翻译