In both terrestrial and marine ecology, physical tagging is a frequently used method to study population dynamics and behavior. However, such tagging techniques are increasingly being replaced by individual re-identification using image analysis. This paper introduces a contrastive learning-based model for identifying individuals. The model uses the first parts of the Inception v3 network, supported by a projection head, and we use contrastive learning to find similar or dissimilar image pairs from a collection of uniform photographs. We apply this technique for corkwing wrasse, Symphodus melops, an ecologically and commercially important fish species. Photos are taken during repeated catches of the same individuals from a wild population, where the intervals between individual sightings might range from a few days to several years. Our model achieves a one-shot accuracy of 0.35, a 5-shot accuracy of 0.56, and a 100-shot accuracy of 0.88, on our dataset.
translated by 谷歌翻译
野生动植物摄像机陷阱和众包材料提供了监测濒危动物物种的新型可能性。但是,这些方法产生的大量图像量对于研究人员来说是压倒性的,可以手动进行手动,要求自动系统执行分析。获得最关注的分析任务是重新确定个体,例如,它可以研究动物迁移或估计人口规模。 Saimaa环形海豹(Pusa hispida saimensis)是仅在芬兰西马阿湖中发现的濒危亚种,是现有的少数淡水海豹物种之一。环形密封件具有永久性的层模式,每个人都可以使用,可用于识别个体。密封的可变形性质以及环形图案和其余部分之间的不同外观和较低的对比度,使Saimaa环形密封重新识别任务变得非常具有挑战性,从而提供了良好的基准,从而提供了一个良好的基准,从而提供了一个良好的基准,从而提供了一个很好的基准来评估最新的基准 - ART重新识别方法。因此,我们使Saimaa环形密封图像(SealId)数据集(n = 57)公开用于研究目的。在本文中,描述了数据集,提出了重新识别方法的评估协议,并提供了两种基线方法的结果热点和NOPPA。 SEALID数据集已公开可用。
translated by 谷歌翻译
本文结合了一条管道中的物种检测,3D模型拟合和度量学习的深度学习技术,通过利用独特的外套图案来从照片中进行单个动物识别。这是尝试此操作的第一项工作,与传统的2D边界框或基于CNN的CNN识别管道相比,该方法提供了有效且明确的视图标准化,并可以直接对学习的生物特征识别人群空间进行直接可视化。请注意,由于使用度量,该管道也很容易适用于打开集和零射击重新识别方案。我们将提出的方法应用于单个Grevy的斑马(Equus Grevyi)识别,并在一项有关Smalst数据集的小型研究中显示,使用3D模型拟合确实可以使性能受益。特别是,与数据集的2D边界框方法相比,来自3D拟合模型的背面纹理将识别精度从48.0%提高到56.8%。尽管该研究的准确程度太小,无法估算大型现实应用程序设置可实现的全部性能潜力,并且与抛光工具相比,我们的工作为下一步的动物生物识别技术奠定了概念和实用的基础,以深度度量学习在开放的人口环境中驱动的,完全3D感知的动物识别。我们将网络权重和相关的促进源代码与本文发布,以完全可重复性,并作为进一步研究的灵感。
translated by 谷歌翻译
Photo-identification (photo-id) is one of the main non-invasive capture-recapture methods utilised by marine researchers for monitoring cetacean (dolphin, whale, and porpoise) populations. This method has historically been performed manually resulting in high workload and cost due to the vast number of images collected. Recently automated aids have been developed to help speed-up photo-id, although they are often disjoint in their processing and do not utilise all available identifying information. Work presented in this paper aims to create a fully automatic photo-id aid capable of providing most likely matches based on all available information without the need for data pre-processing such as cropping. This is achieved through a pipeline of computer vision models and post-processing techniques aimed at detecting cetaceans in unedited field imagery before passing them downstream for individual level catalogue matching. The system is capable of handling previously uncatalogued individuals and flagging these for investigation thanks to catalogue similarity comparison. We evaluate the system against multiple real-life photo-id catalogues, achieving mAP@IOU[0.5] = 0.91, 0.96 for the task of dorsal fin detection on catalogues from Tanzania and the UK respectively and 83.1, 97.5% top-10 accuracy for the task of individual classification on catalogues from the UK and USA.
translated by 谷歌翻译
我们提出了一种Saimaa环形密封(Pusa hispida saimensis)的方法。通过摄像机捕获和众包访问大型图像量,为动物监测和保护提供了新的可能性,并呼吁自动分析方法,特别是在重新识别图像中的单个动物时。所提出的方法通过PELAGE模式聚合(NORPPA)重新识别新型环形密封件,利用Saimaa环形密封件的永久和独特的毛线模式和基于内容的图像检索技术。首先,对查询图像进行了预处理,每个密封实例都进行了分段。接下来,使用基于U-NET编码器解码器的方法提取密封件的层模式。然后,将基于CNN的仿射不变特征嵌入并聚集到Fisher载体中。最后,使用Fisher载体之间的余弦距离用于从已知个体数据库中找到最佳匹配。我们在新的挑战性Saimaa环形密封件重新识别数据集上对该方法进行了各种修改的广泛实验。在与替代方法的比较中,提出的方法显示出在我们的数据集上产生最佳的重新识别精度。
translated by 谷歌翻译
细粒度的图像分析(FGIA)是计算机视觉和模式识别中的长期和基本问题,并为一组多种现实世界应用提供了基础。 FGIA的任务是从属类别分析视觉物体,例如汽车或汽车型号的种类。细粒度分析中固有的小阶级和阶级阶级内变异使其成为一个具有挑战性的问题。利用深度学习的进步,近年来,我们在深入学习动力的FGIA中见证了显着进展。在本文中,我们对这些进展的系统进行了系统的调查,我们试图通过巩固两个基本的细粒度研究领域 - 细粒度的图像识别和细粒度的图像检索来重新定义和扩大FGIA领域。此外,我们还审查了FGIA的其他关键问题,例如公开可用的基准数据集和相关域的特定于应用程序。我们通过突出几个研究方向和开放问题,从社区中突出了几个研究方向和开放问题。
translated by 谷歌翻译
了解物种的丰富是迈向理解其长期可持续性的第一步和我们可能对其的影响。生态学家使用相机陷阱来远程调查,用于存在特定的动物物种。以前的研究表明,可以训练深度学习模型,以便在相机陷阱图像内自动检测和分类动物,具有高度的信心。然而,培训这些模型的能力是依赖于拥有足够高质量训练数据的依赖性。当动物很少罕见或数据集是不存在的?该研究提出了一种使用颈部珍稀动物的图像的方法(专注于苏格兰野猫队)来生成训练数据集。我们探讨与在野生收集的数据应用时培训的普遍存在培训的模型相关的挑战。该研究是以生态学家在规划/工程中的需求的语境。在其他研究中之后,该项目建立了对象检测的集合,然后使用不同的图像操纵和类结构化技术来测试的对象检测,图像分割和图像分类模型来鼓励模型泛化。在苏格兰野猫队的背景下,研究得出结论,捕获在囚禁图像上的模型不能使用现有技术来推广到野生摄像机陷阱图像。然而,基于两级模型Wildcat与Wildcat的最终模型表演实现了81.6%的总精度得分,并且在测试集中的野猫准确度得分为54.8%,其中仅包含野猫队的1%的图像。这表明使用囚禁图像是可行的,具有进一步的研究。这是第一个研究,该研究试图基于囚禁数据生成培训集,并在规划/工程中的生态学家的背景下探讨这些模型的发展。
translated by 谷歌翻译
无线电星系的连续排放通常可以分为不同的形态学类,如FRI,Frii,弯曲或紧凑。在本文中,我们根据使用深度学习方法使用小规模数据集的深度学习方法来探讨基于形态的无线电星系分类的任务($ \ SIM 2000 $ Samples)。我们基于双网络应用了几次射击学习技术,并使用预先培训的DENSENET模型进行了先进技术的传输学习技术,如循环学习率和歧视性学习迅速训练模型。我们使用最佳表演模型实现了超过92 \%的分类准确性,其中最大的混乱来源是弯曲和周五型星系。我们的结果表明,专注于一个小但策划数据集随着使用最佳实践来训练神经网络可能会导致良好的结果。自动分类技术对于即将到来的下一代无线电望远镜的调查至关重要,这预计将在不久的将来检测数十万个新的无线电星系。
translated by 谷歌翻译
很少有细粒度的分类和人搜索作为独特的任务和文学作品,已经分别对待了它们。但是,仔细观察揭示了重要的相似之处:这两个任务的目标类别只能由特定的对象细节歧视;相关模型应概括为新类别,而在培训期间看不到。我们提出了一个适用于这两个任务的新型统一查询引导网络(QGN)。QGN由一个查询引导的暹罗引文和兴奋子网组成,该子网还重新进行了所有网络层的查询和画廊功能,一个查询实习的区域建议特定于特定于特定的本地化以及查询指导的相似性子网络子网本网络用于公制学习。QGN在最近的一些少数细颗粒数据集上有所改善,在幼崽上的其他技术优于大幅度。QGN还对人搜索Cuhk-Sysu和PRW数据集进行了竞争性执行,我们在其中进行了深入的分析。
translated by 谷歌翻译
截至2017年,鱼类产品约占全球人类饮食的16%。计数作用是生产和生产这些产品的重要组成部分。种植者必须准确计算鱼类,以便这样做技术解决方案。开发了两个计算机视觉系统,以自动计算在工业池塘中生长的甲壳类幼虫。第一个系统包括带有3024x4032分辨率的iPhone 11摄像头,该摄像头在室内条件下从工业池塘中获取图像。使用该系统进行了两次实验,第一部实验包括在一天的增长阶段,在9,10的一天中使用iPhone 11相机在特定照明条件下获得的200张图像。在第二个实验中,用两个设备iPhone 11和索尼DSCHX90V摄像机拍摄了一个幼虫工业池。使用第一个设备(iPhone 11)测试了两个照明条件。在每种情况下,都获得了110张图像。该系统的准确性为88.4%的图像检测。第二个系统包括DSLR Nikon D510相机,具有2000x2000分辨率,在工业池塘外进行了七次实验。在幼虫生长阶段的第1天获取图像,从而获得了总共700张图像。该系统的密度为50的精度为86%。一种基于Yolov5 CNN模型开发的算法,该算法自动计算两种情况的幼虫数量。此外,在这项研究中,开发了幼虫生长函数。每天,从工业池塘手动取几个幼虫,并在显微镜下进行分析。确定生长阶段后,就获得了幼虫的图像。每个幼虫的长度都是通过图像手动测量的。最合适的模型是Gompertz模型,其拟合指数的良好性r平方为0.983。
translated by 谷歌翻译
基因组工程正在进行前所未有的发展,现在已广泛可用。为确保负责任的生物技术创新并减少滥用工程DNA序列,为识别工程型质粒的起源实验室来说是至关重要的。基因工程归因(GEA),制定序列实验室协会的能力将支持这一过程中的法医专家。在这里,我们提出了一种基于度量学习的方法,该方法将最可能的原产实验室排名,同时为质粒序列和实验室产生嵌入。这些嵌入物可用于执行各种下游任务,例如聚类DNA序列和实验室,以及在机器学习模型中使用它们作为特征。我们的方法采用了循环转移增强方法,能够在前10个预测中正确地将原产于原产的90亿美元的时间排列 - 优于所有最新的最先进的方法。我们还证明我们可以使用只需10次\%$ 10 \%$ of序列进行几次拍摄学习并获得76±10美元的准确性。这意味着,我们仅使用第十个数据表达先前的CNN方法。我们还证明我们能够在特定实验室中提取质粒序列中的关键签名,允许对模型的产出进行可解释的检查。
translated by 谷歌翻译
地理定位的概念是指确定地球上的某些“实体”的位置的过程,通常使用全球定位系统(GPS)坐标。感兴趣的实体可以是图像,图像序列,视频,卫星图像,甚至图像中可见的物体。由于GPS标记媒体的大规模数据集由于智能手机和互联网而迅速变得可用,而深入学习已经上升以提高机器学习模型的性能能力,因此由于其显着影响而出现了视觉和对象地理定位的领域广泛的应用,如增强现实,机器人,自驾驶车辆,道路维护和3D重建。本文提供了对涉及图像的地理定位的全面调查,其涉及从捕获图像(图像地理定位)或图像内的地理定位对象(对象地理定位)的地理定位的综合调查。我们将提供深入的研究,包括流行算法的摘要,对所提出的数据集的描述以及性能结果的分析来说明每个字段的当前状态。
translated by 谷歌翻译
海洋生态系统及其鱼类栖息地越来越重要,因为它们在提供有价值的食物来源和保护效果方面的重要作用。由于它们的偏僻且难以接近自然,因此通常使用水下摄像头对海洋环境和鱼类栖息地进行监测。这些相机产生了大量数字数据,这些数据无法通过当前的手动处理方法有效地分析,这些方法涉及人类观察者。 DL是一种尖端的AI技术,在分析视觉数据时表现出了前所未有的性能。尽管它应用于无数领域,但仍在探索其在水下鱼类栖息地监测中的使用。在本文中,我们提供了一个涵盖DL的关键概念的教程,该教程可帮助读者了解对DL的工作原理的高级理解。该教程还解释了一个逐步的程序,讲述了如何为诸如水下鱼类监测等挑战性应用开发DL算法。此外,我们还提供了针对鱼类栖息地监测的关键深度学习技术的全面调查,包括分类,计数,定位和细分。此外,我们对水下鱼类数据集进行了公开调查,并比较水下鱼类监测域中的各种DL技术。我们还讨论了鱼类栖息地加工深度学习的新兴领域的一些挑战和机遇。本文是为了作为希望掌握对DL的高级了解,通过遵循我们的分步教程而为其应用开发的海洋科学家的教程,并了解如何发展其研究,以促进他们的研究。努力。同时,它适用于希望调查基于DL的最先进方法的计算机科学家,以进行鱼类栖息地监测。
translated by 谷歌翻译
大多数杂草物种都会通过竞争高价值作物所需的营养而产生对农业生产力的不利影响。手动除草对于大型种植区不实用。已经开展了许多研究,为农业作物制定了自动杂草管理系统。在这个过程中,其中一个主要任务是识别图像中的杂草。但是,杂草的认可是一个具有挑战性的任务。它是因为杂草和作物植物的颜色,纹理和形状类似,可以通过成像条件,当记录图像时的成像条件,地理或天气条件进一步加剧。先进的机器学习技术可用于从图像中识别杂草。在本文中,我们调查了五个最先进的深神经网络,即VGG16,Reset-50,Inception-V3,Inception-Resnet-V2和MobileNetv2,并评估其杂草识别的性能。我们使用了多种实验设置和多个数据集合组合。特别是,我们通过组合几个较小的数据集,通过数据增强构成了一个大型DataSet,缓解了类别不平衡,并在基于深度神经网络的基准测试中使用此数据集。我们通过保留预先训练的权重来调查使用转移学习技术来利用作物和杂草数据集的图像提取特征和微调它们。我们发现VGG16比小规模数据集更好地执行,而ResET-50比其他大型数据集上的其他深网络更好地执行。
translated by 谷歌翻译
我们提出了一个自动化文档分析系统,用于处理扫描的签证页面,并自动提取来自检测到的邮票的旅行模式。系统通过以下流水线处理页面:签证页面中的标记检测;一般邮票国家和入境/退出识别;申根地区邮票国家和入境/退出识别;申根区印花税日期提取。对于所提出的管道的每个阶段,我们构建了神经网络模型。我们将申根区邮票检测和日期,国家,进入/退出识别模型与图形用户界面一起集成到自动旅行模式提取工具中,这足以实现实际应用。
translated by 谷歌翻译
State-of-the-art computer vision systems are trained to predict a fixed set of predetermined object categories. This restricted form of supervision limits their generality and usability since additional labeled data is needed to specify any other visual concept. Learning directly from raw text about images is a promising alternative which leverages a much broader source of supervision. We demonstrate that the simple pre-training task of predicting which caption goes with which image is an efficient and scalable way to learn SOTA image representations from scratch on a dataset of 400 million (image, text) pairs collected from the internet. After pre-training, natural language is used to reference learned visual concepts (or describe new ones) enabling zero-shot transfer of the model to downstream tasks. We study the performance of this approach by benchmarking on over 30 different existing computer vision datasets, spanning tasks such as OCR, action recognition in videos, geo-localization, and many types of fine-grained object classification. The model transfers non-trivially to most tasks and is often competitive with a fully supervised baseline without the need for any dataset specific training. For instance, we match the accuracy of the original ResNet-50 on ImageNet zero-shot without needing to use any of the 1.28 million training examples it was trained on. We release our code and pre-trained model weights at https://github.com/OpenAI/CLIP.
translated by 谷歌翻译
Person re-identification (Re-ID) aims at retrieving a person of interest across multiple non-overlapping cameras. With the advancement of deep neural networks and increasing demand of intelligent video surveillance, it has gained significantly increased interest in the computer vision community. By dissecting the involved components in developing a person Re-ID system, we categorize it into the closed-world and open-world settings. The widely studied closed-world setting is usually applied under various research-oriented assumptions, and has achieved inspiring success using deep learning techniques on a number of datasets. We first conduct a comprehensive overview with in-depth analysis for closed-world person Re-ID from three different perspectives, including deep feature representation learning, deep metric learning and ranking optimization. With the performance saturation under closed-world setting, the research focus for person Re-ID has recently shifted to the open-world setting, facing more challenging issues. This setting is closer to practical applications under specific scenarios. We summarize the open-world Re-ID in terms of five different aspects. By analyzing the advantages of existing methods, we design a powerful AGW baseline, achieving state-of-the-art or at least comparable performance on twelve datasets for FOUR different Re-ID tasks. Meanwhile, we introduce a new evaluation metric (mINP) for person Re-ID, indicating the cost for finding all the correct matches, which provides an additional criteria to evaluate the Re-ID system for real applications. Finally, some important yet under-investigated open issues are discussed.
translated by 谷歌翻译
相机陷阱是监视收集大量图片的野生动植物的策略。从每个物种收集的图像数量通常遵循长尾分布,即,一些类有大量实例,而许多物种只有很小的比例。尽管在大多数情况下,这些稀有物种是生态学家感兴趣的类别,但在使用深度学习模型时,它们通常被忽略,因为这些模型需要大量的培训图像。在这项工作中,我们系统地评估了最近提出的技术 - 即平方根重新采样,平衡的焦点损失和平衡的组软效果 - 以解决相机陷阱图像中动物物种的长尾视觉识别。为了得出更一般的结论,我们评估了四个计算机视觉模型家族(Resnet,Mobilenetv3,EdgitionNetV2和Swin Transformer)和具有不同特征不同的相机陷阱数据集的四个家族。最初,我们用最新的培训技巧准备了一个健壮的基线,然后应用了改善长尾识别的方法。我们的实验表明,Swin Transformer可以在不应用任何其他方法处理不平衡的方法的情况下达到稀有类别的高性能,WCS数据集的总体准确性为88.76%,Snapshot Serengeti的总体准确性为94.97%,考虑到基于位置的火车/测试拆分。通常,平方根采样是一种方法,它最大程度地提高了少数族裔阶级的表现约为10%,但以降低多数类准确性至少4%的代价。这些结果促使我们使用合并平方根采样和基线的合奏提出了一种简单有效的方法。拟议的方法实现了尾巴级的性能与头等阶级准确性的成本之间的最佳权衡。
translated by 谷歌翻译
大坝水库在实现可持续发展目标和全球气候目标方面发挥着重要作用。但是,特别是对于小型水坝水库,其地理位置缺乏一致的数据。为了解决此数据差距,一种有前途的方法是根据全球可用的遥感图像进行自动水坝水库提取。它可以被认为是水体提取的精细颗粒任务,涉及在图像中提取水区,然后将水坝储层与天然水体分开。我们提出了一种基于新型的深神经网络(DNN)管道,该管道将大坝水库提取到水体分割和大坝储层识别中。首先将水体与分割模型中的背景土地分开,然后将每个水体预测为大坝储层或分类模型中的天然水体。对于以前的一步,将跨图像的点级度量学习注入分段模型,以解决水域和土地区域之间的轮廓模棱两可。对于后一个步骤,将带有簇的三重态的先前引导的度量学习注入到分类模型中,以根据储层簇在细粒度中优化图像嵌入空间。为了促进未来的研究,我们建立了一个带有地球图像数据的基准数据集,并从西非和印度的河流盆地标记为人类标记的水库。在水体分割任务,水坝水库识别任务和关节坝储层提取任务中,对这个基准进行了广泛的实验。将我们的方法与艺术方法的方法进行比较时,已经在各自的任务中观察到了卓越的性能。
translated by 谷歌翻译
Recently, Person Re-Identification (Re-ID) has received a lot of attention. Large datasets containing labeled images of various individuals have been released, allowing researchers to develop and test many successful approaches. However, when such Re-ID models are deployed in new cities or environments, the task of searching for people within a network of security cameras is likely to face an important domain shift, thus resulting in decreased performance. Indeed, while most public datasets were collected in a limited geographic area, images from a new city present different features (e.g., people's ethnicity and clothing style, weather, architecture, etc.). In addition, the whole frames of the video streams must be converted into cropped images of people using pedestrian detection models, which behave differently from the human annotators who created the dataset used for training. To better understand the extent of this issue, this paper introduces a complete methodology to evaluate Re-ID approaches and training datasets with respect to their suitability for unsupervised deployment for live operations. This method is used to benchmark four Re-ID approaches on three datasets, providing insight and guidelines that can help to design better Re-ID pipelines in the future.
translated by 谷歌翻译