因果推理的现有机器学习方法通​​常通过潜在结果平均值(例如平均治疗效应)估计数量。但是,此类数量不会捕获有关潜在结果分布的完整信息。在这项工作中,我们估计了观察数据干预后潜在结果的密度。具体而言,我们为此目的提出了一种新颖的,全参数的深度学习方法,称为介入归一化流。我们的介入归一化流提供了正确归一化的密度估计器。为此,我们介绍了两个正常流的迭代培训,即(i)教师流以估计令人讨厌的参数,以及(ii)学生流量,用于参数估计潜在结果的密度。为了对学生流参数的有效且双重稳定的估计,我们基于一步偏置校正开发了一个自定义的可拖动优化目标。在各种实验中,我们证明了我们的干预归一化流具有表达性和高效,并且可以很好地扩展样本量和高维混杂。据我们所知,我们的介入归一化流是第一种完全参数的深度学习方法,用于估计潜在结果。
translated by 谷歌翻译
观察数据中估算单个治疗效果(ITE)在许多领域,例如个性化医学等领域。但是,实际上,治疗分配通常被未观察到的变量混淆,因此引入了偏见。消除偏见的一种补救措施是使用仪器变量(IVS)。此类环境在医学中广泛存在(例如,将合规性用作二进制IV的试验)。在本文中,我们提出了一个新颖的,可靠的机器学习框架,称为MRIV,用于使用二进制IV估算ITES,从而产生无偏见的ITE估计器。与以前的二进制IV的工作不同,我们的框架通过伪结果回归直接估算了ITE。 (1)我们提供了一个理论分析,我们表明我们的框架产生了多重稳定的收敛速率:即使几个滋扰估计器的收敛缓慢,我们的ITE估计器也会达到快速收敛。 (2)我们进一步表明,我们的框架渐近地优于最先进的插件IV方法,以进行ITE估计。 (3)我们以理论结果为基础,并提出了一种使用二进制IVS的ITE估算的定制的,称为MRIV-NET的深度神经网络结构。在各种计算实验中,我们从经验上证明了我们的MRIV-NET实现最先进的性能。据我们所知,我们的MRIV是第一个机器学习框架,用于估算显示出倍增功能的二进制IV设置。
translated by 谷歌翻译
一再证明机器学习可以提供不同的结果,其中人群的亚组(例如,由年龄,性别或其他敏感属性定义)是系统地处于不利因果的。先前的文献集中在通过统计程序检测此类差异,以确定敏感属性何时提出了先验的敏感属性。但是,这限制了数据集具有高维度的现实世界设置,最重要的是,敏感属性可能未知。作为一种补救措施,我们提出了一个名为“自动差异位置”(ALD)的数据驱动框架,旨在在机器学习中找到差异。 ALD满足机器学习实践的几种要求:ALD(1)适用于任意机器学习分类器; (2)操作不同的差异定义(例如,统计奇偶校验或均衡赔率); (3)处理分类和连续预测因子; (4)适合处理高维设置; (5)甚至确定了由于相交性而引起的差异,其中差异是由复杂和多路相互作用引起的(例如,年龄高于60岁和女性)。 ALD会产生可解释的公平报告作为输出。我们证明了基于合成和现实世界数据集的ALD的有效性。结果,ALD帮助算法公平性的从业者和研究人员检测机器学习算法的差异,因此可以减轻不同的甚至不公平的结果。此外,ALD支持从业者进行算法审核并保护个人免受歧视。
translated by 谷歌翻译
为了引导电子商务用户进行购买,营销人员依靠对用户何时退出而无需购买的预测。以前,此类预测是基于隐藏的马尔可夫模型(HMM),因为它们具有不同用户意图的潜在购物阶段建模的能力。在这项工作中,我们开发了持续时间依赖的隐藏马尔可夫模型。与传统的HMM相反,它明确地对潜在状态的持续时间进行了建模,从而使国家变得“粘性”。提出的模型在检测用户退出时优于先前的HMM:在不购买的100个用户退出中,它可以正确识别另外18个。这可以帮助营销人员更好地管理电子商务客户的在线行为。我们模型卓越性能的原因是持续时间依赖性,这使我们的模型能够恢复以扭曲时间感的特征的潜在状态。我们最终为此提供了理论上的解释,该解释基于“流”的概念。
translated by 谷歌翻译
业务分析(BA)的广泛采用带来了财务收益和提高效率。但是,当BA以公正的影响为决定时,这些进步同时引起了人们对法律和道德挑战的不断增加。作为对这些关注的回应,对算法公平性的新兴研究涉及算法输出,这些算法可能会导致不同的结果或其他形式的对人群亚组的不公正现象,尤其是那些在历史上被边缘化的人。公平性是根据法律合规,社会责任和效用是相关的;如果不充分和系统地解决,不公平的BA系统可能会导致社会危害,也可能威胁到组织自己的生存,其竞争力和整体绩效。本文提供了有关算法公平的前瞻性,注重BA的评论。我们首先回顾有关偏见来源和措施的最新研究以及偏见缓解算法。然后,我们对公用事业关系的详细讨论进行了详细的讨论,强调经常假设这两种构造之间经常是错误的或短视的。最后,我们通过确定企业学者解决有效和负责任的BA的关键的有影响力的公开挑战的机会来绘制前进的道路。
translated by 谷歌翻译
无监督的域适应性(UDA)旨在使用标记的源域学习机器学习模型,该源域在类似但不同的未标记目标域上表现良好。 UDA在许多应用(例如医学)中很重要,在医学上,它用于适应不同患者队列的风险评分。在本文中,我们为UDA的时间序列数据(称为Cluda)开发了一个新颖的框架。具体而言,我们提出了一个对比度学习框架,以学习多元时间序列中的域不变语义,以便为预测任务保留标签信息。在我们的框架中,我们通过最近的邻居对比学习进一步捕获源和目标域之间的语义变化。据我们所知,我们的第一个框架是学习时间序列数据UDA的域不变语义信息。我们使用医学时间序列(即Mimic-IV和Amsterdamumcdb)使用大规模的现实世界数据集评估我们的框架,以证明其有效性,并表明它在UDA时实现了最先进的性能。
translated by 谷歌翻译
估算观察数据的个性化治疗效果(ITES)对于决策至关重要。为了获得非偏见的ITE估计,常见的假设是所有混杂因素都被观察到。然而,在实践中,我们不太可能直接观察这些混乱。相反,我们经常遵守真正的混乱的噪音测量,这可以作为有效代理。在本文中,我们解决了在观察嘈杂的代理而不是真正的混乱中估算ITE的问题。为此,我们开发了一种Deconfound Temporal AutoEncoder,这是一种利用观察到嘈杂的代理来学习反映真正隐藏的混淆的隐藏嵌入的新方法。特别地,DTA将长短期存储器自动统计器组合出具有因果正则化惩罚,该惩罚使得有条件独立于所学习的隐藏嵌入的潜在结果和治疗分配。通过DTA学习隐藏的嵌入后,最先进的结果模型可用于控制它并获得ITE的无偏见估计。使用综合性和现实世界的医疗数据,我们通过通过大幅保证金改善最先进的基准来证明我们的DTA的有效性。
translated by 谷歌翻译
学习概括目标人口的个性化决定政策具有很大的相关性。由于培训数据往往没有代表目标人群,因此标准政策学习方法可以产生不概括目标人群的政策。为了解决这一挑战,我们提出了一种新颖的框架,用于学习概括目标人口的政策。为此,我们将训练数据和目标群体之间的差异描述为使用选择变量的采样选择偏差。在此选择变量周围设置的不确定性,我们优化了策略的最低限度值,以实现目标人口的最佳案例策略值。为了解决Minimax问题,我们基于凸凹过程推出了一种高效的算法,并证明了对逻辑策略等策略的参数化空间的收敛性。我们证明,如果不确定性集被详细说明,我们的政策会推广到目标人口,因为它们不能比培训数据更糟糕。使用模拟数据和临床试验,我们证明,与标准政策学习方法相比,我们的框架大大提高了政策的普遍性。
translated by 谷歌翻译
Diversity Searcher is a tool originally developed to help analyse diversity in news media texts. It relies on a form of automated content analysis and thus rests on prior assumptions and depends on certain design choices related to diversity and fairness. One such design choice is the external knowledge source(s) used. In this article, we discuss implications that these sources can have on the results of content analysis. We compare two data sources that Diversity Searcher has worked with - DBpedia and Wikidata - with respect to their ontological coverage and diversity, and describe implications for the resulting analyses of text corpora. We describe a case study of the relative over- or under-representation of Belgian political parties between 1990 and 2020 in the English-language DBpedia, the Dutch-language DBpedia, and Wikidata, and highlight the many decisions needed with regard to the design of this data analysis and the assumptions behind it, as well as implications from the results. In particular, we came across a staggering over-representation of the political right in the English-language DBpedia.
translated by 谷歌翻译
Artificial intelligence(AI) systems based on deep neural networks (DNNs) and machine learning (ML) algorithms are increasingly used to solve critical problems in bioinformatics, biomedical informatics, and precision medicine. However, complex DNN or ML models that are unavoidably opaque and perceived as black-box methods, may not be able to explain why and how they make certain decisions. Such black-box models are difficult to comprehend not only for targeted users and decision-makers but also for AI developers. Besides, in sensitive areas like healthcare, explainability and accountability are not only desirable properties of AI but also legal requirements -- especially when AI may have significant impacts on human lives. Explainable artificial intelligence (XAI) is an emerging field that aims to mitigate the opaqueness of black-box models and make it possible to interpret how AI systems make their decisions with transparency. An interpretable ML model can explain how it makes predictions and which factors affect the model's outcomes. The majority of state-of-the-art interpretable ML methods have been developed in a domain-agnostic way and originate from computer vision, automated reasoning, or even statistics. Many of these methods cannot be directly applied to bioinformatics problems, without prior customization, extension, and domain adoption. In this paper, we discuss the importance of explainability with a focus on bioinformatics. We analyse and comprehensively overview of model-specific and model-agnostic interpretable ML methods and tools. Via several case studies covering bioimaging, cancer genomics, and biomedical text mining, we show how bioinformatics research could benefit from XAI methods and how they could help improve decision fairness.
translated by 谷歌翻译