One of the weaknesses of classical (fuzzy) rough sets is their sensitivity to noise, which is particularly undesirable for machine learning applications. One approach to solve this issue is by making use of fuzzy quantifiers, as done by the vaguely quantified fuzzy rough set (VQFRS) model. While this idea is intuitive, the VQFRS model suffers from both theoretical flaws as well as from suboptimal performance in applications. In this paper, we improve on VQFRS by introducing fuzzy quantifier-based fuzzy rough sets (FQFRS), an intuitive generalization of fuzzy rough sets that makes use of general unary and binary quantification models. We show how several existing models fit in this generalization as well as how it inspires novel ones. Several binary quantification models are proposed to be used with FQFRS. We conduct a theoretical study of their properties, and investigate their potential by applying them to classification problems. In particular, we highlight Yager's Weighted Implication-based (YWI) binary quantification model, which induces a fuzzy rough set model that is both a significant improvement on VQFRS, as well as a worthy competitor to the popular ordered weighted averaging based fuzzy rough set (OWAFRS) model.
translated by 谷歌翻译
当在条件属性上以某种方式相关的实例时,发生预测问题的不一致不会遵循决策属性的相同关系。例如,在具有单调性约束的序数分类中,当在条件属性上占据另一个实例的实例已经分配给更糟糕的决策类时,会发生它。它通常出现在由不完全知识(缺少属性)或通过数据生成期间发生的随机效果引起的数据的扰动(在决策属性值的评估中的不稳定性)引起的数据中的扰动。可以使用符号方法如粗糙集理论等象征方法处理和涉及优化方法的统计/机器学习方法,处理相对于清晰的预购关系(表达实例之间的差异或实例之间的无漏能格)不一致。模糊粗糙集也可以被视为对模糊关系处理不一致的象征性方法。在本文中,我们介绍了一种新的机器学习方法,用于对模糊预订关系进行不一致处理。新颖的方法是由用于清脆关系的现有机器学习方法的激励。我们为IT提供统计基础,并开发可用于消除不一致的优化程序。本文还证明了重要的财产,并载有这些程序的教学例子。
translated by 谷歌翻译
决策者可以通过间隔估值的Q-RONG Orthopair模糊集(IVQ-ROF)来评估更灵活,该模糊套装(IVQ-ROF)提供模糊决策更多的应用空间。同时,Choquet Integralses非添加性集合功能(模糊测量)直接描述属性之间的交互。特别是,属性之间存在大量实际问题。因此,本文提出了相关运营商和组决策 - 制作方法基于间隔值Q-RONG Orthopair模糊Set Choquet Integral.dirst,intervalglued Q-rung orthopair模糊Choquet整体平均运算符(IVQ-rofca)和间隔值q-rung orthopair模糊choquet整体几何算子( IVQ-ROFCG)被致敏感,并证明了它们的基本性质。繁多,开发了基于IVQ-ROFCA和IVQ-ROFCG的几个运算符。然后,开发了一种基于IVQ-ROFCA的组决策方法,可以解决归因于属性之间的相互作用的决策。最后,通过实施高血压警告管理系统,结果显示了运营商和组决策 - 本文提出的制造方法可以处理复杂的决策情况,决策结果与医生的诊断结果一致.OREOVER,与其他运营商结果的比较表明,建议的运营商和组决策方法表明是正确且有效的,决策结果不会受到Q值的变化的影响。
translated by 谷歌翻译
我们介绍了统计实验的两种新的信息度量,它们概括和包含$ \ phi $ -diverences,积分概率指标,$ \ mathfrak {n} $ - distances(mmd)和$(f,\ gamma)$ divergences $ divergences在两个或多个分布之间。这使我们能够在信息的度量与统计决策问题的贝叶斯风险之间得出简单的几何关系,从而将变异的$ \ phi $ -divergence代表扩展到多个分布,以完全对称的方式。在马尔可夫运营商的行动下,新的分歧家庭被关闭,该家族产生了信息处理平等,这是经典数据处理不平等的完善和概括。这种平等使人深入了解假设类别在经典风险最小化中的重要性。
translated by 谷歌翻译
在本文中,我们建立了模糊和优惠语义之间的联系,用于描述逻辑和自组织地图,这些地图已被提出为可能的候选人来解释类别概括的心理机制。特别是,我们表明,在训练之后的自组织地图的输入/输出行为可以通过模糊描述逻辑解释以及基于概念 - 方面的多次方法语义来描述逻辑解释以及考虑偏好的优先解释关于不同的概念,最近提出了排名和加权污染描述逻辑。可以通过模型检查模糊或优先解释来证明网络的属性。从模糊解释开始,我们还为此神经网络模型提供了概率账户。
translated by 谷歌翻译
机器学习通常以经典的概率理论为前提,这意味着聚集是基于期望的。现在有多种原因可以激励人们将经典概率理论作为机器学习的数学基础。我们系统地检查了一系列强大而丰富的此类替代品,即各种称为光谱风险度量,Choquet积分或Lorentz规范。我们提出了一系列的表征结果,并演示了使这个光谱家族如此特别的原因。在此过程中,我们证明了所有连贯的风险度量的自然分层,从它们通过利用重新安排不变性Banach空间理论的结果来诱导的上层概率。我们凭经验证明了这种新的不确定性方法如何有助于解决实用的机器学习问题。
translated by 谷歌翻译
我们在非参数二进制分类的一个对抗性训练问题之间建立了等价性,以及规范器是非识别范围功能的正则化风险最小化问题。由此产生的正常风险最小化问题允许在图像分析和基于图形学习中常常研究的$ L ^ 1 + $(非本地)$ \ Operatorvers {TV} $的精确凸松弛。这种重构揭示了丰富的几何结构,这反过来允许我们建立原始问题的最佳解决方案的一系列性能,包括存在最小和最大解决方案(以合适的意义解释),以及常规解决方案的存在(也以合适的意义解释)。此外,我们突出了对抗性训练和周长最小化问题的联系如何为涉及周边/总变化的正规风险最小化问题提供一种新颖的直接可解释的统计动机。我们的大部分理论结果与用于定义对抗性攻击的距离无关。
translated by 谷歌翻译
Graph clustering is a fundamental problem in unsupervised learning, with numerous applications in computer science and in analysing real-world data. In many real-world applications, we find that the clusters have a significant high-level structure. This is often overlooked in the design and analysis of graph clustering algorithms which make strong simplifying assumptions about the structure of the graph. This thesis addresses the natural question of whether the structure of clusters can be learned efficiently and describes four new algorithmic results for learning such structure in graphs and hypergraphs. All of the presented theoretical results are extensively evaluated on both synthetic and real-word datasets of different domains, including image classification and segmentation, migration networks, co-authorship networks, and natural language processing. These experimental results demonstrate that the newly developed algorithms are practical, effective, and immediately applicable for learning the structure of clusters in real-world data.
translated by 谷歌翻译
ALChour \“Ardenfors的AGM发布,Makinson继续代表与信仰变革有关的研究中的基石。Katsuno和Mendelzon(K&M)通过了AGM假设改变信仰基地,并在命题中的特征agm信仰基地修订有限签名的逻辑。我们概括了K&M在任意Tarskian逻辑中设置的(多个)基本修订版的方法,涵盖了具有经典模型 - 理论语义的所有逻辑,从而涵盖了知识表示和超越的各种逻辑。我们的通用配方适用于“基础”的各种概念(例如信仰集,任意或有限的句子或单句话)。核心结果是表示AGM基本修订运算符和某些“分配”之间双向对应的表示定理:函数映射信仰基础到总数 - 尚未传递 - “偏好”解释之间的关系。与此同时,我们为CAS提供了一个伴侣E当agm andodatience的AGM假设被遗弃时。我们还提供了所有逻辑的表征,我们的结果可以加强生产传递偏好关系的分配(如K&M的原始工作),根据语法依赖与独立性,引起了这种逻辑的两个表示定理。
translated by 谷歌翻译
We introduce a general theory of epistemic random fuzzy sets for reasoning with fuzzy or crisp evidence. This framework generalizes both the Dempster-Shafer theory of belief functions, and possibility theory. Independent epistemic random fuzzy sets are combined by the generalized product-intersection rule, which extends both Dempster's rule for combining belief functions, and the product conjunctive combination of possibility distributions. We introduce Gaussian random fuzzy numbers and their multi-dimensional extensions, Gaussian random fuzzy vectors, as practical models for quantifying uncertainty about scalar or vector quantities. Closed-form expressions for the combination, projection and vacuous extension of Gaussian random fuzzy numbers and vectors are derived.
translated by 谷歌翻译
处理不确定,矛盾和模棱两可的信息仍然是人工智能(AI)的核心问题。结果,已经提出或改编了许多形式主义,以考虑非单调性,只有有限的作品和研究人员在其中进行了任何类型的比较。非单调形式主义是一种允许从前提中撤回以前的结论或主张,鉴于新的证据,在处理不确定性时提供了一些理想的灵活性。这篇研究文章着重于评估不辩论论证的推论能力,这是一种用于建模非单调推理的形式主义。除此之外,由于在AI社区中的广泛而公认的用途,选择并用作处理非主持推理的非单调性推理的模糊推理和专家系统。计算信任被选为此类模型应用的领域。信任是一种定义不明的结构,因此,适用于信任推理的推理可以看作是非单调的。推理模型旨在将信任标量分配给Wikipedia项目的编辑。特别是,尽管知识库或数据集使用了知识库或数据集,但基于参数的模型比在基线上建立的模型表现出更大的鲁棒性。这项研究通过剥削性论证及其与类似方法的比较来促进知识的体系。这种方法的实际用途以及一个模块化设计的实际使用,促进了类似的实验,并且在GitHub上公开提供了各自的实现[120,121]。这项工作增加了以前的作品,从经验上增强了不诚实论证的普遍性作为一种引人入胜的方法,以定量数据和不确定的知识来推理。
translated by 谷歌翻译
预期风险最小化(ERM)是机器学习系统的核心。这意味着使用单个数字(其平均值)总结了损失分布中固有的风险。在本文中,我们提出了一种构建风险措施的一般方法,该方法表现出所需的尾巴敏感性,并可能取代ERM中的期望操作员。我们的方法依赖于具有所需尾巴行为的参考分布的规范,该分布与连贯上层概率的一对一对应关系。与此上层概率兼容的任何风险度量都显示出尾部灵敏度,该灵敏度可很好地调整为参考分布。作为一个具体的例子,我们专注于基于F-Divergence歧义集的差异风险度量,这是一种广泛的工具,用于促进机器学习系统的分布鲁棒性。例如,我们展示了基于kullback-leibler差异的歧义集与次指定随机变量的类别相关。我们阐述了差异风险度量和重新排列不变的Banach规范的联系。
translated by 谷歌翻译
每个已知的人工深神经网络(DNN)都对应于规范Grothendieck的拓扑中的一个物体。它的学习动态对应于此拓扑中的形态流动。层中的不变结构(例如CNNS或LSTMS)对应于Giraud的堆栈。这种不变性应该是对概括属性的原因,即从约束下的学习数据中推断出来。纤维代表语义前类别(Culioli,Thom),在该类别上定义了人工语言,内部逻辑,直觉主义者,古典或线性(Girard)。网络的语义功能是其能够用这种语言表达理论的能力,以回答输出数据中有关输出的问题。语义信息的数量和空间是通过类比与2015年香农和D.Bennequin的Shannon熵的同源解释来定义的。他们概括了Carnap和Bar-Hillel(1952)发现的措施。令人惊讶的是,上述语义结构通过封闭模型类别的几何纤维对象进行了分类,然后它们产生了DNNS及其语义功能的同位不变。故意类型的理论(Martin-Loef)组织了这些物体和它们之间的纤维。 Grothendieck的导数分析了信息内容和交流。
translated by 谷歌翻译
知识表示中的一个突出问题是如何应对域名知识的本体的隐性后果来回回答查询。虽然这个问题在描述逻辑本体的领域中已被广泛研究,但在模糊或不精确的知识的背景下,令人惊讶地忽略了忽视,特别是从数学模糊逻辑的角度来看。在本文中,我们研究了应答联合查询和阈值查询的问题。模糊DL-Lite中的本体。具体而言,我们通过重写方法展示阈值查询应答W.r.t.一致的本体中仍保持在数据复杂性的$ AC_0 $中,但该联合查询应答高度依赖于所选三角标准,这对底层语义产生了影响。对于IDEMPodent G \“Odel T-Norm,我们提供了一种基于古典案例的减少的有效方法。本文在理论和实践中正在考虑和逻辑编程(TPLP)的实践。
translated by 谷歌翻译
形状约束,例如非负,单调性,凸度或超模型性,在机器学习和统计的各种应用中都起着关键作用。但是,将此方面的信息以艰苦的方式(例如,在间隔的所有点)纳入预测模型,这是一个众所周知的具有挑战性的问题。我们提出了一个统一和模块化的凸优化框架,依赖于二阶锥(SOC)拧紧,以编码属于矢量值重现的载体内核Hilbert Spaces(VRKHSS)的模型对函数衍生物的硬仿射SDP约束。所提出的方法的模块化性质允许同时处理多个形状约束,并将无限数量的约束限制为有限的许多。我们证明了所提出的方案的收敛及其自适应变体的收敛性,利用VRKHSS的几何特性。由于基于覆盖的拧紧构造,该方法特别适合具有小到中等输入维度的任务。该方法的效率在形状优化,机器人技术和计量经济学的背景下进行了说明。
translated by 谷歌翻译
我们为保留部分顺序的部分有序数据的基于相似性的分层群集提供了一个目标函数。也就是说,如果$ x \ le y $,如果$ [x] $和$ [y] $是$ x $和$ y $的相应群集,那么有一个订单关系$ \ LE' $群集$ [x] \ Le'| Y] $。该理论将本身与现有的理论区分开了用于统称有序数据的理论,因为顺序关系和相似性被组合成双目标优化问题,以获得寻求满足两者的分层聚类。特别地,顺序关系在$ [0,1] $的范围内加权,如果相似性和顺序关系未对齐,则订单保存可能必须屈服于群集。找到最佳解决方案是NP-HARD,因此我们提供多项式时间近似算法,具有$ O \左的相对性能保证(\ log ^ {3/2} \!\!\,n \右)$ ,基于定向稀疏性切割的连续应用。我们在基准数据集中提供了演示,显示我们的方法优于具有重要边距的顺序保留分层聚类的现有方法。该理论是划分分层聚类的Dasgupta成本函数的扩展。
translated by 谷歌翻译
We study a family of adversarial multiclass classification problems and provide equivalent reformulations in terms of: 1) a family of generalized barycenter problems introduced in the paper and 2) a family of multimarginal optimal transport problems where the number of marginals is equal to the number of classes in the original classification problem. These new theoretical results reveal a rich geometric structure of adversarial learning problems in multiclass classification and extend recent results restricted to the binary classification setting. A direct computational implication of our results is that by solving either the barycenter problem and its dual, or the MOT problem and its dual, we can recover the optimal robust classification rule and the optimal adversarial strategy for the original adversarial problem. Examples with synthetic and real data illustrate our results.
translated by 谷歌翻译
Two approaches to AI, neural networks and symbolic systems, have been proven very successful for an array of AI problems. However, neither has been able to achieve the general reasoning ability required for human-like intelligence. It has been argued that this is due to inherent weaknesses in each approach. Luckily, these weaknesses appear to be complementary, with symbolic systems being adept at the kinds of things neural networks have trouble with and vice-versa. The field of neural-symbolic AI attempts to exploit this asymmetry by combining neural networks and symbolic AI into integrated systems. Often this has been done by encoding symbolic knowledge into neural networks. Unfortunately, although many different methods for this have been proposed, there is no common definition of an encoding to compare them. We seek to rectify this problem by introducing a semantic framework for neural-symbolic AI, which is then shown to be general enough to account for a large family of neural-symbolic systems. We provide a number of examples and proofs of the application of the framework to the neural encoding of various forms of knowledge representation and neural network. These, at first sight disparate approaches, are all shown to fall within the framework's formal definition of what we call semantic encoding for neural-symbolic AI.
translated by 谷歌翻译
人工智能代理必须从周围环境中学到学习,并了解所学习的知识,以便做出决定。虽然从数据的最先进的学习通常使用子符号分布式表示,但是使用用于知识表示的一阶逻辑语言,推理通常在更高的抽象级别中有用。结果,将符号AI和神经计算结合成神经符号系统的尝试已经增加。在本文中,我们呈现了逻辑张量网络(LTN),一种神经组织形式和计算模型,通过引入许多值的端到端可分别的一阶逻辑来支持学习和推理,称为真实逻辑作为表示语言深入学习。我们表明LTN为规范提供了统一的语言,以及多个AI任务的计算,如数据聚类,多标签分类,关系学习,查询应答,半监督学习,回归和嵌入学习。我们使用TensorFlow2的许多简单的解释例实施和说明上述每个任务。关键词:神经组音恐怖症,深度学习和推理,许多值逻辑。
translated by 谷歌翻译
In this paper we propose a general approach to define a many-valued preferential interpretation of gradual argumentation semantics. The approach allows for conditional reasoning over arguments and boolean combination of arguments, with respect to a class of gradual semantics, through the verification of graded (strict or defeasible) implications over a preferential interpretation. As a proof of concept, in the finitely-valued case, an Answer set Programming approach is proposed for conditional reasoning in a many-valued argumentation semantics of weighted argumentation graphs. The paper also develops and discusses a probabilistic semantics for gradual argumentation, which builds on the many-valued conditional semantics.
translated by 谷歌翻译