在整个大学附近,教师必须在每个学期中选择一些合格的教授参加尊敬的课程。从这个意义上讲,考虑了教学经验,学术培训,竞争等的因素。这项工作通常是由专家(例如教师董事)完成的。到目前为止,已经提出了几个半自动系统来协助头部。在本文中,开发了一个全自动规则的专家系统。拟议的专家系统包括三个主要阶段。首先,将人类专家的知识输入并设计为决策树。在第二步中,根据生成的决策树的提供规则设计了专家系统。在第三步中,提出了一种算法,以根据专家的质量来加重树的结果。为了提高专家系统的性能,开发了大多数投票算法作为后期制作的步骤,以选择满足每门课程最专业决策树的合格培训师。使用伊朗大学的真实数据评估拟议的专家系统的质量。计算出的准确率为85.55,证明了所提出的系统的鲁棒性和准确性。与相关的有效工作相比,所提出的系统几乎没有计算复杂性。此外,简单的实现和透明框是提出系统的其他功能。
translated by 谷歌翻译
Any organization needs to improve their products, services, and processes. In this context, engaging with customers and understanding their journey is essential. Organizations have leveraged various techniques and technologies to support customer engagement, from call centres to chatbots and virtual agents. Recently, these systems have used Machine Learning (ML) and Natural Language Processing (NLP) to analyze large volumes of customer feedback and engagement data. The goal is to understand customers in context and provide meaningful answers across various channels. Despite multiple advances in Conversational Artificial Intelligence (AI) and Recommender Systems (RS), it is still challenging to understand the intent behind customer questions during the customer journey. To address this challenge, in this paper, we study and analyze the recent work in Conversational Recommender Systems (CRS) in general and, more specifically, in chatbot-based CRS. We introduce a pipeline to contextualize the input utterances in conversations. We then take the next step towards leveraging reverse feature engineering to link the contextualized input and learning model to support intent recognition. Since performance evaluation is achieved based on different ML models, we use transformer base models to evaluate the proposed approach using a labelled dialogue dataset (MSDialogue) of question-answering interactions between information seekers and answer providers.
translated by 谷歌翻译
通过整合人类的知识和经验,人在循环旨在以最低成本培训准确的预测模型。人类可以为机器学习应用提供培训数据,并直接完成在基于机器的方法中对管道中计算机中的难以实现的任务。在本文中,我们从数据的角度调查了人类循环的现有工作,并将它们分为三类具有渐进关系:(1)从数据处理中提高模型性能的工作,(2)通过介入模型培训提高模型性能,(3)系统的设计独立于循环的设计。使用上述分类,我们总结了该领域的主要方法;随着他们的技术优势/弱点以及自然语言处理,计算机愿景等的简单分类和讨论。此外,我们提供了一些开放的挑战和机遇。本调查打算为人类循环提供高级别的摘要,并激励有兴趣的读者,以考虑设计有效的循环解决方案的方法。
translated by 谷歌翻译
The field of artificial intelligence (AI), regarded as one of the most enigmatic areas of science, has witnessed exponential growth in the past decade including a remarkably wide array of applications, having already impacted our everyday lives. Advances in computing power and the design of sophisticated AI algorithms have enabled computers to outperform humans in a variety of tasks, especially in the areas of computer vision and speech recognition. Yet, AI's path has never been smooth, having essentially fallen apart twice in its lifetime ('winters' of AI), both after periods of popular success ('summers' of AI). We provide a brief rundown of AI's evolution over the course of decades, highlighting its crucial moments and major turning points from inception to the present. In doing so, we attempt to learn, anticipate the future, and discuss what steps may be taken to prevent another 'winter'.
translated by 谷歌翻译
本文介绍了一种使用旨在解决现实世界应用中CDSS的低适用性和可扩展性问题的数据驱动的预测模型来构建一致和适用的临床决策支持系统(CDSS)的方法。该方法基于域特定和数据驱动的支持程序的三种特定于域和数据驱动的支持程序,该程序将被纳入临床业务流程,具有更高的信任和预测结果和建议的解释性。在考虑的三个阶段,监管策略,数据驱动模式和解释程序被集成,以实现与决策者的自然域特定的互动,具有智能决策支持焦点的连续缩小。该提出的方法能够实现更高水平的自动化,可扩展性和CDSS的语义解释性。该方法是在软件解决方案中实现的,并在T2DM预测中进行了测试,使我们能够改善已知的临床尺度(例如FindRisk),同时保持与现有应用程序类似的特定问题的推理界面。这种继承与三分阶段的方法一起提供了更高的解决方案兼容性,并导致数据驱动的解决方案在现实案件中的信任,有效和解释应用。
translated by 谷歌翻译
建立AI代理商可能是昂贵的。考虑一个问题应答代理,如Jill Watson,它根据他们的教学大纲和其他课程材料在线课程讨论论坛上自动回答学生的问题。在新的网上课程的教学大纲上训练吉尔可能需要一百小时或更长时间。机器教学 - 使用合成数据集的AI代理的交互式教学 - 可以减少培训时间,因为它结合了基于知识的AI,机器学习的优势,使用大型数据集,以及交互式人循环训练。我们描述了一个互动式机器教学代理的代理史密斯,这减少了按数量级训练新的网上课程训练吉尔的时间。
translated by 谷歌翻译
随着优化软件的显着改进,几十年前似乎棘手的大规模问题的解决方案现在已成为日常任务。这将更多的现实应用程序纳入了优化器的范围。同时,解决优化问题通常是将解决方案付诸实践时较小的困难之一。一个主要的障碍是,可以将优化软件视为黑匣子,它可能会产生高质量的解决方案,但是当情况发生变化时,可以创建完全不同的解决方案,从而导致对优化解决方案的接受率低。这种可解释性和解释性的问题在其他领域(例如机器学习)引起了极大的关注,但在优化方面却不那么关注。在本文中,我们提出了一个优化框架,以得出本质上具有易于理解的解释性规则的解决方案,在哪些情况下应选择解决方案。我们专注于代表解释性规则的决策树,我们提出了整数编程公式以及一种启发式方法,以确保我们的方法即使在大规模问题上也适用。使用随机和现实世界数据的计算实验表明,固有的可解释性成本可能很小。
translated by 谷歌翻译
The concept of intelligent system has emerged in information technology as a type of system derived from successful applications of artificial intelligence. The goal of this paper is to give a general description of an intelligent system, which integrates previous approaches and takes into account recent advances in artificial intelligence. The paper describes an intelligent system in a generic way, identifying its main properties and functional components. The presented description follows a pragmatic approach to be used in an engineering context as a general framework to analyze and build intelligent systems. Its generality and its use is illustrated with real-world system examples and related with artificial intelligence methods.
translated by 谷歌翻译
人工智能(AI)使机器能够从人类经验中学习,适应新的输入,并执行人类的人类任务。 AI正在迅速发展,从过程自动化到认知增强任务和智能流程/数据分析的方式转换业务方式。然而,人类用户的主要挑战是理解和适当地信任AI算法和方法的结果。在本文中,为了解决这一挑战,我们研究并分析了最近在解释的人工智能(XAI)方法和工具中所做的最新工作。我们介绍了一种新颖的XAI进程,便于生产可解释的模型,同时保持高水平的学习性能。我们提出了一种基于互动的证据方法,以帮助人类用户理解和信任启用AI的算法创建的结果和输出。我们在银行域中采用典型方案进行分析客户交易。我们开发数字仪表板以促进与算法的互动结果,并讨论如何提出的XAI方法如何显着提高数据科学家对理解启用AI的算法结果的置信度。
translated by 谷歌翻译
装袋和升压是在机器学习(ml)中的两个流行的集合方法,产生许多单独的决策树。由于这些方法的固有组合特性,它们通常以预测性能更优于单决定树或其他ML模型。然而,为每个决策树生成许多决定路径,增加了模型的整体复杂性,并阻碍了其在需要值得信赖和可解释的决策的域中的域,例如金融,社会护理和保健。因此,随着决策的数量升高,袋装和升降算法(例如随机森林和自适应升压)的解释性降低。在本文中,我们提出了一种视觉分析工具,该工具旨在帮助用户通过彻底的视觉检查工作流程从这种ML模型中提取决策,包括选择一套鲁棒和不同的模型(源自不同的集合学习算法),选择重要的功能根据他们的全球贡献,决定哪些决定对于全球解释(或本地,具体案件)是必不可少的。结果是基于多个模型的协议和用户出口的探索手动决策的最终决定。最后,我们通过用例,使用场景和用户学习评估患者的适用性和有效性。
translated by 谷歌翻译
人工智能(AI)和机器学习(ML)在网络安全挑战中的应用已在行业和学术界的吸引力,部分原因是对关键系统(例如云基础架构和政府机构)的广泛恶意软件攻击。入侵检测系统(IDS)使用某些形式的AI,由于能够以高预测准确性处理大量数据,因此获得了广泛的采用。这些系统托管在组织网络安全操作中心(CSOC)中,作为一种防御工具,可监视和检测恶意网络流,否则会影响机密性,完整性和可用性(CIA)。 CSOC分析师依靠这些系统来决定检测到的威胁。但是,使用深度学习(DL)技术设计的IDS通常被视为黑匣子模型,并且没有为其预测提供理由。这为CSOC分析师造成了障碍,因为他们无法根据模型的预测改善决策。解决此问题的一种解决方案是设计可解释的ID(X-IDS)。这项调查回顾了可解释的AI(XAI)的最先进的ID,目前的挑战,并讨论了这些挑战如何涉及X-ID的设计。特别是,我们全面讨论了黑匣子和白盒方法。我们还在这些方法之间的性能和产生解释的能力方面提出了权衡。此外,我们提出了一种通用体系结构,该建筑认为人类在循环中,该架构可以用作设计X-ID时的指南。研究建议是从三个关键观点提出的:需要定义ID的解释性,需要为各种利益相关者量身定制的解释以及设计指标来评估解释的需求。
translated by 谷歌翻译
现实世界的语义或基于知识的系统,例如在生物医学领域,可能会变得大而复杂。因此,对此类系统知识库中故障的本地化和修复的工具支持对于它们的实际成功至关重要。相应地,近年来提出了许多知识库调试方法,尤其是基于本体的系统。基于查询的调试是一种相似的交互式方法,它通过向知识工程师提出一系列问题来定位观察到的问题的真正原因。存在这种方法的具体实现,例如本体论编辑器的OntodeBug插件prof \'eg \'e。为了验证新提出的方法比现有方法有利,研究人员通常依靠基于模拟的比较。但是,这种评估方法有一定的局限性,并且通常无法完全告知我们方法的真实性。因此,我们进行了不同的用户研究,以评估基于查询的本体调试的实际价值。研究的一个主要见解是,所考虑的交互方法确实比基于测试案例的替代算法调试更有效。我们还观察到,用户经常在此过程中犯错误,这突出了对用户需要回答的查询的仔细设计的重要性。
translated by 谷歌翻译
高等教育机构年度排名(HEIS)是一种全球性现象,对高等教育景观产生重大影响。大多数赫斯密切关注排名结果,并期待提高他们的行列。但是,保持良好的等级和在排名中的上升是一项艰巨的任务,因为它需要相当大的资源,努力和性能改进计划。在这项工作中,首先,我们展示了利用相关性热手套的探索性数据分析(EDA),盒子图可以帮助理解排名数据的广泛趋势。随后,我们介绍了使用基于决策树(DT)的算法对排名数据进行分类的新颖思想,并使用数据可视化技术检索级别改进的决策路径。使用LAPLACE校正到概率估计,我们量化了从可解释的DT模型获得的不同决策路径附带的确定性。拟议的方法可以援助大学和希斯定量评估改进的范围,拟定了一个细粒度的长期行动计划,并准备了合适的路线图。
translated by 谷歌翻译
越来越多的工作已经认识到利用机器学习(ML)进步的重要性,以满足提取访问控制属性,策略挖掘,策略验证,访问决策等有效自动化的需求。在这项工作中,我们调查和总结了各种ML解决不同访问控制问题的方法。我们提出了ML模型在访问控制域中应用的新分类学。我们重点介绍当前的局限性和公开挑战,例如缺乏公共现实世界数据集,基于ML的访问控制系统的管理,了解黑盒ML模型的决策等,并列举未来的研究方向。
translated by 谷歌翻译
Explainable AI (XAI) is widely viewed as a sine qua non for ever-expanding AI research. A better understanding of the needs of XAI users, as well as human-centered evaluations of explainable models are both a necessity and a challenge. In this paper, we explore how HCI and AI researchers conduct user studies in XAI applications based on a systematic literature review. After identifying and thoroughly analyzing 85 core papers with human-based XAI evaluations over the past five years, we categorize them along the measured characteristics of explanatory methods, namely trust, understanding, fairness, usability, and human-AI team performance. Our research shows that XAI is spreading more rapidly in certain application domains, such as recommender systems than in others, but that user evaluations are still rather sparse and incorporate hardly any insights from cognitive or social sciences. Based on a comprehensive discussion of best practices, i.e., common models, design choices, and measures in user studies, we propose practical guidelines on designing and conducting user studies for XAI researchers and practitioners. Lastly, this survey also highlights several open research directions, particularly linking psychological science and human-centered XAI.
translated by 谷歌翻译
特殊设备产品的设计或仿真分析必须遵循国家标准,因此可能有必要反复参考设计过程中标准的内容。但是,基于关键字检索的传统问题应答系统很难提供准确的技术问题的答案。因此,我们使用自然语言处理技术来设计用于压力容器设计中的决策过程的问题应答系统。为了解决技术问题应答系统的培训数据不足的问题,我们提出了一种根据来自几个不同维度的声明性句子生成问题的方法,以便可以从声明性句子获得多个问题答案对。此外,我们设计了一种基于双向长期短期存储器(BILSTM)网络的交互式注意模型,以提高两个问题句子的相似性比较的性能。最后,在公共和技术域数据集中测试了问题应答系统的性能。
translated by 谷歌翻译
The technology for building knowledge-based systems by inductive inference from examples has been demonstrated successfully in several practical applications. This paper summarizes an approach to synthesizing decision trees that has been used in a variety of systems, and it describes one such system, ID3, in detail. Results from recent studies show ways in which the methodology can be modified to deal with information that is noisy and/or incomplete. A reported shortcoming of the basic algorithm is discussed and two means of overcoming it are compared. The paper concludes with illustrations of current research directions.
translated by 谷歌翻译
为了能够在不怀疑的情况下使用人工智能(AI)在医学中,并认识到和评估其日益增长的潜力,在当前和未来的医务人员中,对该主题的基本理解是必要的。在“通过理解的信任”的前提下,我们在德国Ki校园(AI校园)项目框架内开发了创新的在线课程,这是一个自我指导的课程,它教授AI的基础知识进行分析医疗图像数据。主要目标是提供一个学习环境,以充分了解医学图像分析中的AI,以便通过积极的应用经验来克服对该主题的进一步兴趣,并可以克服对其使用的抑制。重点是医疗应用和机器学习的基础。在线课程分为连续的课程,其中包括以解释性视频的形式,以简化和实践练习和/或测验的形式进行的实践练习,以检查学习进度。在课程的第一次跑步中,参与医学生的一项调查用于定量分析我们的研究假设。
translated by 谷歌翻译
事实证明,在学习环境中,社会智能代理(SIA)的部署在不同的应用领域具有多个优势。社会代理创作工具使场景设计师能够创造出对SIAS行为的高度控制的量身定制体验,但是,另一方面,这是有代价的,因为该方案及其创作的复杂性可能变得霸道。在本文中,我们介绍了可解释的社会代理创作工具的概念,目的是分析社会代理的创作工具是否可以理解和解释。为此,我们检查了创作工具Fatima-Toolkit是否可以理解,并且从作者的角度来看,其创作步骤可以解释。我们进行了两项用户研究,以定量评估Fatima-Toolkit的解释性,可理解性和透明度,从场景设计师的角度来看。关键发现之一是,法蒂玛 - 库尔基特(Fatima-Toolkit)的概念模型通常是可以理解的,但是基于情感的概念并不那么容易理解和使用。尽管关于Fatima-Toolkit的解释性有一些积极的方面,但仍需要取得进展,以实现完全可以解释的社会代理商创作工具。我们提供一组关键概念和可能的解决方案,可以指导开发人员构建此类工具。
translated by 谷歌翻译
人工智能在医学成像,尤其是组织病理学成像方面具有巨大的希望。但是,人工智能算法无法完全解释决策过程中的思维过程。这种情况带来了解释性的问题,即黑匣子问题,人工智能应用程序的议程:一种算法只是在没有说明给定图像的原因的情况下做出响应。为了克服问题并提高解释性,可解释的人工智能(XAI)脱颖而出,并激发了许多研究人员的利益。在此背景下,本研究使用深度学习算法检查了一个新的原始数据集,并使用XAI应用程序之一(GRAD-CAM)可视化输出。之后,对这些图像的病理学家进行了详细的问卷调查。决策过程和解释都已验证,并测试了输出的准确性。这项研究的结果极大地帮助病理学家诊断旁结核病。
translated by 谷歌翻译