对AI的道德影响和值得信赖系统的设计的研究需要分析使用AI系统的方案,这与“用例”的软件工程概念和“预期目的”法律术语有关。但是,没有用于涵盖使用,范围,功能要求和AI系统风险的用例文档的标准方法。在这项工作中,我们为AI用例提出了一种新颖的文档方法,特别关注情感计算领域。我们的方法基于对研究文献中记录的用例信息需求的评估以及最近提议的AI欧洲监管框架。通过此评估,我们采用并调整了统一的建模语言(UML),在过去的二十年中,这主要由软件工程师使用。然后,每个用例都由UML图和一个结构化表表示,我们提供了一组示例,说明了其在几种情感计算方案中的应用。
translated by 谷歌翻译
2021年4月,欧洲委员会提出了对人工智能的规定,称为AI法案。我们概述了该法案,分析了其影响,借鉴了当代AI对过去四十年来欧盟产品安全制度的实践的研究。AI行为的各个方面,例如不同风险水平的不同规则,有意义。但我们还发现,AI法案草案的一些规定令人惊讶的法律影响,而其他人可能在达到其指定的目标方面可能在很大程度上无效。几个总体方面,包括执法制度和最大统一的风险抢先抢占合法的国家AI政策,提出重大关注。这些问题应作为立法过程中的优先考虑。
translated by 谷歌翻译
拟议的欧洲人工智能法案(AIA)是第一次尝试详细阐述由任何主要全球经济开展的AI一般法律框架。因此,AIA可能成为如何调节AI系统(应当)的更大话语中的参考点。在本文中,我们描述并讨论了AIA中提出的两项初级执法机制:高风险AI系统的提供者预计会进行的符合性评估,以及提供者必须建立履行表现的市场后监测计划在整个寿命中的高风险AI系统。我们认为,AIA可以被解释为建立欧洲审计的欧洲生态系统的建议,尽管换句话说。我们的分析提供了两个主要贡献。首先,通过描述从现有文献借入的AI审计中借用的AIA中包含的执法机制,我们帮助AI系统的提供者了解它们如何证明在实践中遵守AIA所示的要求。其次,通过从审计视角审查AIA,我们寻求提供以前研究如何进一步改进AIA中概述的监管方法的可转让教训。我们通过突出AIA的七个方面来结束修正案(或简单澄清)会有所帮助。最重要的是,需要将模糊概念转化为可验证标准,并加强基于内部支票的符合性评估的体制保障措施。
translated by 谷歌翻译
The optimal liability framework for AI systems remains an unsolved problem across the globe. In a much-anticipated move, the European Commission advanced two proposals outlining the European approach to AI liability in September 2022: a novel AI Liability Directive and a revision of the Product Liability Directive. They constitute the final, and much-anticipated, cornerstone of AI regulation in the EU. Crucially, the liability proposals and the EU AI Act are inherently intertwined: the latter does not contain any individual rights of affected persons, and the former lack specific, substantive rules on AI development and deployment. Taken together, these acts may well trigger a Brussels effect in AI regulation, with significant consequences for the US and other countries. This paper makes three novel contributions. First, it examines in detail the Commission proposals and shows that, while making steps in the right direction, they ultimately represent a half-hearted approach: if enacted as foreseen, AI liability in the EU will primarily rest on disclosure of evidence mechanisms and a set of narrowly defined presumptions concerning fault, defectiveness and causality. Hence, second, the article suggests amendments, which are collected in an Annex at the end of the paper. Third, based on an analysis of the key risks AI poses, the final part of the paper maps out a road for the future of AI liability and regulation, in the EU and beyond. This includes: a comprehensive framework for AI liability; provisions to support innovation; an extension to non-discrimination/algorithmic fairness, as well as explainable AI; and sustainability. I propose to jump-start sustainable AI regulation via sustainability impact assessments in the AI Act and sustainable design defects in the liability regime. In this way, the law may help spur not only fair AI and XAI, but potentially also sustainable AI (SAI).
translated by 谷歌翻译
人工智能(AI)系统可以提供许多有益的功能,也可以提供不良事件的风险。一些AI系统可能会出现在社会规模上具有很高或灾难性后果的事件的风险。美国国家标准技术研究所(NIST)正在开发NIST人工智能风险管理框架(AI RMF),作为对AI开发人员和其他人的AI风险评估和管理的自愿指导。 NIST为了解决带有灾难性后果的事件的风险,表示有必要将高级原则转化为可操作的风险管理指导。在本文档中,我们提供了详细的可操作指示建议,旨在识别和管理具有很高或灾难性后果的事件的风险,旨在作为AI RMF版本1.0的NIST的风险管理实践资源(计划于2023年初发布),或适用于AI RMF用户或其他AI风险管理指南和标准。我们还为建议提供方法。我们为AI RMF 1.0提供了可行的指导建议:确定来自AI系统的潜在意外用途和滥用的风险;在风险评估和影响评估范围内包括灾难性风险因素;确定和减轻人权危害;并报告有关AI风险因素在内的信息,包括灾难性风险因素。此外,我们还为后来版本的AI RMF或补充出版物提供有关路线图的其他问题的建议。其中包括:提供AI RMF配置文件,并具有额外的多功能或通用AI的辅助指南。我们的目标是使这项工作成为具体的风险管理实践的贡献,并激发有关如何解决AI标准中灾难性风险和相关问题的建设性对话。
translated by 谷歌翻译
负责任的AI被广泛认为是我们时代最大的科学挑战之一,也是释放AI市场并增加采用率的关键。为了应对负责任的AI挑战,最近已经发布了许多AI伦理原则框架,AI系统应该符合这些框架。但是,没有进一步的最佳实践指导,从业者除了真实性之外没有什么。同样,在算法级别而不是系统级的算法上进行了重大努力,主要集中于数学无关的道德原则(例如隐私和公平)的一部分。然而,道德问题在开发生命周期的任何步骤中都可能发生,从而超过AI算法和模型以外的系统的许多AI,非AI和数据组件。为了从系统的角度操作负责任的AI,在本文中,我们采用了一种面向模式的方法,并根据系统的多媒体文献综述(MLR)的结果提出了负责任的AI模式目录。与其呆在道德原则层面或算法层面上,我们专注于AI系统利益相关者可以在实践中采取的模式,以确保开发的AI系统在整个治理和工程生命周期中负责。负责的AI模式编目将模式分为三组:多层次治理模式,可信赖的过程模式和负责任的逐设计产品模式。这些模式为利益相关者实施负责任的AI提供了系统性和可行的指导。
translated by 谷歌翻译
部署的AI系统通常不起作用。它们可以随意地构造,不加选择地部署并欺骗性地促进。然而,尽管有这一现实,但学者,新闻界和决策者对功能的关注很少。这导致技术和政策解决方案的重点是“道德”或价值一致的部署,通常会跳过先前的问题,即给定系统功能或完全提供任何好处。描述各种功能失败的危害,我们分析一组案例研究,以创建已知的AI功能问题的分类法。然后,我们指出的是政策和组织响应,这些策略和组织响应经常被忽略,并在功能成为重点后变得更容易获得。我们认为功能是一项有意义的AI政策挑战,是保护受影响社区免受算法伤害的必要第一步。
translated by 谷歌翻译
如何将新兴和全面的技术(例如AI)整合到我们社会的结构和运营中是当代政治,科学和公众辩论的问题。它从不同学科中产生了大量的国际学术文献。本文分析了有关人工智能调节(AI)的学术辩论。该系统审查包括在2016年1月1日至2020年12月31日之间发表的73份同行评审期刊文章样本。分析集中于社会风险和危害,监管责任问题以及可能基于风险的政策框架在内和基于原则的方法。主要利益是拟议的监管方法和工具。提出了各种形式的干预措施,例如禁令,批准,标准设定和披露。对所包括论文的评估​​表明该领域的复杂性,这表明其早产和剩余的缺乏清晰度。通过对学术辩论进行结构性分析,我们在经验和概念上均可更好地理解AI和监管的联系以及基本规范性决策。科学建议与拟议的欧洲AI调节的比较说明了调节的特定方法,其优势和缺点。
translated by 谷歌翻译
Several policy options exist, or have been proposed, to further responsible artificial intelligence (AI) development and deployment. Institutions, including U.S. government agencies, states, professional societies, and private and public sector businesses, are well positioned to implement these policies. However, given limited resources, not all policies can or should be equally prioritized. We define and review nine suggested policies for furthering responsible AI, rank each policy on potential use and impact, and recommend prioritization relative to each institution type. We find that pre-deployment audits and assessments and post-deployment accountability are likely to have the highest impact but also the highest barriers to adoption. We recommend that U.S. government agencies and companies highly prioritize development of pre-deployment audits and assessments, while the U.S. national legislature should highly prioritize post-deployment accountability. We suggest that U.S. government agencies and professional societies should highly prioritize policies that support responsible AI research and that states should highly prioritize support of responsible AI education. We propose that companies can highly prioritize involving community stakeholders in development efforts and supporting diversity in AI development. We advise lower levels of prioritization across institutions for AI ethics statements and databases of AI technologies or incidents. We recognize that no one policy will lead to responsible AI and instead advocate for strategic policy implementation across institutions.
translated by 谷歌翻译
保证案件提出了一个明确且可辩护的论点,并得到证据支持,即系统将按照特定情况下的意图运行。通常,保证案例提出了一个论点,即系统在其预期的上下文中将是安全的。值得信赖的AI研究社区中的一项新兴建议是扩展和应用这种方法,以保证使用AI系统或自治系统(AI/AS)在特定情况下将是可接受的道德。在本文中,我们进一步提出了这一建议。我们通过为AI/AS提供基于原则的道德保证(PBEA)论点模式来做到这一点。 PBEA参数模式为推理给定AI/AS的整体道德可接受性提供了一个框架,它可能是特定道德保证案例的早期原型模板。构成PBEA论证模式基础的四个核心道德原则是:正义;福利;非遗憾;并尊重个人自主权。在整个过程中,我们将参数模式的阶段连接到AI/作为应用程序的示例。这有助于显示其最初的合理性。
translated by 谷歌翻译
Artificial intelligence (AI) in its various forms finds more and more its way into complex distributed systems. For instance, it is used locally, as part of a sensor system, on the edge for low-latency high-performance inference, or in the cloud, e.g. for data mining. Modern complex systems, such as connected vehicles, are often part of an Internet of Things (IoT). To manage complexity, architectures are described with architecture frameworks, which are composed of a number of architectural views connected through correspondence rules. Despite some attempts, the definition of a mathematical foundation for architecture frameworks that are suitable for the development of distributed AI systems still requires investigation and study. In this paper, we propose to extend the state of the art on architecture framework by providing a mathematical model for system architectures, which is scalable and supports co-evolution of different aspects for example of an AI system. Based on Design Science Research, this study starts by identifying the challenges with architectural frameworks. Then, we derive from the identified challenges four rules and we formulate them by exploiting concepts from category theory. We show how compositional thinking can provide rules for the creation and management of architectural frameworks for complex systems, for example distributed systems with AI. The aim of the paper is not to provide viewpoints or architecture models specific to AI systems, but instead to provide guidelines based on a mathematical formulation on how a consistent framework can be built up with existing, or newly created, viewpoints. To put in practice and test the approach, the identified and formulated rules are applied to derive an architectural framework for the EU Horizon 2020 project ``Very efficient deep learning in the IoT" (VEDLIoT) in the form of a case study.
translated by 谷歌翻译
如果未来的AI系统在新的情况下是可靠的安全性,那么他们将需要纳入指导它们的一般原则,以便强烈地认识到哪些结果和行为将是有害的。这样的原则可能需要得到约束力的监管制度的支持,该法规需要广泛接受的基本原则。它们还应该足够具体用于技术实施。本文从法律中汲取灵感,解释了负面的人权如何履行此类原则的作用,并为国际监管制度以及为未来的AI系统建立技术安全限制的基础。
translated by 谷歌翻译
虽然道德人工智能(AI)系统的需求增加,但AI加速的不道德使用的数量,即使没有道德准则不足。我们认为这是一个可能的潜在的原因是,AI开发人员在AI发展伦理中面临社会困境,防止了对道德最佳实践的广泛适应。我们为AI开发的社交困境定义了社会困境,并描述了为什么无法解决AI开发道德的当前危机,而无需缓解其社交困境的AI开发人员。我们认为AI开发必须专业为克服社会困境,并讨论如何在此过程中用作模板。
translated by 谷歌翻译
连续的软件工程在许多领域已变得司空见惯。但是,在调节需要考虑其他问题的密集部门时,通常认为很难采用连续的开发方法,例如DevOps。在本文中,我们提出了一种将拉力请求用作设计控件的方法,并将这种方法应用于认证的医疗系统中的机器学习,这是一种新颖的技术,这是一种新颖的技术,旨在为机器学习系统增加解释性,作为监管审核跟踪。我们以前曾使用过一种工业系统来证明这种方法,以证明如何以连续的方式开发医疗系统。
translated by 谷歌翻译
随着自主系统成为我们日常生活的一部分,确保其信任度至关重要。有许多用于证明可信赖性的技术。所有这些技术的共同点是需要阐明规格。在本文中,我们对规格进行了广泛的看法,专注于顶级要求,包括但不限于功能,安全性,安全性和其他非功能性属性。本文的主要贡献是对于与指定可信度相关的自主系统社区的一系列高级智力挑战。我们还描述了有关自主系统的许多应用程序域的独特规范挑战。
translated by 谷歌翻译
根据1,870家公司的Rackspace技术的最近调查,总共34%的AI研究和开发项目失败或被遗弃。我们提出了一项新的战略框架,Aistrom,使管理者基于彻底的文献综述,创建一个成功的AI战略。这提供了一种独特而综合的方法,可以通过实施过程中的各种挑战引导经理和牵头开发人员。在Aistrom框架中,我们首先识别顶部N潜在项目(通常为3-5)。对于每个人,彻底分析了七个重点区域。这些领域包括创建一个数据策略,以考虑独特的跨部门机器学习数据要求,安全性和法律要求。然后,Aistrom指导经理思考如何鉴于AI人才稀缺的跨学科人工智能(AI)实施团队。一旦建立了AI团队战略,它需要在组织内,跨部门或作为单独的部门定位。其他考虑因素包括AI作为服务(AIAAS)或外包开发。看着新技术,我们必须考虑偏见,黑匣子模型的合法性等挑战,并保持循环中的人类。接下来,与任何项目一样,我们需要基于价值的关键性能指标(KPI)来跟踪和验证进度。根据公司的风险策略,SWOT分析(优势,劣势,机会和威胁)可以帮助进一步分类入住项目。最后,我们应该确保我们的战略包括持续的雇员的持续教育,以实现采用文化。这种独特综合的框架提供了有价值的,经理和铅开发商的工具。
translated by 谷歌翻译
本文确定了数据驱动系统中的数据最小化和目的限制的两个核心数据保护原理。虽然当代数据处理实践似乎与这些原则的赔率达到差异,但我们证明系统可以在技术上使用的数据远远少于目前的数据。此观察是我们详细的技术法律分析的起点,揭示了妨碍了妨碍了实现的障碍,并举例说明了在实践中应用数据保护法的意外权衡。我们的分析旨在向辩论提供关于数据保护对欧盟人工智能发展的影响,为数据控制员,监管机构和研究人员提供实际行动点。
translated by 谷歌翻译
In this chapter, we review and discuss the transformation of AI technology in HCI/UX work and assess how AI technology will change how we do the work. We first discuss how AI can be used to enhance the result of user research and design evaluation. We then discuss how AI technology can be used to enhance HCI/UX design. Finally, we discuss how AI-enabled capabilities can improve UX when users interact with computing systems, applications, and services.
translated by 谷歌翻译
虽然人工智能(AI)正在解决现实世界的挑战和转型行业,但对其表现和以负责任的方式做出决定存在严重担忧。最近各国政府,组织和企业发布了许多AI伦理原则和负责任的原则和指南。但是,这些AI伦理原则和指南通常是高级别的,并且不提供关于如何设计和开发负责任的AI系统的具体指导。为了解决这种缺点,我们首先提出了一个实证研究,我们采访了21名科学家和工程师,了解从业者对AI伦理原则及其实施的看法。然后,我们提出了一个模板,使AI道德原则能够以具体模式的形式进行操作,并建议使用新创建的模板的模式列表。这些模式提供了具体的,操作化指导,促进了负责任AI系统的发展。
translated by 谷歌翻译
欧洲机械指令和相关的统一标准确实认为软件用于生成机械的安全性行为,但不考虑各种软件。特别是,未考虑基于机器学习(ML)的软件以实现与安全相关的行为。这限制了为自动移动机器人和其他自动驾驶机械引入合适的安全概念,这些机械通常取决于基于ML的功能。我们调查了此问题以及安全标准定义要针对软件故障实施的安全措施的方式。功能安全标准使用安全完整性水平(SILS)来定义应采取哪些安全措施。它们提供了确定SIL和根据SIL选择安全措施的规则的规则。在本文中,我们认为这种方法在ML和其他类型的人工智能(AI)方面很难采用。我们建议使用保证案例来争辩说,在给定情况下,我们建议使用保证案例的简单规则,而是建议使用保证案例来辩称单独选择和应用的措施就足够了。为了获得有关提案的可行性和实用性的第一个评级,我们在讲习班中与工业专家,德国法定事故保险公司,工作安全和标准化委员会以及来自各种国家,欧洲和国际工作的代表进行了讨论和讨论。处理安全和AI的小组。在本文中,我们总结了提案和研讨会的讨论。此外,我们检查我们的建议与欧洲AI ACT提案和当前的安全标准化计划有关的程度一致
translated by 谷歌翻译