Human behavior emerges from planning over elaborate decompositions of tasks into goals, subgoals, and low-level actions. How are these decompositions created and used? Here, we propose and evaluate a normative framework for task decomposition based on the simple idea that people decompose tasks to reduce the overall cost of planning while maintaining task performance. Analyzing 11,117 distinct graph-structured planning tasks, we find that our framework justifies several existing heuristics for task decomposition and makes predictions that can be distinguished from two alternative normative accounts. We report a behavioral study of task decomposition ($N=806$) that uses 30 randomly sampled graphs, a larger and more diverse set than that of any previous behavioral study on this topic. We find that human responses are more consistent with our framework for task decomposition than alternative normative accounts and are most consistent with a heuristic -- betweenness centrality -- that is justified by our approach. Taken together, our results provide new theoretical insight into the computational principles underlying the intelligent structuring of goal-directed behavior.
translated by 谷歌翻译
大规模的社交网络被认为通过扩大人们的偏见来促进两极分化。但是,这些技术的复杂性使得难以确定负责的机制并评估缓解策略。在这里,我们在受控的实验室条件下显示,通过社交网络进行信息传输会扩大对简单的感知决策任务的动机偏见。大型行为实验的参与者表明,当社交网络相对于社会参与者的一部分,在40个独立发展的人群中,社交网络的一部分相对于社交参与者而言,有偏见的决策率提高。利用机器学习和贝叶斯统计的技术,我们确定了对内容选择算法的简单调整,该算法预测可减轻偏置放大。该算法从个人网络内部生成了一个观点样本,这些视角更代表整个人群。在第二个大型实验中,该策略减少了偏差放大,同时保持信息共享的好处。
translated by 谷歌翻译
缺乏对深度学习系统的洞察力阻碍了他们的系统设计。在科学和工程学中,建模是一种用于了解内部过程不透明的复杂系统的方法。建模用更简单的代理代替复杂的系统,该系统更适合解释。从中汲取灵感,我们使用高斯流程为神经网络构建了一类代理模型。我们没有从神经网络的某些限制案例中得出内核,而是从经验上从神经网络的自然主义行为中学习了高斯过程的内核。我们首先通过两项案例研究评估我们的方法,灵感来自先前对神经网络行为的理论研究,在这些案例研究中,我们捕获了学习低频的神经网络偏好,并确定了深层神经网络中的病理行为。在进一步的实践案例研究中,我们使用学识渊博的内核来预测神经网络的泛化特性。
translated by 谷歌翻译
迭代精致 - 从随机的猜测开始,然后迭代地改善猜测 - 是表示学习的有用范式,因为它提供了一种在数据中同样合理的解释之间打破对称性的方法。此属性使此类方法的应用可以推断实体集的表示,例如物理场景中的对象,在结构上类似于潜在空间中的聚类算法。但是,大多数先前的工作都通过展开的完善过程进行区分,这可能使优化挑战。我们观察到,可以通过隐式函数定理使此类方法可区分,并开发一种隐性分化方法,从而通过解耦来向前和向后传递来提高训练的稳定性和障碍。该连接使我们能够在优化隐式层时应用进步,不仅可以改善Slate中的插槽注意模块的优化,Slate是一种学习实体表示的最新方法,而且要在反向传播中持续不断的空间和时间复杂性。还有一条另外一行​​的代码。
translated by 谷歌翻译
从我们生命的最早几年开始,人类使用语言来表达我们的信念和欲望。因此,能够与人造代理讨论我们的偏好将实现价值一致性的核心目标。然而,今天,我们缺乏解释这种灵活和抽象语言使用的计算模型。为了应对这一挑战,我们考虑在线性强盗环境中考虑社会学习,并询问人类如何传达与行为的偏好(即奖励功能)。我们研究两种不同类型的语言:指令,提供有关所需政策的信息和描述,这些信息提供了有关奖励功能的信息。为了解释人类如何使用这些形式的语言,我们建议他们推理出已知和未知的未来状态:对当前的说明优化,同时描述对未来进行了推广。我们通过扩展奖励设计来考虑对国家的分配来形式化此选择。然后,我们定义了一种务实的听众,该代理人通过推理说话者如何表达自己来侵犯说话者的奖励功能。我们通过行为实验来验证我们的模型,表明(1)我们的说话者模型预测了自发的人类行为,并且(2)我们的务实的听众能够恢复其奖励功能。最后,我们表明,在传统的强化学习环境中,务实的社会学习可以与个人学习相结合并加速。我们的发现表明,从更广泛的语言中的社会学习,特别是,扩大了该领域的目前对指示的关注,以包括从描述中学习 - 是一种有前途的价值一致性和强化学习的有前途的方法。
translated by 谷歌翻译
多模式培训的最新进展使用文本描述,可以显着增强机器对图像和视频的理解。然而,目前尚不清楚语言在多大程度上可以完全捕捉不同方式的感官体验。一种表征感官体验的良好方法取决于相似性判断,即人们认为两个截然不同的刺激是相似的程度。我们在一系列大规模的行为研究($ n = 1,823美元的参与者)中探讨了人类相似性判断与语言之间的关系,这三种模式(图像,音频和视频)和两种类型的文本描述符:简单的文字描述符: - 文本字幕。在此过程中,我们引入了一条新型的自适应管道,用于标签挖掘,既有高效又是领域。我们表明,基于文本描述符的预测管道表现出色,我们将其与基于视觉,音频和视频处理体系结构的611基线模型进行了比较。我们进一步表明,文本描述符和模型在多种方式之间和模型之间预测人类相似性的程度各不相同。综上所述,这些研究说明了整合机器学习和认知科学方法的价值,以更好地了解人类和机器表示之间的相似性和差异。我们在https://words-are-are-all-you-need.s3.amazonaws.com/index.html上介绍了交互式可视化,以探索人类所经历的刺激和本文中报道的不同方法之间的相似性。
translated by 谷歌翻译
获得抽象知识的能力是人类智力的标志,许多人认为是人类和神经网络模型之间的核心差异之一。代理可以通过元学习对抽象的归纳偏见,在那里他们接受了共享可以学习和应用的一些抽象结构的任务分布的培训。但是,由于很难解释神经网络,因此很难判断代理人是学会了潜在的抽象,或者是该抽象特征的统计模式。在这项工作中,我们比较了人类和代理在荟萃方面学习范式中的表现,其中从抽象规则中产生了任务。我们定义了一种用于构建“任务Metamers”的新方法,该方法与抽象任务的统计数据非常匹配,但使用了不同的基本生成过程,并评估了在抽象和Metamer任务上的性能。在我们的第一组实验中,我们发现人类在抽象任务上的表现要比MetAmer任务更好,而广泛使用的元强化学习代理在抽象任务上的表现要比匹配的Metamers差。在第二组实验中,我们将任务基于直接从经验鉴定的人类先验得出的抽象基础。我们利用相同的过程来生成相应的METAMER任务,并看到人与代理之间的相同双重分离。这项工作为表征人类和机器学习之间的差异奠定了基础,可以在未来的工作中用于以人类行为开发机器。
translated by 谷歌翻译
语言不仅用于通知。我们经常寻求通过争论赞成特定观点来说服。说服提出了许多对信仰更新的古典账户的挑战,因为信息不能以面值采取。在包含新信息时,应如何占发言者的“隐藏议程”?在这里,我们延长了最近的递归社会推理概率模型,以便有说服力的目标,并表明我们的模型为什么为什么弱良好的争论可能反馈,这是一种称为弱证据效应的现象。批判性地,我们的模型预测了信仰更新和演讲者期望之间的关系:当时扬声器在有说服力的目标下行动时,弱的证据应该只有反馈,这意味着没有更强的证据。我们介绍了一个简单的实验范式,称为棍棒竞赛,以衡量弱证据效应取决于发言者期望的程度,并表明务实的侦听器模型占经验数据比替代模型更好。我们的研究结果表明了社会推理的理性模型的潜在途径,以进一步照亮决策现象。
translated by 谷歌翻译
机器学习系统通常与人类具有相同的归纳偏见,因此,以与我们的期望不一致的方式推断或推广。在认知心理学中已经广泛研究了典范和基于规则的概括之间的权衡。在这项工作中,我们提出了一种受这些实验方法启发的协议,以探测控制这种折衷在类别学习系统中的归纳偏差。我们隔离了两个这样的诱导偏见:特征级别的偏差(更容易学习的特征的差异)和示例性或规则偏差(这些学到的特征用于泛化的差异)。我们发现标准的神经网络模型是基于特征和基于典范的特征,并讨论了这些发现对机器学习研究的含义。
translated by 谷歌翻译
语言是协调问题的强大解决方案:他们提供了稳定的,有关我们所说的单词如何对应于我们头脑中的信仰和意图的共同期望。然而,在变量和非静止社会环境中的语言使用需要语言表征来灵活:旧词在飞行中获取新的临时或合作伙伴特定含义。在本文中,我们介绍了柴(通过推理的连续分层适应),一个分层贝叶斯的协调理论和会议组织,旨在在这两个基本观察之间调和长期张力。我们认为,沟通的中央计算问题不仅仅是传输,如在经典配方中,而是在多个时间尺度上持续学习和适应。合作伙伴特定的共同点迅速出现在数型互动中的社会推论中,而社群范围内的社会公约是稳定的前锋,这些前锋已经抽象出与多个合作伙伴的互动。我们展示了新的实证数据,展示了我们的模型为多个现象提供了对先前账户挑战的计算基础:(1)与同一合作伙伴的重复互动的更有效的参考表达的融合(2)将合作伙伴特定的共同基础转移到陌生人,并(3)交际范围的影响最终会形成。
translated by 谷歌翻译