在本报告中,我们考虑以下问题:给定一个训练有素的模型,我们可以纠正其行为而无需从头开始训练模型吗?换句话说,我们可以``调试''神经网络类似于我们如何解决数学模型和标准计算机代码中的错误。我们基于一个假设,即调试可以被视为两任任务的连续学习问题。特别是。,我们采用了一种称为正交梯度下降(OGD)的持续学习算法的修改版本,通过MNIST数据集中的两个简单实验来证明我们可以在不理解的行为中进行实际的\ textit {unterarn},同时保持不良行为。该模型,我们可以另外可以\ textit {Rerearnn}适当的行为,而无需从头开始训练模型。
translated by 谷歌翻译