跳至主要內容
Overcoming catastrophic forgetting in neural networks

Overcoming catastrophic forgetting in neural networks

  • arxiv: 1612.00796

  • 序列化的学习方法对AI发展至关重要。而目前连接型的神经网络存在灾难性遗忘问题,本文提出一种方式可以克服这个问题,使得训练的网络能够长时间保存知识。该方法通过选择性地减缓任务的重要程度来记住旧任务。通过MNIST数据集的分类任务和Atari 2600游戏任务实验证明了该方法是可扩展和有效的。


Xenny大约 7 分钟深度学习深度学习持续学习EWC