让神经元的某些连结具有可塑性,有些是要固化的。
越蓝loss越低,越白loss越高。
下面的做法会遗忘任务1,那有没有可能让他限制θ往右移?
基本思想:模型中的一些参数对前面的任务很重要。只改变不重要的参数。θb是从前面的任务中学习到的模型。加入守卫bi,改写我们的loss方程。我们加入之前的参数和现在的参数的差值平方项求和,希望他们越接近越好,但是不是所有的参数维度都是越接近越好,所以引入bi。
bi=0,灾难性遗忘,相当于没有设置这一项。bi很大,相当于前后的参数很像,就没办法在后面的任务上学好。
怎么看那些参数更重要?
bi可以算
额外训练别的模型,实验之前的模型的参数
并没有完全解决这个问题!
packNet使用比较大的网络,分别在不同的任务用不同的参数。
使用先前任务的生成模型生成伪数据。
多任务分类器的类别数量不同:
调换任务学习的顺序结果会不同。 Curriculum Learning是研究任务顺序的方法。
因篇幅问题不能全部显示,请点此查看更多更全内容