Abstract

순차적 task를 최적화할 때, 심층 신경망은 일반적으로 오래된 작업의 정보를 유지할 수 있는 능력이 부족하여 어려움을 겪는다.

이러한 문제를 완화하기 위해 지속적인 학습에 대한 연구가 수행되었으나 네트워크 크기의 확장으로 인한 계산 비용 증가 또는 이전 작업과 유리하게 연결된 정보의 변화로 어려움을 겪고 있다.

본 논문에서는 현재 작업을 효과적으로 학습하기 위해 모델 검색을 사용하여 오래도니 작업에 대한 유용한 정보와 유해한 정보를 구별하는 새로운 접근방식 제안

  • 새로운 task가 주어지면 제안된 방법은 새로운 task 지식을 획득하는데 추가적인 지원을 제공할 수 있는 이전 작업에서 기본적인 연관 지식을 찾는다.
  • 또한 관련 작업에서 현재 작업의 손실에 대한 민감도 측정을 도입하여 유해한 간섭을 완화하면서 현재 작업의 손실에 대한 민감도 측정을 도입하여 유해한 간섭을 완화하면서 작업 간 협력 관계를 찾는다.

Introduction

이전 정보들이 사라지는 문제를 지속적인 학습에서 과제 간섭 문제로 재구성하고 모델을 선택하여 협력 과제를 발견하여 해결

이를 위해 지속적인 학습 프레임워크에서 유용한 지식과 유해한 지식을 오래된 작업과 구별하는 새로운 접근 방식을 제안

제안된 프레임워크는 글로벌 feature 추출기와 task에 해당하는 여러 헤드로 구성된 구조를 기반으로 한다.

제안된 접근 방식은 feature 추출기가 각각 작업에 해당하는 분리된 매개 변수 세트로 구성되도록 순차 작업을 해결하기 위해 train - prune - retrian학습 패러다임을 사용하는 구조적 할당을 기반으로 한다.

오래된 작업을 찾고 주어진 작업의 지식을 활용하기 위해 모델 검색 프레임워크를 제시하고 지금까지 학습된 분리된 매개 변수 세트에 적용한다.이전 작업의 손실에 대한 민감도를 측정하여 요소별로 중요한 매개 변수를 추가로 발견한다. → 새로운 task를 학습할 떄 활용

Key Ideas

  • 구조적 할당 전력에서 작업 간섭을 고려하여 망각 문제를 작업 연관 문제로 재설계
  • 오래된 작업에서 유용한 지식을 차별화하고 흡수하여 새로운 작업을 효과적으로 학습할 수 있는 새로운 지속적인 학습 접근법을 제안한다.
  • 제안된 접근 방식은 더 거친 수준에서 그레디언트 기반 모델 검색을 사용하여 이전 작업에서 기여 가능한 매개변수를 정교하게 선택한다.