[Paper] Auto VirtualNet
Abstract
Multi-task laerning : 개별 학습에 비해 여러 작업을 동시에 해결하여 학습 효율성을 향상시킨다.
문제점
- negative inference는 작업 수가 많거나 관련성이 제한된 작업일 떄 학습 효율성을 저하시킬 수 있다.
- 최적의 모델 구조를 수동으로 탐색하는것은 상당히 제한적이다
- 비용 적응형 솔루션은 MTL체제에서 다루어지지 않았다.
본 논문에서는 메모리 소비를 최소화 하면서 조합 문제를 해결하기 위한 새로운 MTL접근 방식을 제안한다.
후보 모델 중 여러 네트워크 모델을 동적으로 발견하고 각 작업에 대한 서로 다른 계싼 비용과 관련하여 널리 분산된 솔루션 세트를 생성
다양성을 위해 기본 빌딩 블록을 생성하는 주어진 backbone 구조를 모듈화한 다음 빌딩 블록을 기반으로 계층 구조 구성
선택된 모델의 작업 성능과 계산 비용을 모두 최적화 하도록 훈련되었다.
Introduction
깊은 신경망을 연구한 결과 많은 심층 신경망은 over-parameterized되고 중복된다. 많은 매개변수 때문에 휴대전화 및 로봇과 같이 메모리 용량이 낮은 장치에 배치하기 어렵다
단일 학습 프레임워크에서 문제점을 동시에 해결(수작업 모델 설계, 비용 적응형 솔루션 및 여러작업을 학습할 때 발생하는 작업 간섭)
검색 에이전트와 백본 구조로 구성된 새로운 학습 프레임워크를 도입하여 후보 모델 풀을 생성
이 접근 방식은 서로 다른 리소스 예산과 관련하여 백본에서 한번에 여러 구조를 탐색한다.
주어진 자원 요구사항에 적합한 모델을 선택하기 위해 MTL시나리오에서 각 작업에 대한 모델 성능과 계산 비용 사이의 균형을 제공
주요 내용
- 단일 학습 프레임워크에서 작업 간섭, 수동 설계 노력 및 비용 적응 학습을 동시에 헤결하는 새로운 MTL방법을 제안
- 검색 에이전트가 각 구조를 탐색하는 백본의 리소스를 공유하는 여러 네트워크 모델을 생성하는 프레임워크를 제시