본문 바로가기

AI 논문

[꼼꼼하게 논문 읽기] A comprehensive Survey on Transfer Learning 2

728x90
반응형

안녕하세요, WH입니다.

오늘은 저번 글에 이어서 related work 부터 시작할게요

2022.06.17 - [AI 논문] - [꼼꼼하게 논문 읽기]A Comprehensive Survey on Transfer Learning 1 ( 2019 )

 

[꼼꼼하게 논문 읽기]A Comprehensive Survey on Transfer Learning 1 ( 2019 )

안녕하세요, WH입니다 오늘은 transfer learning에 대한 논문을 읽어보고자 합니다. 함께 보시죠 Abstract transfer learning은 source domain과 관련 있지만 다른 것이 포함된 지식을 전이함으로써 target domain..

developer-wh.tistory.com

Related Work

  Semi-Supervised Learning

  이 학습 방식은 지도 학습과 비지도 학습 중간에 의존하는 방식인데요. 전통적으로 semi-supervised 방식은 다량의 unlabeled 된 데이터와 제한적인 labeled 데이터를 합쳐 사용합니다. 그렇기 떄문에 labeled 된 데이터에 대한 의존도를 줄여주고, labeling에 대한 비용을 줄여주죠. semi-supervised 방식에서 labeled 된 데이터와 unlabeled 된 데이터는 같은 분포를 갖습니다. 반면에, transfer learning에서는 source와 target의 데이터 분포가 다르죠. 많은 transfer learning 방식은 semi-supervised learning의 기술을 포함합니다. semi-supervised learning에서의 중요한 가정은 ( smoothness, cluster 등의 가정 ) transfer learning에서 역시 사용됩니다. semi-supervised learning이 논란이 되고 있는 점이 있는데요. 이유는 transfer learning에서 label 정보를 활용할 수 있는지에 대한 개념이 source와 target 도메인 모두를 포함할 수 있기 때문에( 즉 두 도메인의 분포가 다르기 때문에 ) 애매하다는 점입니다.

 

  Multi-View Learning

  Multi-View learning은 multi-view data를 다루는 machine learning 문제에 포커스를 맞춥니다. 하나의 view는 하나의 명확한 feature set을 대표합니다. 예를 들어 비디오 데이터는 이미지 신호와 오디오 신호 2개의 viewpoint를 가지고 있습니다. 간단하게, multi-view learning은 multi-view로부터 풍부한 정보를 가지고 하나의 물체를 나타냅니다. 모든 view로부터 정보를 고려함으로써 learner의 성능이 향상될 수 있습니다. multi-view learning에 적용된 몇 가지 전략이 있습니다( multi-kernel learning, subspace learning, co-training ). Multi-view 기술 역시 몇몇 transfer learning에 적용됩니다.

 

  Multi-Task Learning

  Multi-task learning에 대한 생각은 관계된 task를 그룹으로 묶어서 공동으로 학습시키는 것인데요. 더 자세히 말하자면, multi-task learning은 각각의 task를 작업 간의 상호 연결의 이점을 활용해서 강화될 수 있습니다. ( inter-task의 관계나 차이를 고려해서 ) 이러한 방식으로 각 작업의 일반화는 강화됩니다. transfer learning과의 주요한 차이는 transfer learning은 관계된 domain의 지식을 transfer하는 반면 multi-task learning은 몇몇 관계된 task를 동시에 학슴함으로써 지식을 transfer합니다. 다른 말로하면, multi-task learning은 각각의 task에 더 집중하는 반면, transfer learning은 source task보다 target task에 더 집중을 합니다. 공통점도 가지고 있는데요. 두 방식 모두 지식 transfer를 통해 성능 향상을 목적으로 합니다.  게다가 두 방식 모두 parameter sharing과 feature transformation 같이 모델을 constrctuing 하는 유사한 전략을 적용합니다.

 

Overview

이 파트에서는 이 논문에 사용된 표기가 편의를 위해 리스트로 나타내었다고 합니다. 게다가, transfer learning에 대한 몇몇 정의와 분류를 소개합니다. 관련된 논문 역시 소개 되는데 이는 생략할게요. 

  Definition

  이파트에서는 transfer learning에 대한 정의가 주어지는 데요, 그 전에 domain과 task에 대한 정의를 먼저 review합니다

 

  Definition 1 : Domain

  Domain은 두 파트로 구성됩니다. feature space와 marginal distribution 입니다. 아래와 같이 표시 됩니다.

  Definition 2 : Task

  task는 label space와 decision funtion으로 구성됩니다. 즉 아래와 같습니다.

  몇몇 machine learning model들은 데이터의 예측된 조건 확률 분포를 출력하는 데요. 이 경우 아래의 식으로 나타냅니다.

  실제로, domain은 label 정보를 가지거나/가지지 않는 여러 가지 데이터에 의해 관찰됩니다. 즉 source task, T_s 와 관계된 D_s 는 label pairs로 관찰됩니다. 즉 식으로 나타내면 아래와 같습니다.

  target domain은 unlabeld 된 데이터 사례와/나(and/or) 제한된 수의 labeled 데이터로 구성됩니다.

  Definition 3 : Transfer Learning

    source domain과 task, target domain과 task가 위와 같이 정의하고, decision funtion을 위와 같이 정의합니다. decision function은 source domain의 지식을 사용해서 target domain의 성능을 향상시킵니다.

 

  multi source transfer learning의 커버하는 위의 정의는 타 논문의 확장이라고 하는데요. m^s가 1이라면, 그 시나리오는 single-source transfer learning이라고 불리고, 그 외의 경우 multi-source transfer learning이라고 불립니다. 게다가 m^T 는 transfer learning task의 수를 대표합니다. 소수의 연구는 m^T >= 2인 경우에 집중합니다. 대부분의 경우 m^T=1인 경우에 집중합니다. domain이나 task의 관찰은 labeld/unlabeled 데이터 셋 이나 pre-learned model을 접합 시키는 넓은 의미의 개념임을 말하는 것은 가치가 있습니다. 대중적인 시나리오는 우리는 풍부한 labeled 데이터나 source domain에서 well-trained model을 가지고 있고 한정된 labeled target domain 데이터를 가지고 있습니다. 이런 경우 데이터나 모델 같은 resources는 실제 observations이며, transfer learning의 목표는 더 정확한 decision fuction을 target domain에서 학습하는 것입니다.

  transfer learning area에서 사용되는 다른 관점은 domain adaptation 입니다. domain adaptation은 지식을 전이시키고 target learner의 성능을 향상 시킬 하나 혹은 그 이상의 source domains을 adapting 하는 과정을 말합니다. Transfer learning은 domain 간 차이를 줄이려고 시도하는 domain adaptation 과정에 의존합니다.

Categorization of Transfer learning

  몇몇 transfer learning의 분류 기준이 있는데요. 예를 들면, transfer learning 문제는 3 가지 카테고리로 나눠집니다. transductive, inductive, unsupervised transfer learning으로 말이죠. 이는 타 논문에 완전한 정의가 나와있습니다. 이 카테고리는 label-setting aspect로 부터 해석될 수 있는데요. 대략적으로 말하면, transductive transfer learning은 label information이 source domain으로 부터 나오는 상황을 말합니다. 만약 label information이 target domain의 데이터에서도 나온다면 inductive trasnfer learning이라고 하고 target과 source 둘 다에서 label 정보를 얻을 수 없다면 unsupervised transfer learning이라고 하죠. 또 다른 카테고리는 source와 target feature space, label space 사이에 일관성이 기반합니다. 

이라면, homogeneous transfer learning 라고 하고,

이라면, heterogeneous transfer learning이라고 나눕니다.

  이전 연구에 따르면, transfer learning approaches는 4 개의 그룹으로 나눌 수 있는데요, instance-based, feature-based, parameter-based, and relational-based로 나눌 수 있습니다. Instance-based transfer learning 은 instance weighting strategy에 기반하고, Feature-based는 새로운 feature 을 만들기 위해 원래의 features를 바꾸는 방법에 기초합니다. feature-based 방식은 두 가지 서브 카테고리를 가지는데 asymmetric과 symmetric feature-based 입니다. asymmetric approackes는 source feature를 target feature에 맞추고, aymmetric은 공통적인 잠재적 feature을 찾고 그 잠재적 feature에 source와 target feature 를 고려해 바꾼 새로운 feature represestation로 만듭니다. parameter-based transfer learning 은 지식은 model/parameter 수준에서 전달합니다. Relational-based transfer learning은 relational domain에 초점을 맞춥니다. 즉 지금까지의 모든 내용은 아래의 그림으로 요약될 수 있습니다.

  이 연구의 조직도는 위에 언급한 분류를 명확하게 따르진 않습니다. 다음 두 섹션에서는 transfer learning approaches가 data와 model의 관점에서 해석됩니다. 간략하게 말해서 data-based 해석은 넓은 관점에서 위에 언급한 instance-based와 feature-based transfer learning을 포함합니다. Model-based 해석은 parameter-based 방식을 커버합니다. relational-baed transfer learning과 대표적 접근 방법에 대한 적은 연구 때문에, 이 연구에서는 해당 방식을 다루지 않습니다.

 

이번 리뷰하는 논문은 너무 길어서, 파트를 조금 많이 나누겠습니다.

이상 wh였습니다. 감사합니다

반응형

 

728x90
반응형