Skip to content

Meta Learning 설명 | ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편 25880 좋은 평가 이 답변

★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편

당신은 주제를 찾고 있습니까 “meta learning 설명 – ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편“? 다음 카테고리의 웹사이트 https://dienbienfriendlytrip.com 에서 귀하의 모든 질문에 답변해 드립니다: https://dienbienfriendlytrip.com/finance/. 바로 아래에서 답을 찾을 수 있습니다. 작성자 구자환 AIBigLab 이(가) 작성한 기사에는 조회수 2,228회 및 좋아요 26개 개의 좋아요가 있습니다.

Meta-Learning은 다른 Task를 위해 학습된 AI 모델을 이용해서, 적은 Dataset을 가지는 다른 Task도 잘 수행할 수 있도록 학습시키는 방식이다.

meta learning 설명 주제에 대한 동영상 보기

여기에서 이 주제에 대한 비디오를 시청하십시오. 주의 깊게 살펴보고 읽고 있는 내용에 대한 피드백을 제공하세요!

d여기에서 ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편 – meta learning 설명 주제에 대한 세부정보를 참조하세요

빅데이터 강의 노트
https://trello.com/b/VjgDkljT/big-data-koo-lecture-notes
https://sites.google.com/site/jahwankoo

meta learning 설명 주제에 대한 자세한 내용은 여기를 참조하세요.

[DL] Meta-Learning: Learning to Learn Fast – 생각많은 소심남

“Learning To Learn” 이라고 알려져 있는 Meta-learning은 몇몇 training 예제를 통해서 모델로 하여금, 새로운 기술을 배우거나, 새로운 환경에 …

+ 여기에 더 보기

Source: talkingaboutme.tistory.com

Date Published: 10/12/2022

View: 1007

Meta Learning – 숭이는 개발중

Meta Learning · 1. Learning the metric space. 두 이미지의 특징을 한 공간에 나타내고 거리를 통해 similarity를 계산하는 방식이다. · 2. learning the …

+ 여기에 보기

Source: rhcsky.tistory.com

Date Published: 11/25/2021

View: 6547

최근 머신 러닝 핫한 연구 분야 (2/3)

4. Meta Learning (메타 러닝) … Meta Learninig은 “Learning to Learn”이라고도 불리는데, 한 마디로 배우는 법을 배운다는 것입니다. 다르게 말하면 …

+ 여기에 자세히 보기

Source: honeyjamtech.tistory.com

Date Published: 4/22/2021

View: 7911

[Meta-Learning] 1. 메타, 메타러닝이란 뭘까? – Fennec

Meta-Learning? 머신러닝 분야를 공부하다보면 메타러닝이라는 말이 자주 등장합니다. 아마도 대부분의 사람들은 학습하는 방법을 학습한다는 표현은 …

+ 여기에 표시

Source: jrc-park.tistory.com

Date Published: 10/10/2022

View: 8928

Top 37 Meta Learning 설명 The 94 Top Answers – 1111.com.vn

Meta-Learning은 다른 Task를 위해 학습된 AI 모델을 이용해서, 적은 Dataset을 가지는 다른 Task도 잘 수행할 수 있도록 학습시키는 방식이다.

+ 자세한 내용은 여기를 클릭하십시오

Source: 1111.com.vn

Date Published: 11/20/2021

View: 5549

메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용

안녕하세요 모카의 머신러닝 입니다. 이번 포스팅에서는 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 …

+ 더 읽기

Source: ysbsb.github.io

Date Published: 9/10/2021

View: 3023

Multi-task learning & Meta-learning – simpling

이번 글은 Multi-task learning과 Meta-learning 알고리즘 비교와 특징을 비교하여 설명한다. Multi-task learning은 처음 딥러닝을 공부할 때부터 …

+ 자세한 내용은 여기를 클릭하십시오

Source: simpling.tistory.com

Date Published: 4/30/2022

View: 7220

주제와 관련된 이미지 meta learning 설명

주제와 관련된 더 많은 사진을 참조하십시오 ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편. 댓글에서 더 많은 관련 이미지를 보거나 필요한 경우 더 많은 관련 기사를 볼 수 있습니다.

★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편
★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편

주제에 대한 기사 평가 meta learning 설명

  • Author: 구자환 AIBigLab
  • Views: 조회수 2,228회
  • Likes: 좋아요 26개
  • Date Published: 2021. 3. 9.
  • Video Url link: https://www.youtube.com/watch?v=c-ZgGEJ_M8M

Meta-Learning과 MAML의 개념 정리

반응형

이번 글에서는 최근, 그 중요성이 점점 부각되고 있는 Meta-Learning에 대해 정리해보려고 한다. Meta-Learning은 다른 Task를 위해 학습된 AI 모델을 이용해서, 적은 Dataset을 가지는 다른 Task도 잘 수행할 수 있도록 학습시키는 방식이다. Meta Learning이 각광받는 가장 큰 이유는 모을 수 있는 Data의 양이 적다는 점과 HW의 Limitation이다. Deep Learning의 대부분 Application은 많은 Data를 High Computational HW에서 Training해서 좋은 성능을 보인다. 하지만, 대부분의 Application은 고품질의 Data를 모으기도 힘들고, 이를 Training할 Computational Power도 부족한 상황에서 적용되어야 한다. 따라서, 주어진 환경에 맞게 Re-Train하는 알고리즘들이 부각되고 있고, 공부하다보면, Transfer Learning, Meta-Learning, Multi-task Learning, Continual Learning 등 다양한 이름들이 등장한다. 공부하면서 많이 헷갈렸던 부분들이고, 다 중요하게 거론되는 알고리즘들이라 이번 기회에 Meta-Learning과 다른 알고리즘 들과의 차이도 같이 정리해보려고 한다. 단, 소개된 알고리즘이 딱딱 나눠떨어지는건 아니고, 포함관계나 겹치는 부분이 많다는 점을 참고하길 바란다.

가장 먼저 Multi-task Learning과 Meta-Learning을 비교해보면, Multi-task Learning은 각 Task가 최적의 Parameter $\phi$를 공유하는 형태로 이루어진다. 즉, 하나의 커다란 Model이 다양한 Task를 지원할 수 있는 형태로 이루어지고, 새로운 Task의 Dataset이 들어오면, 다수의 Task에 동시에 최적화된 Model의 Parameter $\phi$를 찾기 위해 학습을 하는 방식이다. 하지만 Meta-Learning은 각 Task 마다 최적의 Parameter $\phi_i$가 다르다는 Assumption부터 시작하기 때문에, 기존에 학습된 모델의 Parameter $\phi$와 새로운 Dataset의 특성 사이의 Correlation에 대한 새로운 Parameter $\theta$를 찾는 과정을 통해, $\theta$에서 새로 들어온 Task의 $\phi$를 찾는 순서로 진행된다.

Transfer Learning과 Meta-Learning은 둘 다 Few-shot Learning을 위해 제안된 알고리즘이다. 하지만, 서로 배타적으로 나뉜 알고리즘은 아니고, ‘meta-learning as belonging to transfer learning approaches’라고 소개하는 논문 [1]도 있다. 단, 이 논문에서 ‘편의를 위해 분류를 하면서’, Transfer Learning은 조금 더 Pre-trained 모델을 기반으로 적은 Dataset을 기반으로, Fine-Tuning하는 알고리즘이라는 점에 초점을 맞추고, 기본적으로 조금 더 많은 Dataset이 필요하다는 얘기를 한다. 하지만, Meta-Learning은 말 그대로 ‘Learning-to-Learn’이라는 Concept처럼, Hand-design의 느낌이 나는 Transfer Learning보다 ‘빠르게 Adaptation할 수 있는’ 최적의 알고리즘을 찾기 위해 제안되었다고 소개한다. 정리하면, Meta-Learning이 더 적은 Dataset을 Targeting하여, 빠르게 최적화가 이루어질 수 있도록, Generalization에 Focusing이 되어있는 방식이라고 정리할 수 있을 것 같다.

Meta Learning은 크게 Model-based model, Metric-based Approach와 Optimization-based Approach으로 나눌 수 있는데, Metric-based Approach 저차원의 공간에 새로 들어온 데이터를 Mapping시키고, 저차원에서 ‘데이터 간의 거리’가 가까운 방향으로 새로운 Task의 Dataset을 Classification하는 알고리즘이다. 하지만, Classification 이외에도 Reinforcement Learning 등 다양한 알고리즘에도 적용가능하다고 알려진 Model-Agnostic Meta-Learning (MAML) [2]이 주목을 받고있다. 이 글에서는 MAML과 이 알고리즘이 속한 Optimization-based Approach를 중점적으로 설명한다.

Optimization-based Approach의 Concept을 쉽게 설명하면, 여러 Task의 generalized 버전 Model의 Parameter인 $\theta$를 구하고, 이를 new Task Model의 Parameter인 $\phi$의 Initialization으로 정의한다. 이렇게 함으로써 최적의 Task Parameter $\phi^*$를 빠르게 찾아나갈 수 있다.

Model-Agnostic Meta-Learning (MAML)

MAML은 [2]에서 소개된 논문으로, Meta Learning에서 가장 중요한 논문 중 하나인데, 주목받는 이유는 이름에서 알 수 있듯, ‘Model-Agnostic (모델과 상관없이)’하게, 즉, 대부분의 AI모델 (e.g., supervised Learning, reinforcement Learning) 에 적용될 수 있기 때문이다. MAML에 대한 대략적인 설명은 Multi-task Learning과 Meta-Learning을 비교하면서, 많은 부분을 설명했기 때문에, 바로 알고리즘을 분석해보려고 한다.

MAML의 Diagram

MAML의 Diagram은 위와 같다. Meta-Learning은 결국 Generalized Model의 Parameter인 $\theta$를 찾아나가는 방식으로 Gradient Descent를 진행한다. 위 그림에서 $\theta$가 가리키는 point가 Task 1, 2, 3에 대한 최적은 아니지만, 이후, Task 1, 2, 3을 빠르게 Adaptation할 수 있는 point이기 때문에 Meta Parameter $\theta$가 위의 화살표가 가리키는 점으로 가게되는 것이다. 이후, 얻은 $\theta$에서 new Task $T_i$에 맞는 최적의 Model Parameter $\theta^*$를 찾아가는 방식으로 Gradient Descent를 진행한다. 위에서는 자세한 알고리즘은 아래 그림과 같다.

MAML의 알고리즘

처음에 Model은 $\theta$로 Initialized가 되어있다. $p(T)$는 전체 Task set이라고 보면 되고, new Task $T_i$에 있는 datapoint로 학습을 진행한다. Supervised Learning에서 Regression인 경우에는 (2)의 Mean Square Error (MSE)를, Classification의 경우에는 Cross Entropy를 Loss function으로 사용하여, 이를 기반으로 Gradient Descent를 진행한다. 그러면 Initialized 되어있는 $\theta$가 $\theta^{new}$으로 update가 되는데 (line 6), 한 두번의 Gradient Descent만 필요하도록 조정한다고 한다. 이렇게 구한 $\theta^{new}$를 기반으로 다시 Generalized model의 Parameter인 $\theta$를 조정해야한다. 새로운 New Task $T_i$를 한 두번의 Gradient Descent로 optimize하려면, ‘Meta-optimization across Tasks’를 진행해야하고, 이 값은 우리가 구한 $\theta^{new}$를 기반으로 Gradient Descent를 진행한다. 이 과정을 반복하면서, Few shot Learning이 지속적으로 이루어질 수 있게된다.

Supervised Learning에 대한 알고리즘은 Loss Function만 Cross-Entropy와 MSE로 바뀌었기 때문에, 이해하기 어렵지 않고, Reinforcement Learning (RL)에 적용하는 알고리즘에 대해 보도록 하자. Supervised Learning에서 Regression과 Classification을 위한 Model이 주를 이룬다면, RL은 Expected Reward를 기반으로 Action을 결정하는 Policy에 대한 학습 알고리즘이다. 즉, RL에 Meta Learning을 적용한다는 것은, Task가 변하는 환경에서, 적은 Experience로 Policy를 Update하는 방식이라고 생각하면 된다. 이 논문에서는 하나의 Maze (미로)에 특화된 알고리즘이 다른 Maze 탐색에 활용될 수 있다고 소개한다.

MAML for Reinforcement Learning

RL과 Supervised Learning 알고리즘의 차이는 $K$개의 Sample이 $K$개의 Trajectory로 바뀌었다는 점과 Expected Reward가 Loss Function에 반영이 된다는 점이고, 나머지는 거의 똑같다. Policy Gradient은 학습하는 Policy와 Action하는 Policy가 같은 On-Policy 방식이기 때문에, 새로운 Policy의 Parameter $\theta$를 구할 때, update된 Policy $\theta^{new}$에서 Sampling을 한다. 이후에 나오는 Experimental Evaluation은 당연하겠지만, Few Shot Training의 경우, MAML을 쓰면 다른 Fine Tuning 알고리즘에 비해 성능이 좋다라는 결과들이 첨부되어 있다.

Conclusion

이번 글에서는 Meta-Learning, 그 중에서도 가장 유명한 알고리즘인 MAML 논문 [2]에 대해 정리했다. 딱 보기에도, 그닥 개념적으로 어렵지 않고, Model-Agnostic하다는 장점 때문에 모든 Meta-Learning 논문의 뼈대가 되어서 인용수가 많지 붙지 않았나싶다. (2021.9.20 기준 4,339회) 하지만, Meta-Learning에서 말하는 ‘비슷한 Task’가 어느 정도로 비슷해야 하는지, Gradient Descent는 몇번으로 해야하는지, Few shot이라는게 몇 개정도의 Sample을 의미하는지 등 애매한 부분이 없지 않다. 물론, Domain에 따라 달라지겠지만, 환경이 끊임없이 변하는 비슷한 Task에서는 큰 힘을 발휘할 수 있지 않을까라는 생각이 든다. 후속으로 나오는 Meta-Learning에 대한 Survey 논문 [3]과 이를 활용한 주요 논문들을 읽으면서, 활용 방안에 대해 조금 더 고민해볼 여지가 있을 것 같다. 이 다음 글로는 5G에 Meta-Learning을 적용하는 논문 [4] 을 리뷰 [5]할 예정이다.

Reference

[1] Vincent Dumoulin, Neil Houlsby, Utku Evci, Xiaohua Zhai, Ross Goroshin, Sylvain Gelly, and Hugo Larochelle. Comparing transfer and meta learning approaches on a unified few-shot classification benchmark. arXiv preprint arXiv:2104.02638, 2021.

[2] C. Finn, P. Abbeel, and S. Levine. Model-agnostic metalearning for fast adaptation of deep networks. In International Conference on Machine Learning, 2017.

[3] T. Hospedales, A. Antoniou, P. Micaelli, and A. Storkey, “Metalearning in neural networks: A survey,” 2020, arXiv:2004.05439. [Online]. Available: http://arxiv.org/abs/2004.05439

[4] Y. Yuan, G. Zheng, K. -K. Wong, B. Ottersten and Z. -Q. Luo, “Transfer Learning and Meta Learning-Based Fast Downlink Beamforming Adaptation,” in IEEE Transactions on Wireless Communications, vol. 20, no. 3, pp. 1742-1755, March 2021, doi: 10.1109/TWC.2020.3035843.

[5] https://engineering-ladder.tistory.com/96

반응형

[DL] Meta-Learning: Learning to Learn Fast

(해당 글은 OpenAI Engineer인 Lilian Weng의 포스트 내용을 원저자 동의하에 번역한 내용입니다.)

“Learning To Learn” 이라고 알려져 있는 Meta-learning은 몇몇 training 예제를 통해서 모델로 하여금, 새로운 기술을 배우거나, 새로운 환경에 빠르게 적응할 수 있도록 설계하는 것을 나타낸다. 보통 3개 정도의 접근 방식이 있다.

1) (metric 기반의) efficient distance metric을 학습하는 방식

2) (model 기반의) external/internal memory를 통한 (recurrent) network을 사용하는 방식

3) (optimization 기반의) fast learning을 위한 model parameter를 최적화하는 방식

머신러닝을 통해서 좋은 모델을 만들기 위해서는 일반적으로 수많은 샘플을 활용해서 학습을 시키는 것이 필요하다. 이와 반대로 인간의 경우에는 훨씬 빠르고 효율적으로 새로운 개념이나 기술들을 학습한다. 고양이나 새를 많이 보지 않은 아이들이라고 할지라도 빠르게 그걸 구분할 수 있다. 자전거를 타는 방법을 아는 사람들은 시연 같은 과정 없이도 빠르게 오토바이를 타는 방법을 발견하곤 한다. 머신러닝에서도 이와 같이 적은 샘플만 가지고도 새로운 개념과 기술을 빠르게 학습하는 것이 가능할까? 이 것이 바로 본질적으로 meta-learning이 풀고자 하는 문제점이다.

보통 좋은 meta-learning model이라고 하면, training time 동안에 접하지 않았던 새로운 task나 environment에 대해서 잘 적응하거나, 일반화가 잘 되는 것을 말한다. adaptation process (본질적으로 말하자면 mini learning session)은 test 과정에서 일어나게 되는데, 사실 이 때에는 새로운 task configuration에 대해서 제한적으로만 노출되어 있다. 어쨌든, 이렇게 적응된 모델은 새로운 task를 잘 수행할 수 있다. 이 것이 바로 meta-learning이 learning to learn 이라고 알려져 있는 이유이기도 하다.

여기서 task란 supervised learning 이나 reinforcement learning과 같이 machine learning로 정의될 수 있는 모든 문제들이 될수 있다. 예를 들어 meta-learning task를 나열해보면 다음과 같다.

고양이가 없는 이미지를 학습시킨 classifier도 몇개의 고양이 사진을 본 후에는 test image상에 고양이가 있는지 여부를 판단할 수 있다.

게임 봇이 새로운 게임에 대해서 빠르게 마스터 할 수 있다.

평평한 지면 환경에서만 학습해온 미니 로봇이 경사진 환경에서도 task를 수행할 수 있다.

Define the Meta-Learning Problem

이 포스트에서는 처리해야 할 task가 image classification과 같이 supervised learning problem인 것에 초점을 맞춰본다. Reinforcement Learning과 결합된 meta-learning (보통 “Meta Reinforcement Learning”이라고 알려져 있다.)에 대해서 많은 얘기들이 나오고 있지만 여기에서는 다루지 않을 예정이다.

A Simple View

보통 좋은 meta-learing model이라고 하면, 학습하는 task에 대한 다양성(variety)에 대해서 학습되어야 하고, 잠재적으로 인지되지 못한 task를 포함해서 여러 task들의 분포상에서 최고의 성능을 낼 수 있도록 최적화되어야 한다. 각 task들이 dataset \( \mathcal{D} \)로 구성되어 있는데, 여기에는 각각 feature vector들과 true label들이 포함되어 있다. 이때 optimal model parameter는 다음과 같이 정의할 수 있다.

$$ \theta^{*} = \arg\min_{\theta} \mathbb{E}_{\mathcal{D} \sim p(\mathcal{D})}[\mathcal{L}_{\theta}(\mathcal{D})] $$

(첨언을 하자면 위 식의 목표는 여러 개의 dataset 중에서 샘플링된 dataset \(\mathcal{D}\)에 대해서 Loss function \(\mathcal{L}_{\theta}(\mathcal{D}) \)을 최소화할 수 있는 \( \theta\)를 찾겠다는 의미이다.)

위의 식은 일반적인 learning task와 매우 유사하지만, 한가지 다른 부분은 하나의 dataset 자체가 하나의 data sample로 활용되고 있다는 것이다.

Few-shot classification은 supervised learing 상에서 meta-learning을 활용한 예시이다. 여기서 dataset \( \mathcal{D}\)는 크게 두개로 나눠볼 수 있는데, 하나는 learning을 위한 support set \(S\)이고, 다른 하나는 training이나 testing을 위한 prediction set \(B\)이다. 그러면 dataset \(\mathcal{D} =\) <\(S, B\)> 로 표현할 수 있게 된다. 보통 K-shot N-class classification task를 다루게 되는데, 이건 support set이 각 N개 class에 대해서 K개로 labelling된 데이터들을 포함하고 있다는 것을 말한다.

그림 1. 4-shot 2-class image classification의 예시 (출처 : Pinterest)

Training in the Same Way as Testing

위의 예시에 나온 dataset \(\mathcal{D}\)는 여러 쌍의 feature vector와 label들을 포함하고 있고, \(\mathcal{D} = \{(\mathbf{x}_{i}, y_{i})\}\) 라고 표현할 수 있고, 이때 각 label은 우리가 알고있는 label set \(\mathcal{L}\) (참고로 위에 나온 Loss function이 아닌 label set이다.)에 속해 있다고 해보자. 이제 우리가 만들 parameter \(\theta\)를 가진 classifier \(f_{\theta}\)는 주어진 데이터가 feature vector \(\mathbf{x}\)에 대해서 class \(y\)에 속할 확률인 \(P_{\theta}(y|\mathbf{x})\)를 출력으로 내보낼 것이다.

이 때의 optimal parameter는 dataset \(\mathcal{D}\)내에 있는 여러 개의 training batch \(B\)에 대해서 true label을 얻을 수 있는 확률을 높일 수 있어야 한다. 이를 수식으로 표현하면 다음과 같다.

$$ \begin{aligned}

\theta^* &= {\arg\max}_{\theta} \mathbb{E}_{(\mathbf{x}, y)\in \mathcal{D}}[P_\theta(y \vert \mathbf{x})] &\\

\theta^* &= {\arg\max}_{\theta} \mathbb{E}_{B\subset \mathcal{D}}[\sum_{(\mathbf{x}, y)\in B}P_\theta(y \vert \mathbf{x})] & \scriptstyle{\text{; trained with mini-batches.}}

\end{aligned} $$

Few-shot classification의 목표는 “fast learning” 을 위해서 추가한, 약간의 support set을 가지고, unknown label에 대한 데이터의 prediction error를 줄이는 것이다. (“fine-tuning”이 수행되는 과정과 유사하다고 보면 좋을거 같다.) Inference 중에도 training process를 모방한 과정을 넣기 위해서, dataset에 약간에 “fake”를 가해볼 것이다. 이를 통해서 모델이 모든 label에 대해서 인지하고, optimization procedure를 수정하는 것을 막고, 궁극적으로 fast learning이 이뤄질 수 있도록 하는 것이다.

Label set에서 일부를 샘플링한다. \( L \subset \mathcal{L} \) Support set과 training batch를 dataset으로부터 샘플링한다. (\(S^{L} \subset \mathcal{D}, B^{L} \subset \mathcal{D}\)) 두 개의 set 모두 1에서 샘플링된 label set에 속하는 label을 가진 데이터만 가지고 있어야 한다. (\( y \in L, \forall (x, y) \in S^{L}, B^{L} \)) Support set은 모델의 input이 된다. Final optimization 단계에서는 supervised learning에서 하는 것과 동일한 방법으로, mini-batch \(B^{L}\)을 이용해서 loss를 계산하고, backpropagation을 통해서 model parameter를 update한다.

이때 앞에서 샘플링한 \((S^{L}, B^{L})\)을 하나의 data point로 고려할 수 있다. 그러면 모델은 다른 dataset에 대해서도 generalize할 수 있도록 학습되게 된다. 그러면 위에서 언급한 supervised learning의 수식은 빨간색으로 표기된 meta-learning 관련 term을 추가해서 조금 바뀌게 된다.

$$ \theta = \arg\max_\theta \color{red}{E_{L\subset\mathcal{L}}[} E_{\color{red}{S^L \subset\mathcal{D}, }B^L \subset\mathcal{D}} [\sum_{(x, y)\in B^L} P_\theta(x, y\color{red}{, S^L})] \color{red}{]} $$

위와 같은 방식은 ImageNet과 같이 image classification에서 pre-trained된 model을 사용하는 것이나 big text corpora와 같은 language modeling에서 쓰는 방식과 많이 유사하다. Meta-learning은 이런 아이디어를 가져와서, 한단계 낮은 task를 통해 fine-tuning하는 것을 넘어서 전부는 아니더라도 많은 label에 대해서 잘 동작할 수 있도록 모델을 최적화시켜준다.

Learner and Meta-Learner

meta-learning을 바라보는 또다른 관점은 model update하는 과정을 두가지 단계로 나누는 것이다.

Classifier \(f_{\theta}\)는 “learner” model인데, 주어진 task를 수행할 수 있도록 학습된 상태이다.

한편, optimizer \(g_{\phi}\)는 주어진 support set \(S\)를 가지고, learner model의 parameter를 update하는 방법을 학습하게 된다.

(\(\theta = g_{\phi}(\theta, S)\))

그러면 final optimization step에서는 \(\theta\)와 \(\phi\)를 최대화할 수 있도록 update하는 것이 필요하게 된다.

$$ \mathbb{E}_{L\subset\mathcal{L}}[ \mathbb{E}_{S^L \subset\mathcal{D}, B^L \subset\mathcal{D}} [\sum_{(\mathbf{x}, y)\in B^L} P_{g_\phi(\theta, S^L)}(y \vert \mathbf{x})]] $$

Common Approaches

서두에 이야기 했던 것처럼 meta-learning에는 크게 3가지 접근방식이 있다.(metric-based, model-based, optimization-based) Oriol Vinyals이 NIPS 2018에서 진행된 meta-learning symposium에서 talk를 통해서 간단하게 요약했다.

Model-based Metric-based Optimization-based Key Idea RNN; memory Metric learning Gradient Descent How \(P_{\theta}(y|\mathbf{x})\) is modeled? \(f_{\theta}(\mathbf{x}, S)\) \( \sum_{(\mathbf{x}_i, y_i) \in S} k_\theta(\mathbf{x}, \mathbf{x}_i)y_i \) (*) \(P_{g_\phi(\theta, S^L)}(y \vert \mathbf{x}) \)

(*) 참고로 \(k_{\theta}\)는 \(\mathbf{x}_{i}\)와 \(\mathbf{x}\) 사이의 similarity를 측정하는 kernel function을 말한다.

Metric-Based Approach

Metric-based meta-learning의 근본적인 개념은 (k-NN classifier나 k-means clustering과 같은) nearest neighbors algorithm과 kernel density estimation과 유사하다. 알려진 label \(y\)에 대한 predicted probability는 support set sample들의 label에 대한 weighted sum과 같다. 이 때 weight는 kernel function \(k_{\theta}\)를 통해서 구할 수 있는데, 이 값은 두 개의 data sample간에 similarity 정도를 나타내는 것이다.

$$ P_{\theta}(y|\mathbf{x}, S) = \sum_{(\mathbf{x}_{i},y_{i}) \in S} k_{\theta}(\mathbf{x}, \mathbf{x}_{i})y_{i} $$

Metric-based meta-learning model이 잘 동작하기 위해서는 좋은 kernel function을 학습하는 것이 중요하다. Metric Learning이 이런 관점에서는 데이터에 대한 metric이나 distance function을 학습한다는 점에서 잘 맞는 학습법이다. 사실 좋은 metric이라는 정의는 문제에 따라서 달라지는데, 중요한 것은 이 metric이 task space내의 input들간의 관계를 잘 표현할 수 있어야 하고, 문제를 해결하는데 이점을 주어야 한다는 것이다.

이제 아래에서 설명할 방법론들은 input data에 대한 embedding vector를 학습하고, 이를 통해서 적절한 kernel function을 설계하는 것에 대해 소개하게 된다.

Convolutional Siamese Neural Network

Siamese Neural Network은 두 개의 twin neural network으로 구성되어 있고, 이에 대한 출력은 input data samples pair간의 관계를 이해하기 위한 함수와 연동되어 학습된다. 이 때 twin network은 서로 동일하고, 같은 weight과 network parameter들을 공유한다. 다르게 표현하자면, data point pair간에 관계를 알아내기 위해서 효율적인 embedding을 학습하는 embedding network를 서로 참고하고 있다고 보면 될거 같다.

Koch, Zemel & Salakhutdinov (2015) 에서는 one-shot image classification을 위해서 siamese neural network를 사용하는 방법을 제안했다. 우선, siamese network은 입력으로 들어온 두개의 image가 같은 class에 속하는지 여부를 판단하는 검증 task를 위해서 학습된다. 이때의 출력은 두개의 image가 같은 class에 들어있을 확률을 나타낸다. 그런 후에, test가 진행되는 동안, siamese network은 test image와 support set내에 들어있는 모든 이미지들간의 image pair에 대해서 모두 위와 같은 작업을 수행하게 되고, 결과적으로 나올 final prediction은 그렇게 처리된 support set image 중에서 가장 높은 정확성을 보이는 class가 될 것이다.

그림 2. few-shot image classification을 위한 convolutional siamese neural network의 구조도

우선 Convolutional siamese neetwork은 여러개의 convolutional layer들로 구성된 embedding function \( f_{\theta} \)을 통해서 입력으로 들어온 두 개의 image를 feature vector로 encode하는 것을 학습한다. 이때 두개의 embedding간의 L1-distance는 \( | f_{\theta}(\mathbf{x}_{i}) – f_{\theta}(\mathbf{x}_{j})|\)가 된다. 이렇게 계산된 L1 distance는 linear feedforward layer와 sigmoid를 통해서 확률 \(p\)로 변환시킬 수 있는데, 이때의 확률은 두개의 image가 같은 class에 속하는지에 대한 확률을 나타낸다.

\(p(\mathbf{x}_{i}, \mathbf{x}_j) = \sigma(\mathbf{W}| f_{\theta}(\mathbf{x}_{i}) – f_{\theta}(\mathbf{x}_{j}|) \) 직관적으로 보면, 여기서 label은 binary이기 때문에 loss는 cross entropy로 놓고 계산하면 된다.

\( \mathcal{L}(B) = \sum_{ (\mathbf{x}_{i}, \mathbf{x}_{j}, y_{i}, y_{j}) \in B} \mathbf{1}_{y_{i} = y_{j}} \log p(\mathbf{x}_{i}, \mathbf{x}_{j}) + (1 – \mathbf{1}_{y_{i}=y_{j}}) \log (1 – p( \mathbf{x}_{i}, \mathbf{x}_{j} )) \)

(참고로 \( \mathbf{1}_{y_{i} = y_{j}} \) 는 \(y_{i}\)와 \(y_{j}\)가 같은지 여부를 판단하는 binary 상수라고 보면 될거 같다.)

이 때 training batch \(B\)내의 image들은 distortion으로 약간 실제의 image와 다르게 표현될 수도 있다. 물론 위의 과정에서는 L1 Distance를 사용하긴 했지만, L2 distance나 consine distance같은 다른 distance metric을 사용해도 된다. 아무튼 미분가능한 distance metric을 쓰면 동일하게 동작할 것이다.

최종적으로 support set \(S\)와 test image \(\mathbf{x}\)가 주어져 있을때, final predicted class는 다음과 같이 구할 수 있다.

$$ \hat{c}_{S}(\mathbf{x}) = c(\arg \max_{\mathbf{x}_{i} \in S} P(\mathbf{x}, \mathbf{x}_{i})) $$

위 식에서 \(c(\mathbf{x})\)는 image \(\mathbf{x}\)에 대한 class label이고, \(\hat{c}(\cdot)\)은 predicted label이다.

여기에 전제되어 있는 가정은 학습된 embedding이 알려지지 않은 category에 속하는 image들간에 distance를 측정하는데 유용하게 활용할 수 있게끔 generalize될 수 있다는 것이다. 사실 이 개념은 transfer-learning에서도 pre-trained model를 적용하는 과정에서 정의한 가정과 동일한 것이다. 예를 들어 ImageNet으로 pre-train된 model로 학습시킨 convolutional feature들도 사실 다른 image classification task에서도 잘 동작할 것으로 생각하는 것과 같은 것이다. 하지만 차이가 있다면, transfer-learning에서 pre-train된 model을 사용함으로써 얻는 장점이 model이 학습되면서 새로운 task가 기존의 task에서 멀어지면 멀어질수록 떨어진다는 것이다.

Matching Networks

Matching Networks (Vinyals et al, 2016)는 적은 양의 support set \( S=\{x_i, y_i\}_{i=1}^k \) (k-shot classification)을 가지고 classifier \(c_{S}\)를 학습시키는 방법이다. 이 classifier는 주어진 test sample image \(\mathbf{x}\)에 대해서 output label \(y\)에 대한 probability distribution을 정의한다. 다른 metric-based model과 유사하게, classifier의 출력은 attention kernel \(a(\mathbf{x}, \mathbf{x}_{i})\)에서 weight가 가해져 있는 support sample의 label sum으로 정의되어 있는데, 이때 attention kernel의 값은 image \(\mathbf{x}\)와 \(\mathbf{x}_{i}\)사이의 유사한 정도와 비례해야 한다.

그림 3. Matching Network의 구조도 (출처: 논문)

$$ c_S(\mathbf{x}) = P(y \vert \mathbf{x}, S) = \sum_{i=1}^k a(\mathbf{x}, \mathbf{x}_i) y_i

\text{, where }S=\{(\mathbf{x}_i, y_i)\}_{i=1}^k $$

여기서 attention kernel은 두개의 embedding function인 \(f\)와 \(g\)에 따라서 달라지는데, \(f\)는 test sample을 embedding vector로 encoding해주는 함수이고, \(g\)는 support sample을 embedding vector로 encoding해주는 함수이다. 이 때 두 data point간의 attention weight는 두개의 embedding vector간의 cosine similarity \(\text{cosine}(.)\) 이고, 최종적으로는 softmax에 의해서 normalize되게 된다.

$$ a(\mathbf{x}, \mathbf{x}_i) = \frac{\exp(\text{cosine}(f(\mathbf{x}), g(\mathbf{x}_i))}{\sum_{j=1}^k\exp(\text{cosine}(f(\mathbf{x}), g(\mathbf{x}_j))} $$

Simple Embedding

Embedding function이란 개념이 나오는데, 간단하게 말해서 single data sample을 하나의 input으로 받는 neural network을 말한다. 잠재적으로는 \(f\)와 \(g\)을 동일하게 취급할 수 있다.

Full Context Embeddings

Embedding vector는 좋은 classifier를 만드는데 있어 중요한 입력이라고 볼 수 있다. 그래서 전체 feature space를 효율적으로 정의하는데 있어서 single data point만 가지고 입력으로 하기에는 충분하지 않을 것이다. 그렇기 때문에, Matching Network model은 원래의 input에 덧붙여서 전체 support set \(S\)을 입력으로 집어넣음으로써 embedding function의 성능을 개선하는 방향을 제안했다. 이를 통해서 학습된 embedding function은 다른 support sample들과의 관계를 활용해서 보정될 수가 있다.

\(g_{\theta}(\mathbf{x}_i, S)\)는 전체 support set \(S\)의 맥락에 맞춰 \(\mathbf{x}_i\)을 encoding하기 위해서 bidirectional LSTM을 사용한다.

\(f_{\theta}(\mathbf{x}, S)\)는 전체 support set \(S\)에 대한 read attention를 활용해서 LSTM을 통해서 test sample \(\mathbf{x}\)를 encoding한다.

1) 우선 test sample은 기본적인 feature \(f'(\mathbf{x}\) 을 뽑아내기 위해서, CNN과 같은 간단한 neural network에 통과시킨다.

2) 그러면 LSTM은 hidden state의 일부 영역에서 support set에 대한 read attention vector를 학습한다.

$$ \begin{align} \hat{\mathbf{h}}_t, \mathbf{c}_t &= \text{LSTM}(f'(\mathbf{x}), [\mathbf{h}_{t-1}, \mathbf{r}_{t-1}], \mathbf{c}_{t-1}) \\

\mathbf{h}_t &= \hat{\mathbf{h}}_t + f'(\mathbf{x}) \\

\mathbf{r}_{t-1} &= \sum_{i=1}^{k} a(\mathbf{h}_{t-1}, g(\mathbf{x}_i))g(\mathbf{x}_i) \\

a(\mathbf{h}_{t-1}, g(\mathbf{x}_i)) &= \text{softmax}(\mathbf{h}_{t-1}^\top g(\mathbf{x}_i)) = \frac{\exp(\mathbf{h}_{t-1}^\top g(\mathbf{x}_i))}{\sum_{j=1}^k \exp(\mathbf{h}_{t-1}^\top g(\mathbf{x}_j))} \end{align} $$

3) 결과적으로 “read”를 K번 수행할 경우 \(f(\mathbf{x}, S) = \mathbf{h}_{K}\) 라는 함수를 구할 수 있게 된다.

이런 embedding 방식을 “Full Contextual Embeddings (FCE)” 이라고 부른다. 흥미로운 것은 (Mini ImageNet model로 few-shot classification을 하는 것과 같은) 어려운 task에 대해서도 성능을 높일 수 있다는 것이다. 반면, (Omniglot 같은) 간단한 task에서는 별 차이가 없다.

Matching Networks에서의 training process는 test time 동안에도 inference를 수행할 수 있도록 설계되어 있는데, 자세한 내용은 앞의 “Training in the same way as testing” 부분을 참고하면 좋을거 같다. 여기서 기억하면 좋을 것은 Matching Networks 자체가 training condition과 testing condition을 맞춰야 한다는 생각을 잘 다듬었다는 것이다.

$$ \theta^{*} = \arg \max_{\theta} \mathbb{E}_{L\subset\mathcal{L}}[ \mathbb{E}_{S^L \subset\mathcal{D}, B^L \subset\mathcal{D}} [\sum_{(\mathbf{x}, y)\in B^L} P_\theta(y\vert\mathbf{x}, S^L)]] $$

Relational Network

Relational Network (RN) (Sung et al, 2018) 은 앞에서 언급했던 Siamese network와 유사하긴 하지만, 몇가지 부분에서 차이가 좀 있다.

Relationship은 Siamese에서는 간단한 L1 Distance를 통해서 구했었는데, RN에서는 그렇게 구하지 않고, CNN Classifier \( g_{\phi} \)에 의해서 predict된다. 이 때 relation score는 입력으로 들어온 \(\mathbf{x}_i\)와 \(\mathbf{x}_{j}\)사이에 대해서 계산하게 되는데, 다음과 같이 구할 수 있다.

$$ r_{ij} = g_{\phi}([ \mathbf{x}_i, \mathbf{x}_j]) $$

( 참고로 \( [ \cdot , \cdot ] \)은 두개의 data를 concatenate시키는 것이라고 보면 된다.) Siamese Network에서는 objective function을 Cross-entropy를 사용했었지만, 여기서는 MSE Loss를 사용했는데, 그 이유는 이론적으로 놓고 봤을때 RN 자체가 binary classification에 썼던 Loss \( \mathcal{L}(B) = \sum_{(\mathbf{x}_i, \mathbf{x}_j, y_i, y_j) \in B} (r_{ij} – \mathbf{1}_{ y_i = y_j })^2 \) 보다는 regression시 적합한 relation score를 예측하는 것에 초점을 맞추고 있기 때문이다.

그림 4. 하나의 query에 대한 5-way 1-shot problem에 대한 Relation Network 구조도 (출처 : 논문)

(참고로 DeepMind에서 제안한 relational reasoning을 위한 Relational Network이 따로 존재한다. 이것과 위의 내용과는 다른 개념이다.)

Prototypical Networks

Prototypical Networks (Snell, Swersky & Zemel, 2017) 에서는 각 입력을 M-dimensional feature vector로 encode하기 위해서 embedding function \(f_{\theta}\)를 사용했다. 여기서 전체 class \(C\)에 속하는 모든 class \(c\)에 대한 prototype feature vector를 정의할 수 있는데, 이 vector는 해당 class에 속하는 embedded support data sample들에 대한 mean vector라고 보면 된다.

$$ \mathbf{v}_c = \frac{1}{|S_c|} \sum_{(\mathbf{x}_i, y_i) \in S_c} f_\theta(\mathbf{x}_i) $$

그림 5. Few-shot과 Zero-shot 상황에서의 Prototypical Networks (출처 : 논문)

주어진 test input \(\mathbf{x}\)에 대한 class의 distribution은 test data embedding vector와 prototype feature vector간의 distance의 inverse에 대해서 softmax를 취한 것과 같다.

$$ P(y=c\vert\mathbf{x})=\text{softmax}(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_c)) = \frac{\exp(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_c))}{\sum_{c’ \in \mathcal{C}}\exp(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_{c’}))} $$

여기서 \( d_\varphi \)는 \(\varphi\)가 미분가능한 모든 distance function을 쓸 수 있다. 논문상에서는 squared euclidean distance를 사용했다. 그리고 논문에서는 Loss fuction을 negative log-likelihood를 사용했다.

$$ \mathcal{L}(\theta) = -\log P_\theta(y=c\vert\mathbf{x}) $$

Model-Based Approach

Model-based meta-learning은 \( P_{\theta}(y|\mathbf{x})\)와 같은 형식에서 어떠한 가정을 삽입하지 않는다. 대신에 fast-learning에 특화된 model의 영향을 많이 받는데, 이때 model은 몇번의 training step만 가지고도 network parameter를 빠르게 학습할 수 있는 형태를 나타낸다. 보통 이렇게 parameter를 빠르게 구하는 방식은 내부 구조를 통해서 얻을 수 있거나 또다른 meta-learner 모델을 통해서 제어가 된다.

Memory-Augmented Neural Networks (MANN)

이 형태를 가진 architecture는 Neural Turing Machine (NTM)나 Memory Network를 포함해서, neural network의 학습을 빠르게 하는데 있어, 외부 memory storage를 사용한다. 이렇게 storage buffer를 통해서, network은 새로운 정보에 대해서는 빠르게 이해할 수 있고, 미래에도 이 정보들을 잊지 않고 가지고 있을 수 있다. 이런 model들을 “Memory-Augmented Neural Network”, 줄여서 MANN이라고 한다. 참고로 vanilla RNN이나 LSTM같이 internal memory만 사용하는 recurrent neural network은 MANN에 포함되지 않는다.

MANN이 새로운 정보를 빠르게 encoding하고, 몇 개의 sample만 가지고도 새로운 task에 적용할 수 있도록 설계되었기 때문에, meta-learning에 적합한 구조이다. Neural Turing Machine (NTM)을 base model로 삼으면서, Santoro et al. (2016) 에서는 training setup과 memory retrieval mechanism (혹은 “addressing mechanism”이라고 표현되기도 하는데, 이는 attention weight들이 memory vector에 어떻게 할당되는지 결정하는 규칙이라고 보면 좋을거 같다.)에 대해서 약간의 수정을 가했다. 혹시 넘어가기에 앞서서 이런주제에 대해서 익숙하지 않다면, 원저자가 쓴 포스트 중 NTM section을 살펴보고 넘어갈 것을 권한다.

빠르게 복습하자면, NTM은 controller neural network에 external memory storage를 묶은 형태로 되어 있다. 이 때, controller는 soft attention을 통해서 memory row에 읽고 쓰는 방법을 학습한다. 반면 memory는 일종의 지식 창고(knowledge repository)처럼 활용된다. 여기서 attention weight는 content-based와 location-based로 정의된 나름의 addressing mechanism에 의해서 결정된다.

그림 6. Neural Turing Machine (NTM)의 구조도. 여기서 특정 시간 t에서의 memory \(M_{t}\)는 \(N \times M\)만큼 크기의 matrix로 되어 있으며, \(N\)개로 구성된 각 vector row 마다 \(M\)개의 dimenstion을 가지고 있다.

MANN for Meta-Learning

MANN을 meta-learning task에 활용하기 위해서는, memory가 새로운 task에 대한 정보를 빠르게 encoding하고 얻어내는 방법을 이용해서 학습이 되어야 하며, 반면 저장된 representation에 대해서도 쉽고, 안정적으로 접근이 가능해야 한다.

Santoro et al, 2016 에서 기술되어 있는 학습 과정에서는 적절한 label이 나중에라도 등장할 때까지 계속 memory가 정보를 가지고 있게끔 하는 방법이 포함되어 있다. 그래서 매 training episode마다, true label \(y_t\)는 \((\mathbf{x}_{t+1}, y_{t})\)와 같이 one step offset \(\mathbf{x}_{t+1}\)과 함께 나타나게 되는데, 이를 통해서 이전 time step \(t\)에서는 true label이 input으로 들어가지만, time step \(t+1\)에서는 input의 일부로 나타나게 되는 것이다.

그림 7. Meta-learning에 활용하기 위한 MANN의 구성 (출처 : 논문)

이렇게 하면, MANN은 새로운 dataset에 대한 정보를 기억하게끔 동작하게 되는데, 그 이유는 memory가 현재 input에 대한 label이 나중에 나올때까지는 input을 계속 가지고 있어야 하고, 그런 후에는 여기에 맞춰서 prediction을 할때 이전에 저장된 정보를 다시 가져올 수 있어야 하기 때문이다.

다음 파트에서 memory에 어떻게 효율적으로 정보를 가져오고 저장하는지를 살펴보자.

Addressing Mechanism for Meta-Learning

training process와 다른 측면으로, 현재의 model을 meta-learning에 맞게끔 만들기 위해서 새로운 content-based addressing mechanism이 적용되었다.

How to read from memory?

Read Attention은 순전히 content similarity에 기반해서 생성된다.

우선, time step \(t\)마다 key feature vector \(k_{t}\)가 controller network에 의해서 생성되는데, 이때의 형태는 \(\mathbf{x}\)를 input으로 받는 함수의 형태를 띈다. NTM과 유사하게 \(N\)개의 element에 대한 read weighting vector \(w_{t}^{r}\)는 key vector와 memory내 모든 vector row에 대한 cosine similarity를 통해서 구할 수 있고, 최종적으로는 softmax에 의해서 normalize가 된다. 그러면 결과적으로 read vector \(r_t\)는 아래의 수식과 같이 모든 memory record에 대해서 weight가 가해진 것들의 합으로 표현할 수 있게 된다.

$$ \mathbf{r}_t = \sum_{i=1}^N w_t^r(i)\mathbf{M}_t(i)

\text{, where } w_t^r(i) = \text{softmax}(\frac{\mathbf{k}_t \cdot \mathbf{M}_t(i)}{\|\mathbf{k}_t\| \cdot \|\mathbf{M}_t(i)\|}) $$

위 식에서 \(M_t\)는 \(t\) time에서의 memory matrix를 말하고, \(M_t(i)\)는 해당 matrix의 i번째 row를 나타내는 것이다.

How to write into memory?

새롭게 얻은 정보를 memory에 write하는 것에 대한 addressing mechanism은 cache replacement policy와 많이 유사하다. 그 중 Least Recently Used Access (LRUA) writer는 MANN이 meta-learning환경에서 잘 동작할 수 있도록 설계되었다. LRUA writer는 새로운 정보를 memory내에서 가장 적게 사용된(least used) 영역에 쓰거나 혹은 가장 최근에 쓰여진(most recently used) 영역에 쓰게 된다.

적게 써진 영역 : 이를 통해서 자주 사용된 정보를 보존할 수 있다. (LFU 참고)

가장 최근에 써진 영역 : 한번 정보를 가지고 오면, 일반적으로 잠깐동안은 다시 불러오지 않는 부분에서 착안했다. (MRU 참고)

이외에도 많은 cache replacement algorithm들이 있고, 다른 케이스 상에서 더 좋은 성능을 보일 수 있도록 위의 algorithm을 대체할 수 있다. 확실히 자기 마음대로 memory addressing을 하는 것보다는 memory usage pattern과 addressing strategy를 학습하는 것은 좋은 방법이다.

LRUA에서는 모든 변수들이 미분 가능하다는 부분에서 과정을 수행하게 된다.

time \(t\)에서의 usage weight \( \mathbf{w}^u_t\)는 현재의 read vector와 write vector들의 합에다가 이전의 usage weight에 감쇄된 형태 ( \( \gamma \mathbf{w}^u_{t-1} \))를 가한 식으로 표현된다. 여기서 \(\gamma\)는 decay factor이다.

$$ \mathbf{w}_t^u = \gamma \mathbf{w}_{t-1}^u + \mathbf{w}_t^r + \mathbf{w}_t^w $$ Read vector는 앞에서 잠깐 언급했던 바와 같이 key vector와 모든 memory row간의 cosine similarity를 계산하고, 최종적으로 softmax로 normalize된 형태로 나타난다.

$$ \mathbf{w}_t^{r} = \text{softmax}( \text{cosine} (k_t, M_t(i))) $$ Write vector는 이전의 read weight vector (혹은 “가장 최근에 사용된 영역”)와 이전의 덜 사용된 weight 들간의 interpolation으로 나타난다. 이때 interpolation을 결정짓는 parameter는 hyperparameter \(\alpha\)를 가지는 sigmoid 함수이다.

$$ \mathbf{w}_t^{w} = \sigma(\alpha) \mathbf{w}_{t-1}^r + (1 – \sigma(\alpha)) \mathbf{w}_{t-1}^{lu} $$ 위 식에서 잠깐 나온 least-used weight \(\mathbf{w}^{lu}\)는 usage weight \(\mathbf{w}_t^u\)에 scale된 형태로 나타나는데, 이때 특정 dimension이 vector내에서 n번째로 작은 것보다도 더 작으면 1이 되고, 아니면 0이 되는 식이다.

$$ \mathbf{w}_t^{lu} = \mathbf{1}_{ w_{t}^{u}(i) \le m(\mathbf{w}_t^u, n)} \text{, where } m(\mathbf{w}_t^u, n) \text{ is the }n\text{-th smallest element in vector } \mathbf{w}_t^u \text{.} $$

최종적으로는 \( \mathbf{w}_t^{lu} \)에 의해서 지정된 least used memory location은 0으로 설정되고, 그 나머지 memory row들은 다음과 같이 update된다.

$$ M_t(i) = M_{t-1}(i) + w_{t}^w(i) k_t , \forall i$$

Meta Networks

Meta Networks (Munkhdalai & Yu, 2017)은 짧게 줄여서 MetaNet이라고 표현하는데, 전반적인 task에 대한 rapid generalization을 하게끔 내부 training process가 설계된 meta-learning model이다.

Fast Weights

MetaNet에서 rapid generalization이 되게끔 하는 것은 “fast weights”라는 것 때문이다. 이 주제에 대한 논문들이 많이 나와 있지만, 원저자도 이걸 전부 읽어보지 못했고, 개념에 대한 좀 애매한 정의만 할 수 있을 뿐, 뭔가 정확한 정의를 찾을수는 없었다고 한다. 일반적으로 neural network의 weight는 object function에 대한 stochastic gradient descent에 의해서 update되는 것으로 알고 있고, 이 과정 자체가 매우 느리다는 것으로 알려져 있다. 이런 학습 과정을 빠르게 하기 위한 방법 중 하나는 다른 neural network의 parameter를 예측할 수 있는 또하나의 neural network을 사용하자는 것이고, 이를 통해서 만들어진 weight를 fast weight라고 표현하는 것 같다. 반면 기존 SGD 방식으로 만든 weight를 slow weight라고 한다.

MetaNet에서는, loss gradient가 바로 앞에서 언급한 fast weights들을 학습하는 새로운 모델을 만들어내기 위한 meta information으로 사용된다. 그리고 slow weight와 fast weight들이 neural network에서 prediction을 수행하기 위해 결합되는 형태로 되어 있다.

그림 8. MLP내에서 slow weight와 fast weight가 결합된 형태, 여기서 \( \bigoplus\)는 element-wise sum을 나타낸다. (출처 : 논문)

Model Components

참고로, 밑에 나올 표현들이 논문에 나와있는 것과 다른 것을 볼 수 있을텐데, 원 저자가 생각하기에는 논문의 아이디어 자체는 참 좋지만, 논문이 이해하기 어렵게 써졌다고 하는 것 같다. 그래서 아래에서는 나름 본인이 생각한 방향대로 기술될 예정이다.

MetaNet을 구성하는 핵심 요소는 다음과 같다.

\(\theta\)에 의해서 조절되는 embedding function \(f_{\theta}\)가 있는데, 이는 raw input을 feature vector로 encoding해주는 역할을 한다. 앞에서 언급했던 Siamese Neural Network와 유사하게, 이 embedding vector는 두개의 input이 같은 class에 속하는지 여부를 알려주는데 유용하게끔 학습이 된다. (마치 verification task처럼 말이다.)

Weight \(\phi\)에 의해서 조절되는 base learner model \(g_{\phi}\)가 있는데, 이는 실제 learning task를 마무리하는 역할을 한다.

여기까지만 놓고 보면, 앞에서 언급했던 Relation Network와 거의 똑같은 것처럼 보일 것이다. MetaNet은 여기에 덧붙여서 embedding function과 learner model 에 대한 fast weights를 모델링하고, 이를 모아서 다시 mode에 넣어주는 부분이 추가되었다. (그림 8 참고)

결과적으로 embedding function \(f\)와 learner model \(g)\ 각각의 fast weights들을 output으로 내보내주는 두개의 함수가 추가로 필요하게 된다.

\(F_w\) : embedding function \(f\)의 fast weight \(\theta^{+}\)을 학습하기 위한 LSTM이고 \(w\)에 의해서 조절된다. verification task를 위해서, input으로는 \(f\)의 embedding loss에 대한 gradient를 받는다.

\(G_v\) : base learner \(g\)의 loss gradient로부터 fast weight \(\theta^{+}\)을 학습하기 위한 neural network이고, \(v\)에 의해서 조절된다. MetaNet에서는 learner의 loss gradient는 task에 대한 meta information으로 정의된다.

이제 meta network이 이떻게 학습되는지 살펴보자. 학습 데이터에는 여러 pair의 dataset들이 포함되어 있는데, 앞에서도 계속 나왔던 support set \( S=\{\mathbf{x}’_i, y’_i\}_{i=1}^K \) 와 test set \( U=\{\mathbf{x}_i, y_i\}_{i=1}^L \) 들이 그 것들이다. 다시한번 우리는 4개의 network와 학습을 위한 4개의 model parameter \( ( \theta, \phi, w, v ) \) 가 있는 것을 기억해보자.

그림 9. MetaNet 구조

Training Process

1. 우선 support set \(S\)으로부터 매 time step \(t\)마다 input으로 사용할 random pair를 sampling 한다. 그리고 이를 \((\mathbf{x}_i’, y_i’)\)와 \((\mathbf{x}_j’, y_j)\) 라고 하자. 그리고 \(\mathbf{x}_{(t,1)} = \mathbf{x}_i’, \mathbf{x}_{(t,2)} = \mathbf{x}_j’\) 라고 정의해보자.

그리고 매 \(t = 1, \ldots, K\)에 대해서,

1) representation learning에 대한 loss를 계산해보자. 예를 들어 verification task에 대한 cross entropy를 구하면, 다음과 같다.

$$ \mathcal{L}^\text{emb}_t = \mathbf{1}_{y’_i=y’_j} \log P_t + (1 – \mathbf{1}_{y’_i=y’_j})\log(1 – P_t)\text{, where }P_t = \sigma(\mathbf{W}\vert f_\theta(\mathbf{x}_{(t,1)}) – f_\theta(\mathbf{x}_{(t,2)})\vert) $$

2. 이제 loss를 가지고 task-level fast weights를 계산해본다.

$$ \theta^{+} = F_w(

abla_{\theta} \mathcal{L}^\text{emb}_1 ,\ldots, \mathcal{L}^\text{emb}_T) $$

3. 다음으로 support set \(S\)에서 example을 뽑아 example-level fast weight를 계산한다. 이번에는 학습된 representation을 바탕으로 memory를 update한다.

그리고 매 \(i = 1, \ldots, K\)에 대해서,

1) base learner는 probability distribution을 output으로 내보낸다. (\(P(\hat{y_i}|\mathbf{x}_i) = g_{\phi}(\mathbf{x}_i)\)) 이때의 loss는 cross-entropy나 MSE를 쓸수 있다.

$$ \mathcal{L}^\text{task}_i = y’_i \log g_\phi(\mathbf{x}’_i) + (1- y’_i) \log (1 – g_\phi(\mathbf{x}’_i)) $$

2) task에 대한 meta information(loss gradient)를 뽑아내고, 이를 통해서 example-level fast weight를 계산한다.

$$ \phi_i^{+} = G_v(

abla_{\phi}\mathcal{L}_i^{\text{task}}) $$

-> 이렇게 얻은 \( \phi_u^{+} \)를 “value” memory \(M\)의 i번째 row에 저장한다.

3) 앞에서 사용했던 support set의 sample을 task-specific input representation으로 encoding하는데, 이때 앞에서 구한 slow weight와 fast weight를 활용한다.

$$ r_i’ = f_{\theta, \theta^{+}}(\mathbf{x}_i’) $$

-> 이렇게 얻은 \( r_i’ \)를 “key” memory \(R\)의 i번째 row에 저장한다.

4. 마지막으로 test set \(U = \{\mathbf{x}_i, y_i\}_{i=1}^L \)를 이용해서 training loss를 만들 차례이다.

우선 \(\mathcal{L}_{\text{train}} = 0\)에서 시작한다.

그리고 매 \(j = 1, \ldots, L\)에 대해서,

1) test sample을 task-specific input representation으로 encoding 해준다.

$$ r_j = f_{\theta, \theta^{+}}(\mathbf{x}_j) $$

2) 여기서 fast weight는 “key” memory \(R\)에 저장된 support set sample의 representation을 통해서 계산할 수 있는데, 이때 사용되는 attention function은 어떤 것을 선택해도 된다. MetaNet논문에서는 cosine similarity를 사용했다.

$$ \begin{aligned}

a_j &= \text{cosine}(\mathbf{R}, r_j) = [\frac{r’_1\cdot r_j}{\|r’_1\|\cdot\|r_j\|}, \dots, \frac{r’_N\cdot r_j}{\|r’_N\|\cdot\|r_j\|}]\\

\phi^+_j &= \text{softmax}(a_j)^\top \mathbf{M}

\end{aligned} $$

3) 이제 training loss를 update한다.

$$ \mathcal{L}_{\text{train}} \leftarrow \mathcal{L}_{\text{train}} + \mathcal{L}^{\text{task}}(g_{\phi, \phi^{+}}(\mathbf{x}_i), y_i) $$

5. 최종적으로 \(\mathcal{L}_{\text{train}}\)을 이용해서 \((\theta, \phi, w, v)\)을 update한다.

Optimization-Based Approach

Deep learning model은 gradient에 대한 backpropagation을 통해서 학습한다. 하지만 이런 gradient-based optimization은 적은 수의 training sample을 다루기 위해서 만들어진 것이 아닐뿐더러, 적은 optimization step내에서 converge되지 않는다. Optimization algorithm을 수정해서 적은 수의 example만 가지고 model이 잘 학습할 수 있는 방법이 있을까? 그것이 바로 optimization-based approach가 적용된 meta-learning algorithm이 지향하는 목표이다.

LSTM Meta-Learner

사실 optimization algorithm은 확실하게 모델링할 수 있다. Ravi & Larochelle (2017)는 task를 다루는 original model을 “learner”라고 부르는데에서 가져와, 이런 방식을 “meta-learner”라고 이름을 붙였다. Meta-learner의 목표는 적은 support set만 가지고도 learner의 parameter를 효율적으로 update해서 learner가 새로운 task에 빠르게 적응할 수 있도록 하는 것이다.

앞으로 나올 표현 중 \(\theta\)에 의해서 조절되는 learner를 \(M_{\theta}\)라고 하고, \(\Theta\)에 의해서 조절되는 meta-learner를 \(R_{\Theta}\)라고 하며, 이때의 Loss function을 \(\mathcal{L}\)이라고 하겠다.

Why LSTM?

Meta-learner는 LSTM으로 모델링되어 있는데 그 이유는 다음과 같다.

Backpropagation에서 gradient-based update 방식과 LSTM에서 cell-update하는 방식이 어느정도 유사성을 띄고 있다.

Gradient가 어떻게 변화하는지 정보를 아는 것은 gradient를 update할 때 도움을 줄 수 있다. 한번 momentum이 어떻게 동작하는지 생각해보면 좋을거 같다.

time step \(t\)에 learning rate \(\alpha_t\)를 가지고 learner의 parameter를 update하는 것은 다음과 같이 표현할 수 있다.

$$ \theta_t = \theta_{t-1} – \alpha_t

abla_{\theta_{t-1}} \mathcal{L}_t $$

LSTM에서 cell state를 update하는 것도 위 식과 같은 형태를 가지고 있는데, 예를 들어 forget gate \(f_t\)를 1로 설정한 상태에서 input gate \(i_t\)에 \(\alpha_t\)를 넣고, cell state \(c_t\)에 \(\theta_t\)를 넣고, new cell state \( \tilde{c}_t \)를 \( –

abla_{\theta_{t-1}}\mathcal{L}_t \)라고 정의하게 되면 cell state는 다음과 같이 정의할 수 있다.

$$ \begin{aligned}

c_t &= f_t \odot c_{t-1} + i_t \odot \tilde{c}_t\\

&= \theta_{t-1} – \alpha_t

abla_{\theta_{t-1}}\mathcal{L}_t

\end{aligned} $$

\(f_t = 1, i_t = \alpha_t \)로 고정을 해버리면 그렇게 optimal하지는 않지만, 두개의 항 모두 다른 dataset에 대해서 learnable하고, adaptable하게 된다.

$$ \begin{aligned}

f_t &= \sigma(\mathbf{W}_f \cdot [

abla_{\theta_{t-1}}\mathcal{L}_t, \mathcal{L}_t, \theta_{t-1}, f_{t-1}] + \mathbf{b}_f) & \scriptstyle{\text{; how much to forget the old value of parameters.}}\\

i_t &= \sigma(\mathbf{W}_i \cdot [

abla_{\theta_{t-1}}\mathcal{L}_t, \mathcal{L}_t, \theta_{t-1}, i_{t-1}] + \mathbf{b}_i) & \scriptstyle{\text{; corresponding to the learning rate at time step t.}}\\

\tilde{\theta}_t &= –

abla_{\theta_{t-1}}\mathcal{L}_t &\\

\theta_t &= f_t \odot \theta_{t-1} + i_t \odot \tilde{\theta}_t &\\

\end{aligned} $$

Model Setup

그림 10. learner \(M_\theta\)와 meta-learner \(R_\Theta\)가 학습되는 과정 (출처 : 논문 및 원저자 추가내용)

Training process는 test process에서 일어난 일들을 모방하는데, 이런 방식은 앞에서 소개했던 Matching Network에서도 이미 좋다고 증명된 방식이다. 매 training epoch동안, 먼저 data \( \mathcal{D} = (\mathcal{D}_\text{train}, \mathcal{D}_\text{test}) \in \hat{\mathcal{D}}_\text{meta-train} \) 을 sampling하고, \(T\) round동안 \( \theta\)를 update하기 위해서 \( \mathcal{D}_\text{train} \) 중 일부를 mini-batch만큼 sampling한다. 그리고 learner parameter \(\theta_T\)의 final state는 test data set \( \mathcal{D}_{\text{test}} \) 을 이용해서 meta-learner를 학습시키는데 사용한다.

meta-learner의 구현부분중 조금 더 신경써야 할 부분은 다음과 같다.

LSTM meta-learner에서 parameter space를 어떻게 하면 줄일수 있을까 이다. meta-learner가 현재의 model이 아닌 또다른 neural network의 parameter를 가지고 학습하는 이상, 학습에 있어서 엄청 많은 parameter variable들이 존재할 것이다. 이 문제에 대해서는 coordinate기반으로 parameter를 공유하는 방식을 적용한 다음 논문을 참고해보면 좋을거 같다. Training process를 간단히하기 위해서 meta-learner는 사전에 loss \(\mathcal{L}_t\)와 gradient \(

abla_{\theta_{t-1}} \mathcal{L}_t\) 가 independent하다고 가정을 둔다.

위의 내용을 하나의 과정으로 표현하면 다음과 같다.

그림 11. LSTM Meta-Learner 학습 알고리즘 (출처 : 논문)

Model-Agnostic Meta-Learning (MAML)

Model-Agnostic Meta-Learning (Finn et al, 2017)을 줄인 MAML은 gradient descent를 통해서 학습하는 어떤 모델에도 적용이 가능한, general optimization algorithm이다.

우선 \(\theta\)에 의해서 조절되는 모델 \( f_\theta\)를 학습시킨다고 가정해보자. 주어진 task \(\tau_i\)와 이와 관련된 dataset \(( \mathcal{D}_{\text{train}}^{(i)}, \mathcal{D}_{\text{test}}^{(i)} )\)가 있을때, 하나나 여러 gradient descent step를 통해서 model의 parameter를 update할 수 있다. (아래 예시는 one step만 표현한 것이다.)

$$ \theta_i’ = \theta – \alpha

abla_{\theta} \mathcal{L}_{\tau_i}^{(0)}(f_\theta) $$

여기서 \( \mathcal{L}^{(0)}\)은 첫번째로 뽑은 mini batch dataset (id = 0)을 사용해서 계산한 loss를 말한다.

그림 12. MAML의 동작. (출처 : 논문)

아마 잘 아는 사람은 알겠지만, 위의 식은 하나의 task에 대해서만 optimize가 가능하다. 여러 task들을 통틀어서 generalization을 잘 시키기 위해서는 optimal \( \theta^{*}\)를 찾아야 하며, 그래야만, task-specific fine-tuning이 효율적으로 이뤄질 수 있다. 이제 meta-objective를 update하기 위해서 다음 mini batch data (id=1)를 sampling한다. 이때 Loss \(\mathcal{L}^{(1)}\)는 mini batch (id=1)에 따라 결정되게 된다. 참고로 \(\mathcal{L}^{(0)}\)과 \(\mathcal{L}^{(1)}\)의 위에 붙은 첨자는 단순히 서로 다른 mini-batch data를 사용했다는 것을 의미하며, 이 두개의 loss 모두 같은 task에 대해서 같은 loss objective로부터 나온 값이다.

$$ \begin{aligned}

\theta^*

&= \arg\min_\theta \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta’_i}) = \arg\min_\theta \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta – \alpha

abla_\theta \mathcal{L}_{\tau_i}^{(0)}(f_\theta)}) & \\

\theta &\leftarrow \theta – \beta

abla_{\theta} \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta – \alpha

abla_\theta \mathcal{L}_{\tau_i}^{(0)}(f_\theta)}) & \scriptstyle{\text{; updating rule}}

\end{aligned} $$

그림 13. MAML algorithm의 일반적인 형태 (출처 : 논문)

First-Order MAML (FOMAML)

위에서 설명한 meta-optimization step은 second derivative의 영향을 많이 받는다. 미분을 두번 해야 하기 때문에 computation power가 많이 필요한데 이를 줄이기 위해서, MAML의 수정된 형태는 second derivative를 생략하고, 조금더 더 간단하고, cost가 많이 필요하지 않는 형태로 제시되었는데, 이를 First-Order MAML (FOMAML)이라고 한다.

우선 \(k\)개 (\(k \ge 1\)) 의 inner gradient step 과정을 생각해보자. 초기 model parameter를 \(\theta_{\text{meta}}\)라고 지정했을 때, \(k\) step까지의 parameter update는 다음과 같이 표현할 수 있다.

$$ \begin{aligned}

\theta_0 &= \theta_\text{meta}\\

\theta_1 &= \theta_0 – \alpha

abla_\theta\mathcal{L}^{(0)}(\theta_0)\\

\theta_2 &= \theta_1 – \alpha

abla_\theta\mathcal{L}^{(0)}(\theta_1)\\

&\dots\\

\theta_k &= \theta_{k-1} – \alpha

abla_\theta\mathcal{L}^{(0)}(\theta_{k-1})

\end{aligned} $$

그러면 outer loop에서는 meta-objective를 update하기 위한 새로운 data batch를 sampling할 수 있다.

$$ \begin{aligned}

\theta_\text{meta} &\leftarrow \theta_\text{meta} – \beta g_\text{MAML} & \scriptstyle{\text{; update for meta-objective}} \\[2mm]

\text{where } g_\text{MAML}

&=

abla_{\theta} \mathcal{L}^{(1)}(\theta_k) &\\[2mm]

&=

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot (

abla_{\theta_{k-1}} \theta_k) \dots (

abla_{\theta_0} \theta_1) \cdot (

abla_{\theta} \theta_0) & \scriptstyle{\text{; following the chain rule}} \\

&=

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k

abla_{\theta_{i-1}} \theta_i & \\

&=

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k

abla_{\theta_{i-1}} (\theta_{i-1} – \alpha

abla_\theta\mathcal{L}^{(0)}(\theta_{i-1})) & \\

&=

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k (I – \alpha

abla_{\theta_{i-1}}(

abla_\theta\mathcal{L}^{(0)}(\theta_{i-1}))) &

\end{aligned} $$

이때 MAML의 gradient는 다음과 같다.

$$ g_\text{MAML} =

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k (I – \alpha \color{red}{

abla_{\theta_{i-1}}(

abla_\theta\mathcal{L}^{(0)}(\theta_{i-1}))}) $$

First-Order MAML은 위 식의 빨간색으로 표현된 second derivative term을 무시한다. 이를 통해서 결국 마지막 inner gradient update 결과에 대한 derivative와 같은 형태로 축약되는 것을 확인할 수 있다.

$$ g_\text{FOMAML} =

abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) $$

Reptile

Reptile (Nichol, Achiam& Schulman, 2018)은 정말 놀라울 정도로 매우 간단한 meta-learning optimization algorithm이다. MAML과 이 algorithm 모두 gradient descent를 통해서 meta-optimization을 수행하고, model-agnostic 하다는 점에서 상당수 유사한 부분이 있다.

Reptile은 다음 과정을 반복적으로 수행한다.

Task를 samling한다. Multiple Gradient Descent step을 통해 task를 학습한다. 새로운 parameter를 얻을 수 있게끔 model weight를 움직인다.

아래 알고리즘을 한번 살펴보자.

그림 14. Reptile Algorithm의 batch 형태 (출처 : 논문)

여기서 \(\text{SGD}(\mathcal{L}_{\tau_i}, \theta, k) \)는 initial parameter \(\theta\)를 가진 상태에서 Loss \(\mathcal{L}_{\tau_i}\) 에 대한 \(k\) step 동안의 stochastic gradient descent를 수행하고, output으로 final parameter vector를 내보낸다. 그러면 위와 같은 batch 형태는 매 iteration마다 하나가 아닌 여러 task를 sampling한다. 그러면 repile gradient는 \( (\theta – W) / \alpha \)라고 정의할 수 있는데, 이때 \(\alpha\)는 SGD 수행시 사용되는 stepsize를 말한다.

한눈에 보면, 위의 algorithm은 평범한 SGD와 많이 유사하다는 것을 알 수 있다. 하지만, task-specific optimization이 one step 보다 더 걸릴 수 있기 때문에, \(k = 1\)인 상태에서는 \( \mathbb{E}_\tau [\text{SGD}(\mathcal{L}_{\tau}, \theta, k)] \)를 \( \mathbb{E}_\tau [\text{SGD}(\mathcal{L}_{\tau}, \theta, k)] \) 로 바꿀수 있게 된다.

The Optimization Assumption

어떤 task \(\tau \sim p(\tau) \)가 다양한(manifold) optimal network configuration \(\mathcal{W}_{\tau}^*\)를 가지고 있다고 가정해보자. 그러면 현재의 model \(f_{\theta}\)은 \(\theta\)가 \(\mathcal{W}_{\tau}^*\) 에 놓여있을때, task \(\tau\)에 대해서 최고의 성능을 얻을 수 있을 것이다. 그럼 task 전반적으로 잘 동작하는 solution을 찾기 위해서, 일단 모든 task에 대해서 optimal manifold에 가까운 parameter를 찾아야 할 것이다.

$$ \theta^* = \arg\min_\theta \mathbb{E}_{\tau \sim p(\tau)} [\frac{1}{2} \text{dist}(\theta, \mathcal{W}_\tau^*)^2] $$

그림 15. Reptile Algorithm이 다른 task에 대해서 optimal manifold에 가까워지기 위해서 parameter를 update하는 과정 ( 출처 : 논문 )

이제 L2 distance를 사용할텐데 수식상으로는 \(\text{dist}(\dot)\)라고 할 것이고, 기본 전제로 \(\theta\)라는 점과 특정 weight set \( \mathcal{W}_\tau^* \) 사이의 거리는 \(\theta\)와 \(\theta\)와 가장 가까운 manifold상의 점인 \( W_{\tau}^*(\theta) \) 간의 거리가 같다는 가정을 할 것이다.

$$ \text{dist}(\theta, \mathcal{W}_{\tau}^*) = \text{dist}(\theta, W_{\tau}^*(\theta)) \text{, where }W_{\tau}^*(\theta) = \arg\min_{W\in\mathcal{W}_{\tau}^*} \text{dist}(\theta, W) $$

그러면 squared L2 distance (euclidean distance)에 대한 gradient는 다음과 같다.

$$ \begin{aligned}

abla_\theta[\frac{1}{2}\text{dist}(\theta, \mathcal{W}_{\tau_i}^*)^2]

&=

abla_\theta[\frac{1}{2}\text{dist}(\theta, W_{\tau_i}^*(\theta))^2] & \\

&=

abla_\theta[\frac{1}{2}(\theta – W_{\tau_i}^*(\theta))^2] & \\

&= \theta – W_{\tau_i}^*(\theta) & \scriptstyle{\text{; See notes.}}

\end{aligned} $$

Notes : Reptile 논문에 따르면 ” \(\theta\)와 \(S\)간의 squared euclidean distance의 gradient는 \(2(\theta – p)\)라고 표현할 수 있고, 이때 \(p\)는 \(\theta\)와 가장 가까운 S상의 점이다” 라고 표현되어 있다. 엄밀히 말해서는 S상의 가장 가까운 점도 \(\theta\)에 대한 함수이기 때문에, 원저자는 이 gradient수식이 p의 derivative와 상관이 없는지에 대해서 의문을 가지고 있다. (혹시 이에 대해서 생각이 있으면 원저자에게 메일을 보내면 좋을거 같다.)

결국 한 stochastic gradient step에 대한 update는 다음과 같이 진행된다.

$$ \theta = \theta – \alpha

abla_\theta[\frac{1}{2} \text{dist}(\theta, \mathcal{W}_{\tau_i}^*)^2] = \theta – \alpha(\theta – W_{\tau_i}^*(\theta)) = (1-\alpha)\theta + \alpha W_{\tau_i}^*(\theta) $$

그래서 optimal task manifold \( W_{\tau_i}^*(\theta)\)에 대한 가장 가까운 점은 정확하게 계산할 수는 없지만, Reptile algorithm은 \( \text{SGD}(\mathcal{L}_\tau, \theta, k) \)을 사용해서 그나마 가까운 점을 근사할 수 있다.

Reptile vs FOMAML

Reptile과 MAML간의 관계를 확인해보기 위해서, \(\text{SGD}(\dot)\)상에서 두 개의 gradient step를 update하는 과정 (\(k=2\))을 한번 살펴보자. 참고로 MAML에서 정의한대로 \(\mathcal{L}^{(0)}\)와 \(\mathcal{L}^{(1)}\)은 서로 다른 mini-batch에서 뽑은 data에 대한 loss이다. 수식의 가독성을 위해서 Loss에 대한 gradient를 각각 다음과 같이 표기했다. (\( g^{(i)}_j =

abla_{\theta} \mathcal{L}^{(i)}(\theta_j), H^{(i)}_j =

abla^2_{\theta} \mathcal{L}^{(i)}(\theta_j) \))

그러면 위 식에 따른 \(\theta\)에 대한 update는 다음과 같다.

$$ \begin{aligned}

\theta_0 &= \theta_\text{meta}\\

\theta_1 &= \theta_0 – \alpha

abla_\theta\mathcal{L}^{(0)}(\theta_0)= \theta_0 – \alpha g^{(0)}_0 \\

\theta_2 &= \theta_1 – \alpha

abla_\theta\mathcal{L}^{(1)}(\theta_1) = \theta_0 – \alpha g^{(0)}_0 – \alpha g^{(1)}_1

\end{aligned} $$

FOMAML에서 설명한 바에 따르면, FOMAML의 gradient는 마지막으로 수행한 inner gradient update의 결과라고 했었다. 그렇기 때문에 \(k=1\)이면 다음과 같이 gradient를 계산할 수 있다.

$$ \begin{aligned}

g_\text{FOMAML} &=

abla_{\theta_1} \mathcal{L}^{(1)}(\theta_1) = g^{(1)}_1 \\

g_\text{MAML} &=

abla_{\theta_1} \mathcal{L}^{(1)}(\theta_1) \cdot (I – \alpha

abla^2_{\theta} \mathcal{L}^{(0)}(\theta_0)) = g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1

\end{aligned} $$

그리고 Reptile에 대한 gradient는 다음과 같이 정의된다.

$$ g_\text{Reptile} = (\theta_0 – \theta_2) / \alpha = g^{(0)}_0 + g^{(1)}_1 $$

이제 Reptile과 FOMAML의 gradient update 과정을 도식화하면 아래와 같다.

그림 16. Meta-optimization을 한번 수행할 때, Reptile과 FOMAML간의 차이 (출처 : 이윤호 교수님 slide)

앞의 수식을 요약하면, 우리는 MAML과 FOMAML, Reptile에 대한 gradient을 구할 수 있었다.

$$ \begin{aligned}

g_\text{FOMAML} &= g^{(1)}_1 \\

g_\text{MAML} &= g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1 \\

g_\text{Reptile} &= g^{(0)}_0 + g^{(1)}_1

\end{aligned} $$

이제 Taylor expansion을 사용해서 \(g_1^{(1)}\)을 풀어볼 수 있다. \(a\)에서 미분가능한 function \(f(x)\)의 Taylor expansion을 다시 살펴보면 다음과 같다.

$$ f(x) = f(a) + \frac{f'(a)}{1!}(x-a) + \frac{f”(a)}{2!}(x-a)^2 + \dots = \sum_{i=0}^\infty \frac{f^{(i)}(a)}{i!}(x-a)^i $$

여기서 \(

abla_{\theta}\mathcal{L}^{(1)}(\dot)\)을 하나의 함수로 간주하고, \(\theta_0\)를 어떤 특정값이라고 해보면 해당 특정값 \(\theta_0\)에 대한 \(g_1^{(1)}\)의 Taylor expansion을 다음과 같이 전개할 수 있다.

$$ \begin{aligned}

g_1^{(1)} &=

abla_{\theta}\mathcal{L}^{(1)}(\theta_1) \\

&=

abla_{\theta}\mathcal{L}^{(1)}(\theta_0) +

abla^2_\theta\mathcal{L}^{(1)}(\theta_0)(\theta_1 – \theta_0) + \frac{1}{2}

abla^3_\theta\mathcal{L}^{(1)}(\theta_0)(\theta_1 – \theta_0)^2 + \dots & \\

&= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + \frac{\alpha^2}{2}

abla^3_\theta\mathcal{L}^{(1)}(\theta_0) (g_0^{(0)})^2 + \dots & \scriptstyle{\text{; because }\theta_1-\theta_0=-\alpha g_0^{(0)}} \\

&= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)

\end{aligned} $$

(참고로 \(O(\alpha^2)\)은 taylor expansion의 뒷부분을 Complexity 관점에서 축약한 것이다.)

위에서 구한 확장된 형태의 \(g_1^{(1)}\)을 앞에서 언급한 one-step inner gradient update시의 MAML gradient에 대입해보면 아래와 같다.

$$ \begin{aligned}

g_\text{FOMAML} &= g^{(1)}_1 = g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\

g_\text{MAML} &= g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1 \\

&= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2) – \alpha H^{(0)}_0 (g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2))\\

&= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + \alpha^2 \alpha H^{(0)}_0 H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\

&= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + O(\alpha^2)

\end{aligned} $$

그리고 Reptile Gradient는 다음과 같이 된다.

$$ \begin{aligned}

g_\text{Reptile}

&= g^{(0)}_0 + g^{(1)}_1 \\

&= g^{(0)}_0 + g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)

\end{aligned} $$

정리해보면 각 gradient는 이렇게 된다.

$$ \begin{aligned}

g_\text{FOMAML} &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\

g_\text{MAML} &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + O(\alpha^2)\\

g_\text{Reptile} &= g^{(0)}_0 + g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)

\end{aligned} $$

Training시 multiple data batch에 대해서 보통 평균을 취하게 된다. 위에서 다룬 예제에서는 id=0인 mini-batch data와 id=1인 mini-batch 는 Random하게 뽑아낸 data이기 때문에 서로 교환이 가능하다. 이에 대한 expectation \(\mathbb{E}_{\tau,0,1} \)는 현재의 task \(\tau\)에 대한 두개의 data batch의 평균을 취한 것이다.

이제 다음과 같이 내용을 전개할 것이다.

\(A = \mathbb{E}_{\tau, 0, 1}[g_0^{(0)}] = \mathbb{E}{\tau, 0, 1}[g_0^{(1)}]\)

– A는 task loss에 대한 average gradient이다. 이렇게 A가 가리킨 방향을 따라감으로써 task performance를 향상시킬 수 있도록 model parameter를 개선시키기를 원하는 것이다.

– A는 task loss에 대한 average gradient이다. 이렇게 A가 가리킨 방향을 따라감으로써 task performance를 향상시킬 수 있도록 model parameter를 개선시키기를 원하는 것이다. \(B = \mathbb{E}_{\tau, 0, 1}[H^{(1)}_0, g^{(0)}_0] = \frac{1}{2}\mathbb{E}_{\tau, 0, 1}[H^{(1)}_0, g^{(0)}_1 + H^{(0)}_0 g^{(1)}_0] = \frac{1}{2} \mathbb{E}_{\tau, 0, 1}[

abla_{\theta} (g^{(0)}_0 g^{(1)}_0)] \)

– B는 같은 task에 대해서 두개의 다른 mini-batch에 대한 gradient의 inner product를 증가시킬 수 있는 gradient(방향)를 나타낸다. 이를 통해서 B가 가리킨 방향을 따라감으로써 또다른 data에 대한 generalization이 잘 이뤄질 수 있도록 model parameter를 개선시키기를 원하는 것이다.

결론을 내자면, MAML과 Reptile 모두 같은 goal을 가지고 optimize하는 것을 지향하며, gradient update가 아래의 세개의 항으로 근사됬을 때, (A에 의해서) 좋은 task performance를 낼수 있고, (B에 의해서) 좋은 generalization을 보여줄 수 있다.

$$ \begin{aligned}

\mathbb{E}_{\tau,1,2}[g_\text{FOMAML}] &= A – \alpha B + O(\alpha^2)\\

\mathbb{E}_{\tau,1,2}[g_\text{MAML}] &= A – 2\alpha B + O(\alpha^2)\\

\mathbb{E}_{\tau,1,2}[g_\text{Reptile}] &= 2A – \alpha B + O(\alpha^2)

\end{aligned} $$

사실 원저자 관점에서는 위의 식 중 생략된 항인 \(O(\alpha^2)\)이 parameter learning시 큰 영향을 줄 수 있다고 생각하는 것 같다. 하지만 위에서 설명한 대로 FOMAML이 완전한 MAML과 비교했을때 거의 비슷한 성능을 낼 수 있는 것처럼, gradient descent를 update할 때는 higher-level derivative는 그렇게 중요하지 않는 것처럼 보인다.

해당 포스트 글을 논문에 인용하려면 다음 bibtex를 참고하고, 포스트와 관련해서 오류나 문제가 발생하면 댓글이나 원저자 (lilian dot wengweng at gmail dot com), 혹은 역자(kcsgoodboy at gmail dot dom) 에게 문의해주시면 감사하겠습니다.

@article{weng2018metalearning,

title = “Meta-Learning: Learning to Learn Fast”,

author = “Weng, Lilian”,

journal = “lilianweng.github.io/lil-log”,

year = “2018”,

url = “http://lilianweng.github.io/lil-log/2018/11/29/meta-learning.html”

}

Meta Learning

학습하는 과정을 학습하다.

Meta learning은 현재 AI에서 가장 유망하고 트렌디한 연구분야로 AGI(Artificial General Intelligence) 로 나아갈 수 있는 매우 중요한 디딤돌이라고 볼 수 있다.

AGI란 ‘일반 인공지능’, ‘범용 인공지능’으로 불리는데 이는 AI의 다음 단계를 말한다. 기본적으로 AI는 수학 계산의 연장선으로 한정된 환경에서만 가치가 있다. 그 유명한 알파고마저도 단순히 바둑에서만 데이터를 분석하고 최선의 결과를 제시할 뿐 다른 분야에서는 전혀 사용할 수 없는 소프트웨어다. 반면, AGI는 일반적인 사고와 행동을 할 수 있는 인공지능으로 쉽게 말하면 ‘보다 사람에 가까운 인공지능’이라고 할 수 있다.

현재 딥 러닝의 실체

AI의 한계를 돌파할 수 있는 주요 돌파구인 메타 러닝에 대해 알아보기 전에 현재 AI, 머신 러닝, 딥 러닝이라고 불리는 것들은 어떻게 작동하는지 알아보자. 이것들을 앞으로는 딥 러닝으로 뭉뚱그려 부르겠다. 딥 러닝을 완성하기 위해서는 데이터와 모델이 필요하다. 수많은 데이터를 가공하여 모델에 넣으면 모델에서 이 데이터를 이용해 결과를 도출한다. 수년 동안 딥 러닝은 훌륭한 모델들의 개발로 빠르게 발전했지만 큰 문제점이 있는데 바로 이 ‘수많은 데이터’이다. 딥 러닝 모델을 학습하기 위해서는 엄청나게 많은 데이터가 필요하다. 또 다른 문제점이 있는데 A라는 task를 수행할 수 있도록 모델을 훈련시켰다고 가정하자. Task A는 가죽 지갑과 천 지갑을 비교하는 task이다. 하지만 비슷한 또 다른 task B는 가죽 장갑과 천 장갑을 비교하는 일인데 기존의 task A를 훈련한 모델로는 이러한 task를 수행할 수 없다.

이것들이 과연 진정한 AI라고 할 수 있을까? 사람은 단 몇 장의 사진만 가지고도 가죽 지갑과 천 지갑을 구분할 수 있고, 이를 통해 가죽 장갑과 천 장갑도 구분해 낼 수 있다. 사람은 몇 번의 학습만으로도 여러 개의 개념들을 학습할 수 있지만, 기존의 딥 러닝 알고리즘은 그러지 못하고 단 하나의 task만 수행한다. 이것이 메타 러닝이 탄생하게 된 이유이다.

메타 러닝이란?

메타 러닝은 적은 데이터로 모델을 훈련하면 관련 task를 모두 수행할 수 있다. Task A만 훈련시키면 task B는 추가적인 훈련 없이도 바로 구분해낼 수 있는 모델이 탄생하는 것이다. 현재 AI 연구자들은 이러한 메타러닝이 AGI를 달성하는데 큰 도움이 될 것으로 기대하고 있다.

메타 러닝과 퓨 샷, Meta learning and few-shot

적은 데이터로 훈련을 하는 것을 퓨 샷 러닝( few-shot learning ) 혹은 n-way k-shot learning 이라고 부른다. 이때 n은 클래스의 개수고, k는 각 클래스당 필요한 데이터를 의미한다. 예를 들어 강아지와 고양이를 구분하는 모델을 만들고자 하는데 강아지와 고양이 사진이 각각 1장씩 있으면 2-way 1-shot learning이 되는 것이고 각각 5장씩 있다면 2-way 5-shot learning이 되는 것이다.

메타 러닝에서는 데이터 셋(Dataset)을 서포트 세트(support set) 과 쿼리 세트(query set) 으로 나누어 부른다. 둘 다 같은 종류의 데이터 셋이지만, 서로 다른 데이터를 가지고 있어야 한다. 우리는 서포트 셋을 이용해 train 하고 쿼리 셋을 이용해 test를 진행한다. 그리고 train을 할 때 한 epoch에서 episode라는 단어를 사용하는데 episode란 n-way k-shot model 일 때 n 개의 class 당 k 개의 데이터로 구성된 하나의 데이터 셋을 말한다.

하나의 episode에 n-way k-shot이 구성되는 방법, © kakaobrain

메타 러닝은 크게 3 가지로 카테고리를 나눌 수 있고, 그 카테고리는 아래와 같다.

1. Learning the metric space

2. Learning the initializations

3. Learning the optimizer

1. Learning the metric space

두 이미지의 특징을 한 공간에 나타내고 거리를 통해 similarity를 계산하는 방식이다. 같은 이미지면 거리가 가깝게, 다른 이미지면 거리를 멀게 하는 방식으로 이미지를 classification 한다. 아래 사진처럼 훈련이 끝나면 비슷한 사진끼리 가깝게 모이는 것을 알 수 있다.

학습하기 전과 후 거리 차이, ©kakaobrain

거리 기반의 학습을 하는 알고리즘은 siamese networks, prototypical networks, relation networks 등이 있다.

2. learning the initializations

최적의 초기 파라미터 값을 설정하는 것을 배우는 방법이다. 모델을 학습하기 위해서는 모델을 구축하고 weight을 초기화한 다음에 loss를 계산하고 gradient descent를 통해 loss를 최소화한다. 이 과정에서 weight을 초기화할 때 보통 랜덤하게 값을 넣어 초기화해주지만 랜덤 값을 사용하지 않고 최적화된 initial weight을 찾아서 이 값을 weight의 초깃값으로 세팅해 준다면 더 빠르게 학습하고 학습 결과도 더 좋은 결과를 얻을 수 있을 것이다. Optimal initial weight을 찾는 알고리즘은 MAML, Reptile, Meta-SGD 등이 있다.

3. Learning optimizer

Optimizer를 학습하도록 만든다. 우리는 neural network를 많은 데이터 셋을 훈련시키고 gradient descent로 loss를 최소화하는 방향으로 모델을 최적화한다. 하지만, few shot learning은 적은 데이터 셋을 사용하기 때문에 이러한 방법이 효과적으로 작동하지 못한다. 따라서 optimizer가 스스로 학습할 수 있도록 한다. Base network와 Meta network 두 가지를 사용해서 Base network는 실제로 맡은 업무를 train 하고 meta network는 base network를 optimize 하도록 역할을 구성한다.

Learning to learn gradient descent by gradient descent

Learning to learn gradient descent by gradient descent는 메타러닝의 알고리즘을 부르는 말이다. 메타러닝의 목표는 `To learn the learning process’이다. 일반적으로 모델을 학습할 때 gradient descent를 통해 loss를 최적화하는 방향으로 모델을 학습한다. 결과적으로 보통 모델을 optimize 하는 것은 gradient descent를 이용해서 하는데 gradient descent를 사용하는 대신 자동적으로 이러한 process를 optimization 하도록 설계한다. 어떻게 이게 가능할까? Traditional optimizer인 gradient descent 대 신 그 자리에 RNN(Recurrent Neural Network)를 넣어준다. 그리고 RNN을 optimization 하기 위해 gradient descent를 사용한다. 이해하기 조금 어려울 수 있지만, model을 RNN을 통해 optimize 하고 RNN은 gradient descent를 통해 optimize 한다. 즉, 우리는 RNN을 통해 gradient descent 하는 방법을 학습하고 RNN은 gradient descent를 통해 optimized 된다. 이것이 메타 러닝이 learning to learn gradient descent by gradient descent라고 불리는 이유이다.

Learning to learn gradient descent by gradient descent 모형도

RNN을 optimizer로, base network를 optimizee라고 부르고, 모델 f는 파라미터 θ로 parameterized 된다고 가정한다. 목적은 최적화된 파라미터 θ를 찾는 것이다. 따라서 optimizer(RNN)은 최적화된 파라미터θ를 찾고 이것을 optimizee에게 넘겨준다. 그러면 optimizee(base network)는 이 파라미터θ를 통해 loss를 계산하고 이 loss를 다시 optimizer(RNN)으로 넘겨준다. RNN은 loss를 gradient descent를 통해 최적화하고 이 값을 다시 optimizee(base network)로 넘겨주는 방식이다.

Optimizee(base network)는 θ로 parameterized 되어 있고 optimizer(RNN)은 &;로 parameterized되어 있다고 할 때 optimizer의 loss function은 아래와 같다.

$L(&;)=E_f[f(&;(f,&;))]$L(&;)=Ef​[f(&;(f,&;))]​

그리고 loss를 최적화하는 방법은 gradient descent를 통해 최적화된 &;를 찾는다. 때라서 RNN을 function으로 나타내어 보면

$(g_t,h_{t+1})=m(&;_t,\ h_t,\ &;)$(gt​,ht+1​)=m(&;t​, ht​, &;)​

라고 할 수 있다.

출처 : packt, hands on Meta learning with python

결국 optimizee의 파라미터 값을

$θ_{t+1}=θ_t+g_t$θt+1​=θt​+gt​​

로 업데이트한다.

Learning to learn gradient descent by gradient descent 흐름도, © packt

이러한 방식으로 gradient descent를 이용한 gradient descent 최적화 방식을 학습할 수 있다.

Reference

Packt, Hands-On meta learning with python

https://www.kakaobrain.com/blog/106

최근 머신 러닝 핫한 연구 분야 (2/3)

두 번째 글입니다. 이번에는 Meta learning (메타 러닝, 메타 학습), Semi-Supervised, Self-Supervised Learning 그리고 Continual Learning 에 대해서 소개하겠습니다.

Generative Model (생성 모델) Reinforcement Learning (강화 학습) Bayesian Deep Learning (베이지안 딥러닝) Meta-Learning (메타 러닝) Semi-Supervised, Self-Supervised Learning (SSL) Continual Learning (지속 가능한 학습) Interpretable Neural Network (설명 가능한 뉴럴 네트워크) Federated Learning (연합 학습) 그 외 # Neural Cryptography, CryptoNet, Novelty(Anomaly) Detection

다시 말하지만, 저 또한 이 분야에 전문가는 아니고 공부해보게 되어 짧게 소개하고 몇몇 논문들을 보여드리려고 합니다.

4. Meta Learning (메타 러닝)

Meta Learninig은 “Learning to Learn”이라고도 불리는데, 한 마디로 배우는 법을 배운다는 것입니다. 다르게 말하면 모델이 새로운 task를 빠르게 배울 수 있도록 만드는 것입니다. 이 문장이 이해가 안 되실 수 있는데 말해보겠습니다.

meta-learning은 meta-training과 meta-testing이 있습니다. meta-training에서 학습을 하고 meta-testing에서는 새로운 데이터, 혹은 새로운 환경에서 적은 학습을 한 후에 성능을 평가합니다. meta-testing에서 좋은 성능을 얻기 위해서는 meta-training에서 만들어야 하는 모델은,

잠시 후 meta-testing에서 조금만 업데이트해도 되도록 좋은 파라미터를 찾아놓는 것. 어떤 새로운 데이터, 태스크가 들어올 지 모르니 Generalization을 잘 해놓는 것.

위 두 가지가 필요합니다. 그렇다면 처음에 말한 새로운 task가 무엇인지 궁금할 수 있습니다. 이 부분은 예시를 들어 생각하는 것이 쉽습니다. 가장 유명한 것으로는 1. Few-shot Learning 이 있고 2. Meta Reinforcement Learning과 3. Neural Process가 있습니다. (하지만 Neural Process에 대해서는 설명하지 않겠습니다. 제가 잘 이해를 못했습니다.)

1. Few-shot Learning (참고 : A survey on Few-Shot Learning)

Few-Shot Learning (FSL) is a type of machine learning problems (specified by E, T and P), where E contains only a limited number of examples with supervised information for the target T.

쉽게 말하자면 supervised training에서 데이터 포인트가 정말 적은 것입니다. 통상 머신 러닝 모델의 정확도는 학습 데이터의 개수가 중요하게 작용합니다. 이론적으로는 세상의 모든 데이터로 학습을 하면 웬만해서는 다 맞출 수 있겠죠. 하지만 학습 데이터의 개수와 크기는 머신 러닝 연구자들에게 골치 아픈 부분 중 하나였습니다. 왜냐하면 학습 데이터가 많을수록 학습 시간이나 연산 시간이 늘어나기 때문이죠. 하드웨어의 발전도 계속 이루어지고 있지만 해보시면 알겠지만 학습하는 동안 기다려야 시간이 굉장히 깁니다. 그런데 사실 사람은 그렇지 않죠. 여느 머신 러닝이 그렇듯이 사람한테서 또 따온 것 중 하나인데, 여러분에게 아래 사진을 보여드렸습니다.

푸른 독화살 개구리 (Dendrobates tinctorius)

위 개구리를 처음봤다고 가정하더라도 아래 사진과 위 개구리는 같은 종이라는 것을 알 수 있을 것입니다.

즉, 인간은 사진 한 장만 보더라도 그 동물을 다른 각도에서 찍은 그림이나 밝기, 조도, 채도가 바뀐 사진도 다 Classification을 할 수 있는 것이죠.

이미지 classification에서 FSL은 N-way-K-shot classification 상황에서 시작하는데, N개의 class가 있고 각각이 K개의 데이터가 있는 것입니다. 위에서 개구리는 1 way 1 shot classification인데, 1 way는 하지 않겠죠. 예를 들어 2 way 4 shot classification이면 강아지 사진 4개와 고양이 사진 4개를 보여주고 학습하고 나중에 이제 Classification을 해야 합니다. 그래서 FSL에서는 최대한 주어진 적은 개수의 이미지에서 많은 정보를 뽑아내야 합니다. 우리가 단순히 CrossEntropy로 그냥 학습하는 식으로 강아지 고양이 사진 8개 가지고 학습을 하면 안 봐도 성능이 정말 안 좋을 것이 예상이 되시죠. 그래서 FSL에서는 Data Augmentation을 많이 하거나 다음에 설명할 SSL과 관련이 있는데, 이미지들끼리 잘 조작해서 이미지 하나만 봤을 때는 알 수 없는 정보들을 얻어냅니다.

이 FSL이 Meta-Learning과 결합되면 다음과 같은 Problem formulation이 주어집니다. 위에서 나온 ” 예를 들어 2 way 4 shot classification이면 강아지 사진 4개와 고양이 사진 4개를 보여주고 학습하고 나중에 이제 Classification을 해야 합니다.” 상황에서 적은 데이터로 학습을 하는 건 맞는데, “나중에 이제 Classification을 해야 합니다.” 이 부분에서 나중에 테스트로 들어오는 Class가 강아지와 고양이가 아닌 것입니다. 막 악어와 앵무새를 Classify를 해야하는 것이죠. 맨 처음에 Meta-Learning은 새로운 task로 빠르게 adapt하는 것이 중요하다고 했는데 FSL에서는 어떤 Class가 주어지는지가 task가 됩니다. 이를 위해 학습을 할 때에는 Class 관점에서 Generalize된 모델이 필요합니다.

2. Meta Reinforcement Learning

Reinforcement Learning 분야에 굉장히 유명한 사람으로는 Sergey Levine, Chelsea Finn 교수님이 있습니다. 그 중 Chelsea Finn 교수님이 17년 7월에 내신 Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks, MAML이 Meta RL의 대표적인 논문입니다. MAML은 RL분야에만 쓰이는 것이 아니라 기존 meta-learning의 한 알고리즘 중 하나입니다.

Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

위 그림이 MAML을 설명하는 도식인데, 각각의 task specific한 Gradient가 있고 (라플라시안 L1, L2, L3) 검정 선으로 표현된 meta-learning은 theta라는 파라미터를 전체적인 Gradient의 방향으로 보냅니다. 이후 task-specific한 파라미터는 theta1*, theta2*, theta3*으로 표현되어 있네요. 알고리즘을 보면 쉽습니다.

Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks

여느 meta-learning처럼 몇 개의 task를 sampling하고 각 task에 대해서 Backpropagation을 통해서 gradient를 계산합니다. 그렇게 해서 각각의 theta_i’를 구하는데 이것이 모델의 task-specific한 파라미터가 되겠죠. 이후에는 전체 gradient를 더해서 (엄밀하게는 loss function이 theta_i’일 때로 구하고 backpropagation을 통해 얻은 gradient죠) theta를 업데이트합니다. 알파와 베타는 그저 각 task에 대한 learning rate과 meta-learning에 대한 learning rate입니다.

위 알고리즘을 조금 정리해보자면, task들을 아우르는 theta라는 파라미터가 있고 이것이 각 task로부터 얻어진 정보를 바탕으로 업데이트됩니다. 또, 각 task에 대해서는 이 theta라는 시작점으로부터 한 번 혹은 적은 횟수의 gradient update를 통해서 theta’을 찾습니다.

위 알고리즘은 아주 조금만 수정하면 RL에서 쓸 수 있고, 이 논문에서는 meta-RL 테스트도 진행했습니다. 여기서 진행한 것은 MuJoCo 환경에서 half-cheetah의 forward/backward랑 ant의 goal velocity입니다. halfcheetah의 경우 앞으로 가는 것으로 meta-training하면 meta-testing 때는 뒤로 가는 것으로 리워드를 주면서 0번, 1번, 2번, 3번 gradient step을 한 후 퍼포먼스를 보는 것이죠. ant의 경우 어떤 주어진 속도로 가라 라는 것이 리워드로 주어집니다. 그래서 이 meta-RL도 아까 말했듯이 아주 적은 gradient step을 한 후 좋은 퍼포먼스를 낼 수 있어야 합니다.

정리해보자면,

최근 머신 러닝 모델들은 공통적인 문제점이 있습니다. 딱 한 가지 문제를 잘 풀 수 있다는 것이죠. 예를 들어, BERT나 GPT-3 같은 모델들은 사람의 말을 알아듣고, 말을 생성하려고 합니다. GAN은 이미지를 새로 만드려고 하고, PPO나 SAC는 로봇을 걷게 만듭니다. 이는 사람이 모델에게 어떤 문제를 풀게 시켰느냐에 따라 달라집니다. 하지만 아직 괜찮습니다. 지금 상태는 “모든 것을 다 잘하는 건 어렵지. 그래도 저거 하나만큼은 사람보다 잘해” 라는 것이 있으니까요. 그러나 문제는 뭐냐면 저거 하나조차 다 잘하는게 아닙니다. 뭐냐하면, 똑같이 말을 알아듣는 문제에서 영어로 학습된 BERT는 한국말이 들어오면 전혀 하지 못하며 다리가 두 개 달린 로봇을 걷게 만든 모델은 다리가 3개만 되더라도 아예 못합니다. 최근 트렌드에서는 이 문제를 해결해보려고 하는 것이 주인 것 같습니다.

5. Semi-Supervised, Self-Supervised Learning (SSL)

머신러닝에는 흔히 Supervised와 Unsupervised가 있습니다. 이 둘에 대한 설명은 정말 너무 많은 곳에 있을테니 짧게 넘어가겠습니다. Supervised의 대표적인 예시로는 MNIST classification입니다.

(아직 포스팅을 완료하지 못했습니다…)

[Meta-Learning] 1. 메타, 메타러닝이란 뭘까?

메타, 메타러닝이란 뭘까?

What is Meta?

메타 라는 용어는 한 단계 더 위에 있는 것을 가리킬 때 사용됩니다. 대표적인 예시로, 데이터에 대한 정보를 나타날 때, 데이터에 대한 데이터인 meta-data가 있고, 생각을 잘하고 있는지 생각한다면, 메타인지라고 부르게 됩니다.

Meta-Learning?

머신러닝 분야를 공부하다보면 메타러닝이라는 말이 자주 등장합니다. 아마도 대부분의 사람들은 학습하는 방법을 학습한다는 표현은 많이 들어봤을 거에요. 메타의 뜻에 의하면, 메타러닝이랑 러닝에 대해서 한 단계 더 위에 있는 것을 가리킵니다. 여기서 나타나는 학습을 두 단계로 나눠서, 두 단계의 학습에 대해서 알아보겠습니다.

첫 번째 학습

모델이 학습이라는 것은 주어진 데이터로부터 패턴이나 특징을 찾고 새로운 데이터가 주어졌을 때, 그 특징을 찾는 것 입니다. 이는 모델의 파라미터 $\theta$를 찾는 것과 동일합니다. Supervised Learning에서는 데이터에 대한 Label이 주어지기 때문에, 새로운 데이터에 대해서 Label을 찾는 것을 목적으로 파라미터를 학습(러닝) 합니다. Unsupervised Learning에서는 데이터에 대한 레이블이 없으므로, 데이터 자체에 대한 특징을 알아서 찾아야 합니다. 두 가지 Learning 모두 데이터에 대한 특징을 찾는 것을 목표로 모델 파라미터를 학습 합니다.

위에서 말한 Meta-data보다 Meta-Learning이 어렵게 느껴지는 것은 Learning이라는 말 자체를 동명사로 생각하니 때문인 것 같습니다. Learning은 학습하는 것 이 아니라 ‘ 학습’ 명사를 나타냅니다.

두 번째 학습

사실 머신러닝에서 메타러닝이라는 말은 다양하게 쓰이고 그 의미 자체도 광범위하게 쓰이고 있습니다. 딥러닝을 하다보면, Learning rate 를 조절하면서 Loss가 떨어지는 것을 비교해본 적이 있으실텐데, 이 경우도 Meta Learning에 해당합니다. 모델을 훈련하는 learning보다 한 단계 위인, Hyperparameter에 대해서 적합한 값을 찾는 Learning을 진행하기 때문입니다. 또 다른 예시는 Model을 Ensemble하는 것 입니다. 이미 learning이 된 모델들을 가지고, 모델들의 예측을 기반으로 결정하는 새로운 모델을 Stacking으로 학습시킨다면, 1차적인 학습을 넘어서 학습을 진행하기 때문에 Meta-Learning입니다.

Meta-Learning이라는 말의 정확한 정의를 Formal하게 정의한 논문도 있지만, 그 전까지 Meta-Learning이라는 것 자체는 조금 다양하게 쓰였습니다. 조금 쉽게 생각해보자면, 모델을 튜닝하기 위해서, 다양한 hyper-parameter를 grid search를 통해서 찾습니다. 만일 이를 자동으로 찾을 수 있다면 얼마나 좋을까요?

Related Article

메타러닝의 Formal한 정의 [Post]

메타러닝을 위한 데이터 셋 [Post]

References

[1] https://machinelearningmastery.com/meta-learning-in-machine-learning/

Top 37 Meta Learning 설명 The 94 Top Answers

★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편

★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편

Meta-Learning과 MAML의 개념 정리 :: Engineer-Ladder

Article author: engineering-ladder.tistory.com

Reviews from users: 33987 Ratings

Ratings Top rated: 3.1

Lowest rated: 1

Summary of article content: Articles about Meta-Learning과 MAML의 개념 정리 :: Engineer-Ladder Updating …

Most searched keywords: Whether you are looking for Meta-Learning과 MAML의 개념 정리 :: Engineer-Ladder Updating 이번 글에서는 최근, 그 중요성이 점점 부각되고 있는 Meta-Learning에 대해 정리해보려고 한다. Meta-Learning은 다른 Task를 위해 학습된 AI 모델을 이용해서, 적은 Dataset을 가지는 다른 Task도 잘 수행할..5G, AI 등 최신 기술 리뷰

Table of Contents:

TAG

관련글 관련글 더보기

인기포스트

Meta-Learning과 MAML의 개념 정리 :: Engineer-Ladder

Read More

[DL] Meta-Learning: Learning to Learn Fast

Article author: talkingaboutme.tistory.com

Reviews from users: 18030 Ratings

Ratings Top rated: 4.5

Lowest rated: 1

Summary of article content: Articles about [DL] Meta-Learning: Learning to Learn Fast “Learning To Learn” 이라고 알려져 있는 Meta-learning은 몇몇 training 예제를 통해서 모델로 하여금, 새로운 기술을 배우거나, 새로운 환경에 … …

Most searched keywords: Whether you are looking for [DL] Meta-Learning: Learning to Learn Fast “Learning To Learn” 이라고 알려져 있는 Meta-learning은 몇몇 training 예제를 통해서 모델로 하여금, 새로운 기술을 배우거나, 새로운 환경에 … (해당 글은 OpenAI Engineer인 Lilian Weng의 포스트 내용을 원저자 동의하에 번역한 내용입니다.) Meta-Learning: Learning to Learn Fast Meta-learning, also known as “learning to learn”, inte..

Table of Contents:

티스토리 뷰

티스토리툴바

[DL] Meta-Learning: Learning to Learn Fast

Read More

Meta Learning

Article author: rhcsky.tistory.com

Reviews from users: 43046 Ratings

Ratings Top rated: 3.4

Lowest rated: 1

Summary of article content: Articles about Meta Learning Meta Learning · 1. Learning the metric space. 두 이미지의 특징을 한 공간에 나타내고 거리를 통해 similarity를 계산하는 방식이다. · 2. learning the … …

Most searched keywords: Whether you are looking for Meta Learning Meta Learning · 1. Learning the metric space. 두 이미지의 특징을 한 공간에 나타내고 거리를 통해 similarity를 계산하는 방식이다. · 2. learning the … 학습하는 과정을 학습하다. Meta learning은 현재 AI에서 가장 유망하고 트렌디한 연구분야로 AGI(Artificial General Intelligence)로 나아갈 수 있는 매우 중요한 디딤돌이라고 볼 수 있다. AGI란 ‘일반 인공지..

Table of Contents:

태그

관련글

댓글1

공지사항

최근글

인기글

최근댓글

태그

전체 방문자

티스토리툴바

Meta Learning

Read More

최근 머신 러닝 핫한 연구 분야 (2/3) :: 취미생활하는 공대생

Article author: honeyjamtech.tistory.com

Reviews from users: 47746 Ratings

Ratings Top rated: 5.0

Lowest rated: 1

Summary of article content: Articles about 최근 머신 러닝 핫한 연구 분야 (2/3) :: 취미생활하는 공대생 4. Meta Learning (메타 러닝) … Meta Learninig은 “Learning to Learn”이라고도 불리는데, 한 마디로 배우는 법을 배운다는 것입니다. 다르게 말하면 … …

Most searched keywords: Whether you are looking for 최근 머신 러닝 핫한 연구 분야 (2/3) :: 취미생활하는 공대생 4. Meta Learning (메타 러닝) … Meta Learninig은 “Learning to Learn”이라고도 불리는데, 한 마디로 배우는 법을 배운다는 것입니다. 다르게 말하면 … 두 번째 글입니다. 이번에는 Meta learning (메타 러닝, 메타 학습), Semi-Supervised, Self-Supervised Learning 그리고 Continual Learning 에 대해서 소개하겠습니다. Generative Model (생성 모델) Reinforcem..가끔씩 글쓰는 대학원생

Table of Contents:

최근 머신 러닝 핫한 연구 분야 (23)

4 Meta Learning (메타 러닝)

5 Semi-Supervised Self-Supervised Learning (SSL)

티스토리툴바

최근 머신 러닝 핫한 연구 분야 (2/3) :: 취미생활하는 공대생

Read More

[Meta-Learning] 1. 메타, 메타러닝이란 뭘까?

Article author: jrc-park.tistory.com

Reviews from users: 8643 Ratings

Ratings Top rated: 5.0

Lowest rated: 1

Summary of article content: Articles about [Meta-Learning] 1. 메타, 메타러닝이란 뭘까? Meta-Learning? 머신러닝 분야를 공부하다보면 메타러닝이라는 말이 자주 등장합니다. 아마도 대부분의 사람들은 학습하는 방법을 학습한다는 표현은 … …

Most searched keywords: Whether you are looking for [Meta-Learning] 1. 메타, 메타러닝이란 뭘까? Meta-Learning? 머신러닝 분야를 공부하다보면 메타러닝이라는 말이 자주 등장합니다. 아마도 대부분의 사람들은 학습하는 방법을 학습한다는 표현은 … 메타, 메타러닝이란 뭘까? What is Meta? 메타 라는 용어는 한 단계 더 위에 있는 것을 가리킬 때 사용됩니다. 대표적인 예시로, 데이터에 대한 정보를 나타날 때, 데이터에 대한 데이터인 meta-data가 있고,..

Table of Contents:

메타 메타러닝이란 뭘까

Meta-Learning

첫 번째 학습

두 번째 학습

태그

‘📝 Artificial Intelligence메타러닝(Meta)’ Related Articles

공지사항

최근 포스트

전체 방문자

검색

태그

티스토리툴바

[Meta-Learning] 1. 메타, 메타러닝이란 뭘까?

Read More

CS330-Stanford-Meta-Learning – 메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용 | mocha’s machine learning

Article author: ysbsb.github.io

Reviews from users: 47675 Ratings

Ratings Top rated: 3.0

Lowest rated: 1

Summary of article content: Articles about CS330-Stanford-Meta-Learning – 메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용 | mocha’s machine learning 안녕하세요 모카의 머신러닝 입니다. 이번 포스팅에서는 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 … …

Most searched keywords: Whether you are looking for CS330-Stanford-Meta-Learning – 메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용 | mocha’s machine learning 안녕하세요 모카의 머신러닝 입니다. 이번 포스팅에서는 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 … 안녕하세요 모카의 머신러닝 입니다. 이번 포스팅에서는 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 리뷰와 정리에 대해서 이야기 합니다. [lecture website] …

Table of Contents:

CS330-Stanford-Meta-Learning – Meta Learning problem definitions and applications

주제

다루지 않을 주제들

Course Format

어떻게 우리는 에이전트가 실제 환경에서 스킬을 배우도록 할 수 있을까

박사 처음 시절

한 가지를 학습 하는 일

하지만 왜 deep multi-task learning 과 meta-learning 일까요

잠깐 예시로 쉬어가기

multi-task learning 적용할 수 있는 곳

중요한 가정

비공식적인 문제 정의

멀티 태스크 러닝을 싱글 태스크 러닝으로 줄일 수 있을까

CS330-Stanford-Meta-Learning – 메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용 | mocha’s machine learning

Read More

Seminar – 고려대학교 DMQA 연구실

Article author: dmqm.korea.ac.kr

Reviews from users: 47500 Ratings

Ratings Top rated: 3.4

Lowest rated: 1

Summary of article content: Articles about

Seminar – 고려대학교 DMQA 연구실

Meta-Learning은 학습을 하는 방법을 ‘학습’ 함으로써 적은(few) 데이터(shot)로도 일반화가 가능하도록 하자는 학습론이며, 구체적으로는 관심 대상의 … …

Seminar – 고려대학교 DMQA 연구실 Meta-Learning은 학습을 하는 방법을 ‘학습’ 함으로써 적은(few) 데이터(shot)로도 일반화가 가능하도록 하자는 학습론이며, 구체적으로는 관심 대상의 … … Most searched keywords: Whether you are looking for

Seminar – 고려대학교 DMQA 연구실

Meta-Learning은 학습을 하는 방법을 ‘학습’ 함으로써 적은(few) 데이터(shot)로도 일반화가 가능하도록 하자는 학습론이며, 구체적으로는 관심 대상의 … 고려대학교 산업경영공학부 데이터마이닝 및 품질애널리틱스 연구실

Seminar – 고려대학교 DMQA 연구실 Meta-Learning은 학습을 하는 방법을 ‘학습’ 함으로써 적은(few) 데이터(shot)로도 일반화가 가능하도록 하자는 학습론이며, 구체적으로는 관심 대상의 … 고려대학교 산업경영공학부 데이터마이닝 및 품질애널리틱스 연구실 Table of Contents:

Seminar – 고려대학교 DMQA 연구실

Read More

Multi-task learning & Meta-learning

Article author: simpling.tistory.com

Reviews from users: 16810 Ratings

Ratings Top rated: 3.6

Lowest rated: 1

Summary of article content: Articles about Multi-task learning & Meta-learning 이번 글은 Multi-task learning과 Meta-learning 알고리즘 비교와 특징을 비교하여 설명한다. Multi-task learning은 처음 딥러닝을 공부할 때부터 … …

Most searched keywords: Whether you are looking for Multi-task learning & Meta-learning 이번 글은 Multi-task learning과 Meta-learning 알고리즘 비교와 특징을 비교하여 설명한다. Multi-task learning은 처음 딥러닝을 공부할 때부터 … 이번 글은 Multi-task learning과 Meta-learning 알고리즘 비교와 특징을 비교하여 설명한다. Multi-task learning은 처음 딥러닝을 공부할 때부터 많이 들어온 알고리즘이다. 알고리즘의 목적은 여러 task를 함께..

Table of Contents:

태그

관련글

댓글0

공지사항

최근글

인기글

태그

티스토리툴바

Multi-task learning & Meta-learning

Read More

See more articles in the same category here: https://1111.com.vn/ko/blog/.

Meta-Learning과 MAML의 개념 정리

반응형 이번 글에서는 최근, 그 중요성이 점점 부각되고 있는 Meta-Learning에 대해 정리해보려고 한다. Meta-Learning은 다른 Task를 위해 학습된 AI 모델을 이용해서, 적은 Dataset을 가지는 다른 Task도 잘 수행할 수 있도록 학습시키는 방식이다. Meta Learning이 각광받는 가장 큰 이유는 모을 수 있는 Data의 양이 적다는 점과 HW의 Limitation이다. Deep Learning의 대부분 Application은 많은 Data를 High Computational HW에서 Training해서 좋은 성능을 보인다. 하지만, 대부분의 Application은 고품질의 Data를 모으기도 힘들고, 이를 Training할 Computational Power도 부족한 상황에서 적용되어야 한다. 따라서, 주어진 환경에 맞게 Re-Train하는 알고리즘들이 부각되고 있고, 공부하다보면, Transfer Learning, Meta-Learning, Multi-task Learning, Continual Learning 등 다양한 이름들이 등장한다. 공부하면서 많이 헷갈렸던 부분들이고, 다 중요하게 거론되는 알고리즘들이라 이번 기회에 Meta-Learning과 다른 알고리즘 들과의 차이도 같이 정리해보려고 한다. 단, 소개된 알고리즘이 딱딱 나눠떨어지는건 아니고, 포함관계나 겹치는 부분이 많다는 점을 참고하길 바란다. 가장 먼저 Multi-task Learning과 Meta-Learning을 비교해보면, Multi-task Learning은 각 Task가 최적의 Parameter $\phi$를 공유하는 형태로 이루어진다. 즉, 하나의 커다란 Model이 다양한 Task를 지원할 수 있는 형태로 이루어지고, 새로운 Task의 Dataset이 들어오면, 다수의 Task에 동시에 최적화된 Model의 Parameter $\phi$를 찾기 위해 학습을 하는 방식이다. 하지만 Meta-Learning은 각 Task 마다 최적의 Parameter $\phi_i$가 다르다는 Assumption부터 시작하기 때문에, 기존에 학습된 모델의 Parameter $\phi$와 새로운 Dataset의 특성 사이의 Correlation에 대한 새로운 Parameter $\theta$를 찾는 과정을 통해, $\theta$에서 새로 들어온 Task의 $\phi$를 찾는 순서로 진행된다. Transfer Learning과 Meta-Learning은 둘 다 Few-shot Learning을 위해 제안된 알고리즘이다. 하지만, 서로 배타적으로 나뉜 알고리즘은 아니고, ‘meta-learning as belonging to transfer learning approaches’라고 소개하는 논문 [1]도 있다. 단, 이 논문에서 ‘편의를 위해 분류를 하면서’, Transfer Learning은 조금 더 Pre-trained 모델을 기반으로 적은 Dataset을 기반으로, Fine-Tuning하는 알고리즘이라는 점에 초점을 맞추고, 기본적으로 조금 더 많은 Dataset이 필요하다는 얘기를 한다. 하지만, Meta-Learning은 말 그대로 ‘Learning-to-Learn’이라는 Concept처럼, Hand-design의 느낌이 나는 Transfer Learning보다 ‘빠르게 Adaptation할 수 있는’ 최적의 알고리즘을 찾기 위해 제안되었다고 소개한다. 정리하면, Meta-Learning이 더 적은 Dataset을 Targeting하여, 빠르게 최적화가 이루어질 수 있도록, Generalization에 Focusing이 되어있는 방식이라고 정리할 수 있을 것 같다. Meta Learning은 크게 Model-based model, Metric-based Approach와 Optimization-based Approach으로 나눌 수 있는데, Metric-based Approach 저차원의 공간에 새로 들어온 데이터를 Mapping시키고, 저차원에서 ‘데이터 간의 거리’가 가까운 방향으로 새로운 Task의 Dataset을 Classification하는 알고리즘이다. 하지만, Classification 이외에도 Reinforcement Learning 등 다양한 알고리즘에도 적용가능하다고 알려진 Model-Agnostic Meta-Learning (MAML) [2]이 주목을 받고있다. 이 글에서는 MAML과 이 알고리즘이 속한 Optimization-based Approach를 중점적으로 설명한다. Optimization-based Approach의 Concept을 쉽게 설명하면, 여러 Task의 generalized 버전 Model의 Parameter인 $\theta$를 구하고, 이를 new Task Model의 Parameter인 $\phi$의 Initialization으로 정의한다. 이렇게 함으로써 최적의 Task Parameter $\phi^*$를 빠르게 찾아나갈 수 있다. Model-Agnostic Meta-Learning (MAML) MAML은 [2]에서 소개된 논문으로, Meta Learning에서 가장 중요한 논문 중 하나인데, 주목받는 이유는 이름에서 알 수 있듯, ‘Model-Agnostic (모델과 상관없이)’하게, 즉, 대부분의 AI모델 (e.g., supervised Learning, reinforcement Learning) 에 적용될 수 있기 때문이다. MAML에 대한 대략적인 설명은 Multi-task Learning과 Meta-Learning을 비교하면서, 많은 부분을 설명했기 때문에, 바로 알고리즘을 분석해보려고 한다. MAML의 Diagram MAML의 Diagram은 위와 같다. Meta-Learning은 결국 Generalized Model의 Parameter인 $\theta$를 찾아나가는 방식으로 Gradient Descent를 진행한다. 위 그림에서 $\theta$가 가리키는 point가 Task 1, 2, 3에 대한 최적은 아니지만, 이후, Task 1, 2, 3을 빠르게 Adaptation할 수 있는 point이기 때문에 Meta Parameter $\theta$가 위의 화살표가 가리키는 점으로 가게되는 것이다. 이후, 얻은 $\theta$에서 new Task $T_i$에 맞는 최적의 Model Parameter $\theta^*$를 찾아가는 방식으로 Gradient Descent를 진행한다. 위에서는 자세한 알고리즘은 아래 그림과 같다. MAML의 알고리즘 처음에 Model은 $\theta$로 Initialized가 되어있다. $p(T)$는 전체 Task set이라고 보면 되고, new Task $T_i$에 있는 datapoint로 학습을 진행한다. Supervised Learning에서 Regression인 경우에는 (2)의 Mean Square Error (MSE)를, Classification의 경우에는 Cross Entropy를 Loss function으로 사용하여, 이를 기반으로 Gradient Descent를 진행한다. 그러면 Initialized 되어있는 $\theta$가 $\theta^{new}$으로 update가 되는데 (line 6), 한 두번의 Gradient Descent만 필요하도록 조정한다고 한다. 이렇게 구한 $\theta^{new}$를 기반으로 다시 Generalized model의 Parameter인 $\theta$를 조정해야한다. 새로운 New Task $T_i$를 한 두번의 Gradient Descent로 optimize하려면, ‘Meta-optimization across Tasks’를 진행해야하고, 이 값은 우리가 구한 $\theta^{new}$를 기반으로 Gradient Descent를 진행한다. 이 과정을 반복하면서, Few shot Learning이 지속적으로 이루어질 수 있게된다. Supervised Learning에 대한 알고리즘은 Loss Function만 Cross-Entropy와 MSE로 바뀌었기 때문에, 이해하기 어렵지 않고, Reinforcement Learning (RL)에 적용하는 알고리즘에 대해 보도록 하자. Supervised Learning에서 Regression과 Classification을 위한 Model이 주를 이룬다면, RL은 Expected Reward를 기반으로 Action을 결정하는 Policy에 대한 학습 알고리즘이다. 즉, RL에 Meta Learning을 적용한다는 것은, Task가 변하는 환경에서, 적은 Experience로 Policy를 Update하는 방식이라고 생각하면 된다. 이 논문에서는 하나의 Maze (미로)에 특화된 알고리즘이 다른 Maze 탐색에 활용될 수 있다고 소개한다. MAML for Reinforcement Learning RL과 Supervised Learning 알고리즘의 차이는 $K$개의 Sample이 $K$개의 Trajectory로 바뀌었다는 점과 Expected Reward가 Loss Function에 반영이 된다는 점이고, 나머지는 거의 똑같다. Policy Gradient은 학습하는 Policy와 Action하는 Policy가 같은 On-Policy 방식이기 때문에, 새로운 Policy의 Parameter $\theta$를 구할 때, update된 Policy $\theta^{new}$에서 Sampling을 한다. 이후에 나오는 Experimental Evaluation은 당연하겠지만, Few Shot Training의 경우, MAML을 쓰면 다른 Fine Tuning 알고리즘에 비해 성능이 좋다라는 결과들이 첨부되어 있다. Conclusion 이번 글에서는 Meta-Learning, 그 중에서도 가장 유명한 알고리즘인 MAML 논문 [2]에 대해 정리했다. 딱 보기에도, 그닥 개념적으로 어렵지 않고, Model-Agnostic하다는 장점 때문에 모든 Meta-Learning 논문의 뼈대가 되어서 인용수가 많지 붙지 않았나싶다. (2021.9.20 기준 4,339회) 하지만, Meta-Learning에서 말하는 ‘비슷한 Task’가 어느 정도로 비슷해야 하는지, Gradient Descent는 몇번으로 해야하는지, Few shot이라는게 몇 개정도의 Sample을 의미하는지 등 애매한 부분이 없지 않다. 물론, Domain에 따라 달라지겠지만, 환경이 끊임없이 변하는 비슷한 Task에서는 큰 힘을 발휘할 수 있지 않을까라는 생각이 든다. 후속으로 나오는 Meta-Learning에 대한 Survey 논문 [3]과 이를 활용한 주요 논문들을 읽으면서, 활용 방안에 대해 조금 더 고민해볼 여지가 있을 것 같다. 이 다음 글로는 5G에 Meta-Learning을 적용하는 논문 [4] 을 리뷰 [5]할 예정이다. Reference [1] Vincent Dumoulin, Neil Houlsby, Utku Evci, Xiaohua Zhai, Ross Goroshin, Sylvain Gelly, and Hugo Larochelle. Comparing transfer and meta learning approaches on a unified few-shot classification benchmark. arXiv preprint arXiv:2104.02638, 2021. [2] C. Finn, P. Abbeel, and S. Levine. Model-agnostic metalearning for fast adaptation of deep networks. In International Conference on Machine Learning, 2017. [3] T. Hospedales, A. Antoniou, P. Micaelli, and A. Storkey, “Metalearning in neural networks: A survey,” 2020, arXiv:2004.05439. [Online]. Available: http://arxiv.org/abs/2004.05439 [4] Y. Yuan, G. Zheng, K. -K. Wong, B. Ottersten and Z. -Q. Luo, “Transfer Learning and Meta Learning-Based Fast Downlink Beamforming Adaptation,” in IEEE Transactions on Wireless Communications, vol. 20, no. 3, pp. 1742-1755, March 2021, doi: 10.1109/TWC.2020.3035843. [5] https://engineering-ladder.tistory.com/96 반응형

[DL] Meta-Learning: Learning to Learn Fast

(해당 글은 OpenAI Engineer인 Lilian Weng의 포스트 내용을 원저자 동의하에 번역한 내용입니다.) “Learning To Learn” 이라고 알려져 있는 Meta-learning은 몇몇 training 예제를 통해서 모델로 하여금, 새로운 기술을 배우거나, 새로운 환경에 빠르게 적응할 수 있도록 설계하는 것을 나타낸다. 보통 3개 정도의 접근 방식이 있다. 1) (metric 기반의) efficient distance metric을 학습하는 방식 2) (model 기반의) external/internal memory를 통한 (recurrent) network을 사용하는 방식 3) (optimization 기반의) fast learning을 위한 model parameter를 최적화하는 방식 머신러닝을 통해서 좋은 모델을 만들기 위해서는 일반적으로 수많은 샘플을 활용해서 학습을 시키는 것이 필요하다. 이와 반대로 인간의 경우에는 훨씬 빠르고 효율적으로 새로운 개념이나 기술들을 학습한다. 고양이나 새를 많이 보지 않은 아이들이라고 할지라도 빠르게 그걸 구분할 수 있다. 자전거를 타는 방법을 아는 사람들은 시연 같은 과정 없이도 빠르게 오토바이를 타는 방법을 발견하곤 한다. 머신러닝에서도 이와 같이 적은 샘플만 가지고도 새로운 개념과 기술을 빠르게 학습하는 것이 가능할까? 이 것이 바로 본질적으로 meta-learning이 풀고자 하는 문제점이다. 보통 좋은 meta-learning model이라고 하면, training time 동안에 접하지 않았던 새로운 task나 environment에 대해서 잘 적응하거나, 일반화가 잘 되는 것을 말한다. adaptation process (본질적으로 말하자면 mini learning session)은 test 과정에서 일어나게 되는데, 사실 이 때에는 새로운 task configuration에 대해서 제한적으로만 노출되어 있다. 어쨌든, 이렇게 적응된 모델은 새로운 task를 잘 수행할 수 있다. 이 것이 바로 meta-learning이 learning to learn 이라고 알려져 있는 이유이기도 하다. 여기서 task란 supervised learning 이나 reinforcement learning과 같이 machine learning로 정의될 수 있는 모든 문제들이 될수 있다. 예를 들어 meta-learning task를 나열해보면 다음과 같다. 고양이가 없는 이미지를 학습시킨 classifier도 몇개의 고양이 사진을 본 후에는 test image상에 고양이가 있는지 여부를 판단할 수 있다. 게임 봇이 새로운 게임에 대해서 빠르게 마스터 할 수 있다. 평평한 지면 환경에서만 학습해온 미니 로봇이 경사진 환경에서도 task를 수행할 수 있다. Define the Meta-Learning Problem 이 포스트에서는 처리해야 할 task가 image classification과 같이 supervised learning problem인 것에 초점을 맞춰본다. Reinforcement Learning과 결합된 meta-learning (보통 “Meta Reinforcement Learning”이라고 알려져 있다.)에 대해서 많은 얘기들이 나오고 있지만 여기에서는 다루지 않을 예정이다. A Simple View 보통 좋은 meta-learing model이라고 하면, 학습하는 task에 대한 다양성(variety)에 대해서 학습되어야 하고, 잠재적으로 인지되지 못한 task를 포함해서 여러 task들의 분포상에서 최고의 성능을 낼 수 있도록 최적화되어야 한다. 각 task들이 dataset \( \mathcal{D} \)로 구성되어 있는데, 여기에는 각각 feature vector들과 true label들이 포함되어 있다. 이때 optimal model parameter는 다음과 같이 정의할 수 있다. $$ \theta^{*} = \arg\min_{\theta} \mathbb{E}_{\mathcal{D} \sim p(\mathcal{D})}[\mathcal{L}_{\theta}(\mathcal{D})] $$ (첨언을 하자면 위 식의 목표는 여러 개의 dataset 중에서 샘플링된 dataset \(\mathcal{D}\)에 대해서 Loss function \(\mathcal{L}_{\theta}(\mathcal{D}) \)을 최소화할 수 있는 \( \theta\)를 찾겠다는 의미이다.) 위의 식은 일반적인 learning task와 매우 유사하지만, 한가지 다른 부분은 하나의 dataset 자체가 하나의 data sample로 활용되고 있다는 것이다. Few-shot classification은 supervised learing 상에서 meta-learning을 활용한 예시이다. 여기서 dataset \( \mathcal{D}\)는 크게 두개로 나눠볼 수 있는데, 하나는 learning을 위한 support set \(S\)이고, 다른 하나는 training이나 testing을 위한 prediction set \(B\)이다. 그러면 dataset \(\mathcal{D} =\) 로 표현할 수 있게 된다. 보통 K-shot N-class classification task를 다루게 되는데, 이건 support set이 각 N개 class에 대해서 K개로 labelling된 데이터들을 포함하고 있다는 것을 말한다. 그림 1. 4-shot 2-class image classification의 예시 (출처 : Pinterest) Training in the Same Way as Testing 위의 예시에 나온 dataset \(\mathcal{D}\)는 여러 쌍의 feature vector와 label들을 포함하고 있고, \(\mathcal{D} = \{(\mathbf{x}_{i}, y_{i})\}\) 라고 표현할 수 있고, 이때 각 label은 우리가 알고있는 label set \(\mathcal{L}\) (참고로 위에 나온 Loss function이 아닌 label set이다.)에 속해 있다고 해보자. 이제 우리가 만들 parameter \(\theta\)를 가진 classifier \(f_{\theta}\)는 주어진 데이터가 feature vector \(\mathbf{x}\)에 대해서 class \(y\)에 속할 확률인 \(P_{\theta}(y|\mathbf{x})\)를 출력으로 내보낼 것이다. 이 때의 optimal parameter는 dataset \(\mathcal{D}\)내에 있는 여러 개의 training batch \(B\)에 대해서 true label을 얻을 수 있는 확률을 높일 수 있어야 한다. 이를 수식으로 표현하면 다음과 같다. $$ \begin{aligned} \theta^* &= {\arg\max}_{\theta} \mathbb{E}_{(\mathbf{x}, y)\in \mathcal{D}}[P_\theta(y \vert \mathbf{x})] &\\ \theta^* &= {\arg\max}_{\theta} \mathbb{E}_{B\subset \mathcal{D}}[\sum_{(\mathbf{x}, y)\in B}P_\theta(y \vert \mathbf{x})] & \scriptstyle{\text{; trained with mini-batches.}} \end{aligned} $$ Few-shot classification의 목표는 “fast learning” 을 위해서 추가한, 약간의 support set을 가지고, unknown label에 대한 데이터의 prediction error를 줄이는 것이다. (“fine-tuning”이 수행되는 과정과 유사하다고 보면 좋을거 같다.) Inference 중에도 training process를 모방한 과정을 넣기 위해서, dataset에 약간에 “fake”를 가해볼 것이다. 이를 통해서 모델이 모든 label에 대해서 인지하고, optimization procedure를 수정하는 것을 막고, 궁극적으로 fast learning이 이뤄질 수 있도록 하는 것이다. Label set에서 일부를 샘플링한다. \( L \subset \mathcal{L} \) Support set과 training batch를 dataset으로부터 샘플링한다. (\(S^{L} \subset \mathcal{D}, B^{L} \subset \mathcal{D}\)) 두 개의 set 모두 1에서 샘플링된 label set에 속하는 label을 가진 데이터만 가지고 있어야 한다. (\( y \in L, \forall (x, y) \in S^{L}, B^{L} \)) Support set은 모델의 input이 된다. Final optimization 단계에서는 supervised learning에서 하는 것과 동일한 방법으로, mini-batch \(B^{L}\)을 이용해서 loss를 계산하고, backpropagation을 통해서 model parameter를 update한다. 이때 앞에서 샘플링한 \((S^{L}, B^{L})\)을 하나의 data point로 고려할 수 있다. 그러면 모델은 다른 dataset에 대해서도 generalize할 수 있도록 학습되게 된다. 그러면 위에서 언급한 supervised learning의 수식은 빨간색으로 표기된 meta-learning 관련 term을 추가해서 조금 바뀌게 된다. $$ \theta = \arg\max_\theta \color{red}{E_{L\subset\mathcal{L}}[} E_{\color{red}{S^L \subset\mathcal{D}, }B^L \subset\mathcal{D}} [\sum_{(x, y)\in B^L} P_\theta(x, y\color{red}{, S^L})] \color{red}{]} $$ 위와 같은 방식은 ImageNet과 같이 image classification에서 pre-trained된 model을 사용하는 것이나 big text corpora와 같은 language modeling에서 쓰는 방식과 많이 유사하다. Meta-learning은 이런 아이디어를 가져와서, 한단계 낮은 task를 통해 fine-tuning하는 것을 넘어서 전부는 아니더라도 많은 label에 대해서 잘 동작할 수 있도록 모델을 최적화시켜준다. Learner and Meta-Learner meta-learning을 바라보는 또다른 관점은 model update하는 과정을 두가지 단계로 나누는 것이다. Classifier \(f_{\theta}\)는 “learner” model인데, 주어진 task를 수행할 수 있도록 학습된 상태이다. 한편, optimizer \(g_{\phi}\)는 주어진 support set \(S\)를 가지고, learner model의 parameter를 update하는 방법을 학습하게 된다. (\(\theta = g_{\phi}(\theta, S)\)) 그러면 final optimization step에서는 \(\theta\)와 \(\phi\)를 최대화할 수 있도록 update하는 것이 필요하게 된다. $$ \mathbb{E}_{L\subset\mathcal{L}}[ \mathbb{E}_{S^L \subset\mathcal{D}, B^L \subset\mathcal{D}} [\sum_{(\mathbf{x}, y)\in B^L} P_{g_\phi(\theta, S^L)}(y \vert \mathbf{x})]] $$ Common Approaches 서두에 이야기 했던 것처럼 meta-learning에는 크게 3가지 접근방식이 있다.(metric-based, model-based, optimization-based) Oriol Vinyals이 NIPS 2018에서 진행된 meta-learning symposium에서 talk를 통해서 간단하게 요약했다. Model-based Metric-based Optimization-based Key Idea RNN; memory Metric learning Gradient Descent How \(P_{\theta}(y|\mathbf{x})\) is modeled? \(f_{\theta}(\mathbf{x}, S)\) \( \sum_{(\mathbf{x}_i, y_i) \in S} k_\theta(\mathbf{x}, \mathbf{x}_i)y_i \) (*) \(P_{g_\phi(\theta, S^L)}(y \vert \mathbf{x}) \) (*) 참고로 \(k_{\theta}\)는 \(\mathbf{x}_{i}\)와 \(\mathbf{x}\) 사이의 similarity를 측정하는 kernel function을 말한다. Metric-Based Approach Metric-based meta-learning의 근본적인 개념은 (k-NN classifier나 k-means clustering과 같은) nearest neighbors algorithm과 kernel density estimation과 유사하다. 알려진 label \(y\)에 대한 predicted probability는 support set sample들의 label에 대한 weighted sum과 같다. 이 때 weight는 kernel function \(k_{\theta}\)를 통해서 구할 수 있는데, 이 값은 두 개의 data sample간에 similarity 정도를 나타내는 것이다. $$ P_{\theta}(y|\mathbf{x}, S) = \sum_{(\mathbf{x}_{i},y_{i}) \in S} k_{\theta}(\mathbf{x}, \mathbf{x}_{i})y_{i} $$ Metric-based meta-learning model이 잘 동작하기 위해서는 좋은 kernel function을 학습하는 것이 중요하다. Metric Learning이 이런 관점에서는 데이터에 대한 metric이나 distance function을 학습한다는 점에서 잘 맞는 학습법이다. 사실 좋은 metric이라는 정의는 문제에 따라서 달라지는데, 중요한 것은 이 metric이 task space내의 input들간의 관계를 잘 표현할 수 있어야 하고, 문제를 해결하는데 이점을 주어야 한다는 것이다. 이제 아래에서 설명할 방법론들은 input data에 대한 embedding vector를 학습하고, 이를 통해서 적절한 kernel function을 설계하는 것에 대해 소개하게 된다. Convolutional Siamese Neural Network Siamese Neural Network은 두 개의 twin neural network으로 구성되어 있고, 이에 대한 출력은 input data samples pair간의 관계를 이해하기 위한 함수와 연동되어 학습된다. 이 때 twin network은 서로 동일하고, 같은 weight과 network parameter들을 공유한다. 다르게 표현하자면, data point pair간에 관계를 알아내기 위해서 효율적인 embedding을 학습하는 embedding network를 서로 참고하고 있다고 보면 될거 같다. Koch, Zemel & Salakhutdinov (2015) 에서는 one-shot image classification을 위해서 siamese neural network를 사용하는 방법을 제안했다. 우선, siamese network은 입력으로 들어온 두개의 image가 같은 class에 속하는지 여부를 판단하는 검증 task를 위해서 학습된다. 이때의 출력은 두개의 image가 같은 class에 들어있을 확률을 나타낸다. 그런 후에, test가 진행되는 동안, siamese network은 test image와 support set내에 들어있는 모든 이미지들간의 image pair에 대해서 모두 위와 같은 작업을 수행하게 되고, 결과적으로 나올 final prediction은 그렇게 처리된 support set image 중에서 가장 높은 정확성을 보이는 class가 될 것이다. 그림 2. few-shot image classification을 위한 convolutional siamese neural network의 구조도 우선 Convolutional siamese neetwork은 여러개의 convolutional layer들로 구성된 embedding function \( f_{\theta} \)을 통해서 입력으로 들어온 두 개의 image를 feature vector로 encode하는 것을 학습한다. 이때 두개의 embedding간의 L1-distance는 \( | f_{\theta}(\mathbf{x}_{i}) – f_{\theta}(\mathbf{x}_{j})|\)가 된다. 이렇게 계산된 L1 distance는 linear feedforward layer와 sigmoid를 통해서 확률 \(p\)로 변환시킬 수 있는데, 이때의 확률은 두개의 image가 같은 class에 속하는지에 대한 확률을 나타낸다. \(p(\mathbf{x}_{i}, \mathbf{x}_j) = \sigma(\mathbf{W}| f_{\theta}(\mathbf{x}_{i}) – f_{\theta}(\mathbf{x}_{j}|) \) 직관적으로 보면, 여기서 label은 binary이기 때문에 loss는 cross entropy로 놓고 계산하면 된다. \( \mathcal{L}(B) = \sum_{ (\mathbf{x}_{i}, \mathbf{x}_{j}, y_{i}, y_{j}) \in B} \mathbf{1}_{y_{i} = y_{j}} \log p(\mathbf{x}_{i}, \mathbf{x}_{j}) + (1 – \mathbf{1}_{y_{i}=y_{j}}) \log (1 – p( \mathbf{x}_{i}, \mathbf{x}_{j} )) \) (참고로 \( \mathbf{1}_{y_{i} = y_{j}} \) 는 \(y_{i}\)와 \(y_{j}\)가 같은지 여부를 판단하는 binary 상수라고 보면 될거 같다.) 이 때 training batch \(B\)내의 image들은 distortion으로 약간 실제의 image와 다르게 표현될 수도 있다. 물론 위의 과정에서는 L1 Distance를 사용하긴 했지만, L2 distance나 consine distance같은 다른 distance metric을 사용해도 된다. 아무튼 미분가능한 distance metric을 쓰면 동일하게 동작할 것이다. 최종적으로 support set \(S\)와 test image \(\mathbf{x}\)가 주어져 있을때, final predicted class는 다음과 같이 구할 수 있다. $$ \hat{c}_{S}(\mathbf{x}) = c(\arg \max_{\mathbf{x}_{i} \in S} P(\mathbf{x}, \mathbf{x}_{i})) $$ 위 식에서 \(c(\mathbf{x})\)는 image \(\mathbf{x}\)에 대한 class label이고, \(\hat{c}(\cdot)\)은 predicted label이다. 여기에 전제되어 있는 가정은 학습된 embedding이 알려지지 않은 category에 속하는 image들간에 distance를 측정하는데 유용하게 활용할 수 있게끔 generalize될 수 있다는 것이다. 사실 이 개념은 transfer-learning에서도 pre-trained model를 적용하는 과정에서 정의한 가정과 동일한 것이다. 예를 들어 ImageNet으로 pre-train된 model로 학습시킨 convolutional feature들도 사실 다른 image classification task에서도 잘 동작할 것으로 생각하는 것과 같은 것이다. 하지만 차이가 있다면, transfer-learning에서 pre-train된 model을 사용함으로써 얻는 장점이 model이 학습되면서 새로운 task가 기존의 task에서 멀어지면 멀어질수록 떨어진다는 것이다. Matching Networks Matching Networks (Vinyals et al, 2016)는 적은 양의 support set \( S=\{x_i, y_i\}_{i=1}^k \) (k-shot classification)을 가지고 classifier \(c_{S}\)를 학습시키는 방법이다. 이 classifier는 주어진 test sample image \(\mathbf{x}\)에 대해서 output label \(y\)에 대한 probability distribution을 정의한다. 다른 metric-based model과 유사하게, classifier의 출력은 attention kernel \(a(\mathbf{x}, \mathbf{x}_{i})\)에서 weight가 가해져 있는 support sample의 label sum으로 정의되어 있는데, 이때 attention kernel의 값은 image \(\mathbf{x}\)와 \(\mathbf{x}_{i}\)사이의 유사한 정도와 비례해야 한다. 그림 3. Matching Network의 구조도 (출처: 논문) $$ c_S(\mathbf{x}) = P(y \vert \mathbf{x}, S) = \sum_{i=1}^k a(\mathbf{x}, \mathbf{x}_i) y_i \text{, where }S=\{(\mathbf{x}_i, y_i)\}_{i=1}^k $$ 여기서 attention kernel은 두개의 embedding function인 \(f\)와 \(g\)에 따라서 달라지는데, \(f\)는 test sample을 embedding vector로 encoding해주는 함수이고, \(g\)는 support sample을 embedding vector로 encoding해주는 함수이다. 이 때 두 data point간의 attention weight는 두개의 embedding vector간의 cosine similarity \(\text{cosine}(.)\) 이고, 최종적으로는 softmax에 의해서 normalize되게 된다. $$ a(\mathbf{x}, \mathbf{x}_i) = \frac{\exp(\text{cosine}(f(\mathbf{x}), g(\mathbf{x}_i))}{\sum_{j=1}^k\exp(\text{cosine}(f(\mathbf{x}), g(\mathbf{x}_j))} $$ Simple Embedding Embedding function이란 개념이 나오는데, 간단하게 말해서 single data sample을 하나의 input으로 받는 neural network을 말한다. 잠재적으로는 \(f\)와 \(g\)을 동일하게 취급할 수 있다. Full Context Embeddings Embedding vector는 좋은 classifier를 만드는데 있어 중요한 입력이라고 볼 수 있다. 그래서 전체 feature space를 효율적으로 정의하는데 있어서 single data point만 가지고 입력으로 하기에는 충분하지 않을 것이다. 그렇기 때문에, Matching Network model은 원래의 input에 덧붙여서 전체 support set \(S\)을 입력으로 집어넣음으로써 embedding function의 성능을 개선하는 방향을 제안했다. 이를 통해서 학습된 embedding function은 다른 support sample들과의 관계를 활용해서 보정될 수가 있다. \(g_{\theta}(\mathbf{x}_i, S)\)는 전체 support set \(S\)의 맥락에 맞춰 \(\mathbf{x}_i\)을 encoding하기 위해서 bidirectional LSTM을 사용한다. \(f_{\theta}(\mathbf{x}, S)\)는 전체 support set \(S\)에 대한 read attention를 활용해서 LSTM을 통해서 test sample \(\mathbf{x}\)를 encoding한다. 1) 우선 test sample은 기본적인 feature \(f'(\mathbf{x}\) 을 뽑아내기 위해서, CNN과 같은 간단한 neural network에 통과시킨다. 2) 그러면 LSTM은 hidden state의 일부 영역에서 support set에 대한 read attention vector를 학습한다. $$ \begin{align} \hat{\mathbf{h}}_t, \mathbf{c}_t &= \text{LSTM}(f'(\mathbf{x}), [\mathbf{h}_{t-1}, \mathbf{r}_{t-1}], \mathbf{c}_{t-1}) \\ \mathbf{h}_t &= \hat{\mathbf{h}}_t + f'(\mathbf{x}) \\ \mathbf{r}_{t-1} &= \sum_{i=1}^{k} a(\mathbf{h}_{t-1}, g(\mathbf{x}_i))g(\mathbf{x}_i) \\ a(\mathbf{h}_{t-1}, g(\mathbf{x}_i)) &= \text{softmax}(\mathbf{h}_{t-1}^\top g(\mathbf{x}_i)) = \frac{\exp(\mathbf{h}_{t-1}^\top g(\mathbf{x}_i))}{\sum_{j=1}^k \exp(\mathbf{h}_{t-1}^\top g(\mathbf{x}_j))} \end{align} $$ 3) 결과적으로 “read”를 K번 수행할 경우 \(f(\mathbf{x}, S) = \mathbf{h}_{K}\) 라는 함수를 구할 수 있게 된다. 이런 embedding 방식을 “Full Contextual Embeddings (FCE)” 이라고 부른다. 흥미로운 것은 (Mini ImageNet model로 few-shot classification을 하는 것과 같은) 어려운 task에 대해서도 성능을 높일 수 있다는 것이다. 반면, (Omniglot 같은) 간단한 task에서는 별 차이가 없다. Matching Networks에서의 training process는 test time 동안에도 inference를 수행할 수 있도록 설계되어 있는데, 자세한 내용은 앞의 “Training in the same way as testing” 부분을 참고하면 좋을거 같다. 여기서 기억하면 좋을 것은 Matching Networks 자체가 training condition과 testing condition을 맞춰야 한다는 생각을 잘 다듬었다는 것이다. $$ \theta^{*} = \arg \max_{\theta} \mathbb{E}_{L\subset\mathcal{L}}[ \mathbb{E}_{S^L \subset\mathcal{D}, B^L \subset\mathcal{D}} [\sum_{(\mathbf{x}, y)\in B^L} P_\theta(y\vert\mathbf{x}, S^L)]] $$ Relational Network Relational Network (RN) (Sung et al, 2018) 은 앞에서 언급했던 Siamese network와 유사하긴 하지만, 몇가지 부분에서 차이가 좀 있다. Relationship은 Siamese에서는 간단한 L1 Distance를 통해서 구했었는데, RN에서는 그렇게 구하지 않고, CNN Classifier \( g_{\phi} \)에 의해서 predict된다. 이 때 relation score는 입력으로 들어온 \(\mathbf{x}_i\)와 \(\mathbf{x}_{j}\)사이에 대해서 계산하게 되는데, 다음과 같이 구할 수 있다. $$ r_{ij} = g_{\phi}([ \mathbf{x}_i, \mathbf{x}_j]) $$ ( 참고로 \( [ \cdot , \cdot ] \)은 두개의 data를 concatenate시키는 것이라고 보면 된다.) Siamese Network에서는 objective function을 Cross-entropy를 사용했었지만, 여기서는 MSE Loss를 사용했는데, 그 이유는 이론적으로 놓고 봤을때 RN 자체가 binary classification에 썼던 Loss \( \mathcal{L}(B) = \sum_{(\mathbf{x}_i, \mathbf{x}_j, y_i, y_j) \in B} (r_{ij} – \mathbf{1}_{ y_i = y_j })^2 \) 보다는 regression시 적합한 relation score를 예측하는 것에 초점을 맞추고 있기 때문이다. 그림 4. 하나의 query에 대한 5-way 1-shot problem에 대한 Relation Network 구조도 (출처 : 논문) (참고로 DeepMind에서 제안한 relational reasoning을 위한 Relational Network이 따로 존재한다. 이것과 위의 내용과는 다른 개념이다.) Prototypical Networks Prototypical Networks (Snell, Swersky & Zemel, 2017) 에서는 각 입력을 M-dimensional feature vector로 encode하기 위해서 embedding function \(f_{\theta}\)를 사용했다. 여기서 전체 class \(C\)에 속하는 모든 class \(c\)에 대한 prototype feature vector를 정의할 수 있는데, 이 vector는 해당 class에 속하는 embedded support data sample들에 대한 mean vector라고 보면 된다. $$ \mathbf{v}_c = \frac{1}{|S_c|} \sum_{(\mathbf{x}_i, y_i) \in S_c} f_\theta(\mathbf{x}_i) $$ 그림 5. Few-shot과 Zero-shot 상황에서의 Prototypical Networks (출처 : 논문) 주어진 test input \(\mathbf{x}\)에 대한 class의 distribution은 test data embedding vector와 prototype feature vector간의 distance의 inverse에 대해서 softmax를 취한 것과 같다. $$ P(y=c\vert\mathbf{x})=\text{softmax}(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_c)) = \frac{\exp(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_c))}{\sum_{c’ \in \mathcal{C}}\exp(-d_\varphi(f_\theta(\mathbf{x}), \mathbf{v}_{c’}))} $$ 여기서 \( d_\varphi \)는 \(\varphi\)가 미분가능한 모든 distance function을 쓸 수 있다. 논문상에서는 squared euclidean distance를 사용했다. 그리고 논문에서는 Loss fuction을 negative log-likelihood를 사용했다. $$ \mathcal{L}(\theta) = -\log P_\theta(y=c\vert\mathbf{x}) $$ Model-Based Approach Model-based meta-learning은 \( P_{\theta}(y|\mathbf{x})\)와 같은 형식에서 어떠한 가정을 삽입하지 않는다. 대신에 fast-learning에 특화된 model의 영향을 많이 받는데, 이때 model은 몇번의 training step만 가지고도 network parameter를 빠르게 학습할 수 있는 형태를 나타낸다. 보통 이렇게 parameter를 빠르게 구하는 방식은 내부 구조를 통해서 얻을 수 있거나 또다른 meta-learner 모델을 통해서 제어가 된다. Memory-Augmented Neural Networks (MANN) 이 형태를 가진 architecture는 Neural Turing Machine (NTM)나 Memory Network를 포함해서, neural network의 학습을 빠르게 하는데 있어, 외부 memory storage를 사용한다. 이렇게 storage buffer를 통해서, network은 새로운 정보에 대해서는 빠르게 이해할 수 있고, 미래에도 이 정보들을 잊지 않고 가지고 있을 수 있다. 이런 model들을 “Memory-Augmented Neural Network”, 줄여서 MANN이라고 한다. 참고로 vanilla RNN이나 LSTM같이 internal memory만 사용하는 recurrent neural network은 MANN에 포함되지 않는다. MANN이 새로운 정보를 빠르게 encoding하고, 몇 개의 sample만 가지고도 새로운 task에 적용할 수 있도록 설계되었기 때문에, meta-learning에 적합한 구조이다. Neural Turing Machine (NTM)을 base model로 삼으면서, Santoro et al. (2016) 에서는 training setup과 memory retrieval mechanism (혹은 “addressing mechanism”이라고 표현되기도 하는데, 이는 attention weight들이 memory vector에 어떻게 할당되는지 결정하는 규칙이라고 보면 좋을거 같다.)에 대해서 약간의 수정을 가했다. 혹시 넘어가기에 앞서서 이런주제에 대해서 익숙하지 않다면, 원저자가 쓴 포스트 중 NTM section을 살펴보고 넘어갈 것을 권한다. 빠르게 복습하자면, NTM은 controller neural network에 external memory storage를 묶은 형태로 되어 있다. 이 때, controller는 soft attention을 통해서 memory row에 읽고 쓰는 방법을 학습한다. 반면 memory는 일종의 지식 창고(knowledge repository)처럼 활용된다. 여기서 attention weight는 content-based와 location-based로 정의된 나름의 addressing mechanism에 의해서 결정된다. 그림 6. Neural Turing Machine (NTM)의 구조도. 여기서 특정 시간 t에서의 memory \(M_{t}\)는 \(N \times M\)만큼 크기의 matrix로 되어 있으며, \(N\)개로 구성된 각 vector row 마다 \(M\)개의 dimenstion을 가지고 있다. MANN for Meta-Learning MANN을 meta-learning task에 활용하기 위해서는, memory가 새로운 task에 대한 정보를 빠르게 encoding하고 얻어내는 방법을 이용해서 학습이 되어야 하며, 반면 저장된 representation에 대해서도 쉽고, 안정적으로 접근이 가능해야 한다. Santoro et al, 2016 에서 기술되어 있는 학습 과정에서는 적절한 label이 나중에라도 등장할 때까지 계속 memory가 정보를 가지고 있게끔 하는 방법이 포함되어 있다. 그래서 매 training episode마다, true label \(y_t\)는 \((\mathbf{x}_{t+1}, y_{t})\)와 같이 one step offset \(\mathbf{x}_{t+1}\)과 함께 나타나게 되는데, 이를 통해서 이전 time step \(t\)에서는 true label이 input으로 들어가지만, time step \(t+1\)에서는 input의 일부로 나타나게 되는 것이다. 그림 7. Meta-learning에 활용하기 위한 MANN의 구성 (출처 : 논문) 이렇게 하면, MANN은 새로운 dataset에 대한 정보를 기억하게끔 동작하게 되는데, 그 이유는 memory가 현재 input에 대한 label이 나중에 나올때까지는 input을 계속 가지고 있어야 하고, 그런 후에는 여기에 맞춰서 prediction을 할때 이전에 저장된 정보를 다시 가져올 수 있어야 하기 때문이다. 다음 파트에서 memory에 어떻게 효율적으로 정보를 가져오고 저장하는지를 살펴보자. Addressing Mechanism for Meta-Learning training process와 다른 측면으로, 현재의 model을 meta-learning에 맞게끔 만들기 위해서 새로운 content-based addressing mechanism이 적용되었다. How to read from memory? Read Attention은 순전히 content similarity에 기반해서 생성된다. 우선, time step \(t\)마다 key feature vector \(k_{t}\)가 controller network에 의해서 생성되는데, 이때의 형태는 \(\mathbf{x}\)를 input으로 받는 함수의 형태를 띈다. NTM과 유사하게 \(N\)개의 element에 대한 read weighting vector \(w_{t}^{r}\)는 key vector와 memory내 모든 vector row에 대한 cosine similarity를 통해서 구할 수 있고, 최종적으로는 softmax에 의해서 normalize가 된다. 그러면 결과적으로 read vector \(r_t\)는 아래의 수식과 같이 모든 memory record에 대해서 weight가 가해진 것들의 합으로 표현할 수 있게 된다. $$ \mathbf{r}_t = \sum_{i=1}^N w_t^r(i)\mathbf{M}_t(i) \text{, where } w_t^r(i) = \text{softmax}(\frac{\mathbf{k}_t \cdot \mathbf{M}_t(i)}{\|\mathbf{k}_t\| \cdot \|\mathbf{M}_t(i)\|}) $$ 위 식에서 \(M_t\)는 \(t\) time에서의 memory matrix를 말하고, \(M_t(i)\)는 해당 matrix의 i번째 row를 나타내는 것이다. How to write into memory? 새롭게 얻은 정보를 memory에 write하는 것에 대한 addressing mechanism은 cache replacement policy와 많이 유사하다. 그 중 Least Recently Used Access (LRUA) writer는 MANN이 meta-learning환경에서 잘 동작할 수 있도록 설계되었다. LRUA writer는 새로운 정보를 memory내에서 가장 적게 사용된(least used) 영역에 쓰거나 혹은 가장 최근에 쓰여진(most recently used) 영역에 쓰게 된다. 적게 써진 영역 : 이를 통해서 자주 사용된 정보를 보존할 수 있다. (LFU 참고) 가장 최근에 써진 영역 : 한번 정보를 가지고 오면, 일반적으로 잠깐동안은 다시 불러오지 않는 부분에서 착안했다. (MRU 참고) 이외에도 많은 cache replacement algorithm들이 있고, 다른 케이스 상에서 더 좋은 성능을 보일 수 있도록 위의 algorithm을 대체할 수 있다. 확실히 자기 마음대로 memory addressing을 하는 것보다는 memory usage pattern과 addressing strategy를 학습하는 것은 좋은 방법이다. LRUA에서는 모든 변수들이 미분 가능하다는 부분에서 과정을 수행하게 된다. time \(t\)에서의 usage weight \( \mathbf{w}^u_t\)는 현재의 read vector와 write vector들의 합에다가 이전의 usage weight에 감쇄된 형태 ( \( \gamma \mathbf{w}^u_{t-1} \))를 가한 식으로 표현된다. 여기서 \(\gamma\)는 decay factor이다. $$ \mathbf{w}_t^u = \gamma \mathbf{w}_{t-1}^u + \mathbf{w}_t^r + \mathbf{w}_t^w $$ Read vector는 앞에서 잠깐 언급했던 바와 같이 key vector와 모든 memory row간의 cosine similarity를 계산하고, 최종적으로 softmax로 normalize된 형태로 나타난다. $$ \mathbf{w}_t^{r} = \text{softmax}( \text{cosine} (k_t, M_t(i))) $$ Write vector는 이전의 read weight vector (혹은 “가장 최근에 사용된 영역”)와 이전의 덜 사용된 weight 들간의 interpolation으로 나타난다. 이때 interpolation을 결정짓는 parameter는 hyperparameter \(\alpha\)를 가지는 sigmoid 함수이다. $$ \mathbf{w}_t^{w} = \sigma(\alpha) \mathbf{w}_{t-1}^r + (1 – \sigma(\alpha)) \mathbf{w}_{t-1}^{lu} $$ 위 식에서 잠깐 나온 least-used weight \(\mathbf{w}^{lu}\)는 usage weight \(\mathbf{w}_t^u\)에 scale된 형태로 나타나는데, 이때 특정 dimension이 vector내에서 n번째로 작은 것보다도 더 작으면 1이 되고, 아니면 0이 되는 식이다. $$ \mathbf{w}_t^{lu} = \mathbf{1}_{ w_{t}^{u}(i) \le m(\mathbf{w}_t^u, n)} \text{, where } m(\mathbf{w}_t^u, n) \text{ is the }n\text{-th smallest element in vector } \mathbf{w}_t^u \text{.} $$ 최종적으로는 \( \mathbf{w}_t^{lu} \)에 의해서 지정된 least used memory location은 0으로 설정되고, 그 나머지 memory row들은 다음과 같이 update된다. $$ M_t(i) = M_{t-1}(i) + w_{t}^w(i) k_t , \forall i$$ Meta Networks Meta Networks (Munkhdalai & Yu, 2017)은 짧게 줄여서 MetaNet이라고 표현하는데, 전반적인 task에 대한 rapid generalization을 하게끔 내부 training process가 설계된 meta-learning model이다. Fast Weights MetaNet에서 rapid generalization이 되게끔 하는 것은 “fast weights”라는 것 때문이다. 이 주제에 대한 논문들이 많이 나와 있지만, 원저자도 이걸 전부 읽어보지 못했고, 개념에 대한 좀 애매한 정의만 할 수 있을 뿐, 뭔가 정확한 정의를 찾을수는 없었다고 한다. 일반적으로 neural network의 weight는 object function에 대한 stochastic gradient descent에 의해서 update되는 것으로 알고 있고, 이 과정 자체가 매우 느리다는 것으로 알려져 있다. 이런 학습 과정을 빠르게 하기 위한 방법 중 하나는 다른 neural network의 parameter를 예측할 수 있는 또하나의 neural network을 사용하자는 것이고, 이를 통해서 만들어진 weight를 fast weight라고 표현하는 것 같다. 반면 기존 SGD 방식으로 만든 weight를 slow weight라고 한다. MetaNet에서는, loss gradient가 바로 앞에서 언급한 fast weights들을 학습하는 새로운 모델을 만들어내기 위한 meta information으로 사용된다. 그리고 slow weight와 fast weight들이 neural network에서 prediction을 수행하기 위해 결합되는 형태로 되어 있다. 그림 8. MLP내에서 slow weight와 fast weight가 결합된 형태, 여기서 \( \bigoplus\)는 element-wise sum을 나타낸다. (출처 : 논문) Model Components 참고로, 밑에 나올 표현들이 논문에 나와있는 것과 다른 것을 볼 수 있을텐데, 원 저자가 생각하기에는 논문의 아이디어 자체는 참 좋지만, 논문이 이해하기 어렵게 써졌다고 하는 것 같다. 그래서 아래에서는 나름 본인이 생각한 방향대로 기술될 예정이다. MetaNet을 구성하는 핵심 요소는 다음과 같다. \(\theta\)에 의해서 조절되는 embedding function \(f_{\theta}\)가 있는데, 이는 raw input을 feature vector로 encoding해주는 역할을 한다. 앞에서 언급했던 Siamese Neural Network와 유사하게, 이 embedding vector는 두개의 input이 같은 class에 속하는지 여부를 알려주는데 유용하게끔 학습이 된다. (마치 verification task처럼 말이다.) Weight \(\phi\)에 의해서 조절되는 base learner model \(g_{\phi}\)가 있는데, 이는 실제 learning task를 마무리하는 역할을 한다. 여기까지만 놓고 보면, 앞에서 언급했던 Relation Network와 거의 똑같은 것처럼 보일 것이다. MetaNet은 여기에 덧붙여서 embedding function과 learner model 에 대한 fast weights를 모델링하고, 이를 모아서 다시 mode에 넣어주는 부분이 추가되었다. (그림 8 참고) 결과적으로 embedding function \(f\)와 learner model \(g)\ 각각의 fast weights들을 output으로 내보내주는 두개의 함수가 추가로 필요하게 된다. \(F_w\) : embedding function \(f\)의 fast weight \(\theta^{+}\)을 학습하기 위한 LSTM이고 \(w\)에 의해서 조절된다. verification task를 위해서, input으로는 \(f\)의 embedding loss에 대한 gradient를 받는다. \(G_v\) : base learner \(g\)의 loss gradient로부터 fast weight \(\theta^{+}\)을 학습하기 위한 neural network이고, \(v\)에 의해서 조절된다. MetaNet에서는 learner의 loss gradient는 task에 대한 meta information으로 정의된다. 이제 meta network이 이떻게 학습되는지 살펴보자. 학습 데이터에는 여러 pair의 dataset들이 포함되어 있는데, 앞에서도 계속 나왔던 support set \( S=\{\mathbf{x}’_i, y’_i\}_{i=1}^K \) 와 test set \( U=\{\mathbf{x}_i, y_i\}_{i=1}^L \) 들이 그 것들이다. 다시한번 우리는 4개의 network와 학습을 위한 4개의 model parameter \( ( \theta, \phi, w, v ) \) 가 있는 것을 기억해보자. 그림 9. MetaNet 구조 Training Process 1. 우선 support set \(S\)으로부터 매 time step \(t\)마다 input으로 사용할 random pair를 sampling 한다. 그리고 이를 \((\mathbf{x}_i’, y_i’)\)와 \((\mathbf{x}_j’, y_j)\) 라고 하자. 그리고 \(\mathbf{x}_{(t,1)} = \mathbf{x}_i’, \mathbf{x}_{(t,2)} = \mathbf{x}_j’\) 라고 정의해보자. 그리고 매 \(t = 1, \ldots, K\)에 대해서, 1) representation learning에 대한 loss를 계산해보자. 예를 들어 verification task에 대한 cross entropy를 구하면, 다음과 같다. $$ \mathcal{L}^\text{emb}_t = \mathbf{1}_{y’_i=y’_j} \log P_t + (1 – \mathbf{1}_{y’_i=y’_j})\log(1 – P_t)\text{, where }P_t = \sigma(\mathbf{W}\vert f_\theta(\mathbf{x}_{(t,1)}) – f_\theta(\mathbf{x}_{(t,2)})\vert) $$ 2. 이제 loss를 가지고 task-level fast weights를 계산해본다. $$ \theta^{+} = F_w( abla_{\theta} \mathcal{L}^\text{emb}_1 ,\ldots, \mathcal{L}^\text{emb}_T) $$ 3. 다음으로 support set \(S\)에서 example을 뽑아 example-level fast weight를 계산한다. 이번에는 학습된 representation을 바탕으로 memory를 update한다. 그리고 매 \(i = 1, \ldots, K\)에 대해서, 1) base learner는 probability distribution을 output으로 내보낸다. (\(P(\hat{y_i}|\mathbf{x}_i) = g_{\phi}(\mathbf{x}_i)\)) 이때의 loss는 cross-entropy나 MSE를 쓸수 있다. $$ \mathcal{L}^\text{task}_i = y’_i \log g_\phi(\mathbf{x}’_i) + (1- y’_i) \log (1 – g_\phi(\mathbf{x}’_i)) $$ 2) task에 대한 meta information(loss gradient)를 뽑아내고, 이를 통해서 example-level fast weight를 계산한다. $$ \phi_i^{+} = G_v( abla_{\phi}\mathcal{L}_i^{\text{task}}) $$ -> 이렇게 얻은 \( \phi_u^{+} \)를 “value” memory \(M\)의 i번째 row에 저장한다. 3) 앞에서 사용했던 support set의 sample을 task-specific input representation으로 encoding하는데, 이때 앞에서 구한 slow weight와 fast weight를 활용한다. $$ r_i’ = f_{\theta, \theta^{+}}(\mathbf{x}_i’) $$ -> 이렇게 얻은 \( r_i’ \)를 “key” memory \(R\)의 i번째 row에 저장한다. 4. 마지막으로 test set \(U = \{\mathbf{x}_i, y_i\}_{i=1}^L \)를 이용해서 training loss를 만들 차례이다. 우선 \(\mathcal{L}_{\text{train}} = 0\)에서 시작한다. 그리고 매 \(j = 1, \ldots, L\)에 대해서, 1) test sample을 task-specific input representation으로 encoding 해준다. $$ r_j = f_{\theta, \theta^{+}}(\mathbf{x}_j) $$ 2) 여기서 fast weight는 “key” memory \(R\)에 저장된 support set sample의 representation을 통해서 계산할 수 있는데, 이때 사용되는 attention function은 어떤 것을 선택해도 된다. MetaNet논문에서는 cosine similarity를 사용했다. $$ \begin{aligned} a_j &= \text{cosine}(\mathbf{R}, r_j) = [\frac{r’_1\cdot r_j}{\|r’_1\|\cdot\|r_j\|}, \dots, \frac{r’_N\cdot r_j}{\|r’_N\|\cdot\|r_j\|}]\\ \phi^+_j &= \text{softmax}(a_j)^\top \mathbf{M} \end{aligned} $$ 3) 이제 training loss를 update한다. $$ \mathcal{L}_{\text{train}} \leftarrow \mathcal{L}_{\text{train}} + \mathcal{L}^{\text{task}}(g_{\phi, \phi^{+}}(\mathbf{x}_i), y_i) $$ 5. 최종적으로 \(\mathcal{L}_{\text{train}}\)을 이용해서 \((\theta, \phi, w, v)\)을 update한다. Optimization-Based Approach Deep learning model은 gradient에 대한 backpropagation을 통해서 학습한다. 하지만 이런 gradient-based optimization은 적은 수의 training sample을 다루기 위해서 만들어진 것이 아닐뿐더러, 적은 optimization step내에서 converge되지 않는다. Optimization algorithm을 수정해서 적은 수의 example만 가지고 model이 잘 학습할 수 있는 방법이 있을까? 그것이 바로 optimization-based approach가 적용된 meta-learning algorithm이 지향하는 목표이다. LSTM Meta-Learner 사실 optimization algorithm은 확실하게 모델링할 수 있다. Ravi & Larochelle (2017)는 task를 다루는 original model을 “learner”라고 부르는데에서 가져와, 이런 방식을 “meta-learner”라고 이름을 붙였다. Meta-learner의 목표는 적은 support set만 가지고도 learner의 parameter를 효율적으로 update해서 learner가 새로운 task에 빠르게 적응할 수 있도록 하는 것이다. 앞으로 나올 표현 중 \(\theta\)에 의해서 조절되는 learner를 \(M_{\theta}\)라고 하고, \(\Theta\)에 의해서 조절되는 meta-learner를 \(R_{\Theta}\)라고 하며, 이때의 Loss function을 \(\mathcal{L}\)이라고 하겠다. Why LSTM? Meta-learner는 LSTM으로 모델링되어 있는데 그 이유는 다음과 같다. Backpropagation에서 gradient-based update 방식과 LSTM에서 cell-update하는 방식이 어느정도 유사성을 띄고 있다. Gradient가 어떻게 변화하는지 정보를 아는 것은 gradient를 update할 때 도움을 줄 수 있다. 한번 momentum이 어떻게 동작하는지 생각해보면 좋을거 같다. time step \(t\)에 learning rate \(\alpha_t\)를 가지고 learner의 parameter를 update하는 것은 다음과 같이 표현할 수 있다. $$ \theta_t = \theta_{t-1} – \alpha_t abla_{\theta_{t-1}} \mathcal{L}_t $$ LSTM에서 cell state를 update하는 것도 위 식과 같은 형태를 가지고 있는데, 예를 들어 forget gate \(f_t\)를 1로 설정한 상태에서 input gate \(i_t\)에 \(\alpha_t\)를 넣고, cell state \(c_t\)에 \(\theta_t\)를 넣고, new cell state \( \tilde{c}_t \)를 \( – abla_{\theta_{t-1}}\mathcal{L}_t \)라고 정의하게 되면 cell state는 다음과 같이 정의할 수 있다. $$ \begin{aligned} c_t &= f_t \odot c_{t-1} + i_t \odot \tilde{c}_t\\ &= \theta_{t-1} – \alpha_t abla_{\theta_{t-1}}\mathcal{L}_t \end{aligned} $$ \(f_t = 1, i_t = \alpha_t \)로 고정을 해버리면 그렇게 optimal하지는 않지만, 두개의 항 모두 다른 dataset에 대해서 learnable하고, adaptable하게 된다. $$ \begin{aligned} f_t &= \sigma(\mathbf{W}_f \cdot [ abla_{\theta_{t-1}}\mathcal{L}_t, \mathcal{L}_t, \theta_{t-1}, f_{t-1}] + \mathbf{b}_f) & \scriptstyle{\text{; how much to forget the old value of parameters.}}\\ i_t &= \sigma(\mathbf{W}_i \cdot [ abla_{\theta_{t-1}}\mathcal{L}_t, \mathcal{L}_t, \theta_{t-1}, i_{t-1}] + \mathbf{b}_i) & \scriptstyle{\text{; corresponding to the learning rate at time step t.}}\\ \tilde{\theta}_t &= – abla_{\theta_{t-1}}\mathcal{L}_t &\\ \theta_t &= f_t \odot \theta_{t-1} + i_t \odot \tilde{\theta}_t &\\ \end{aligned} $$ Model Setup 그림 10. learner \(M_\theta\)와 meta-learner \(R_\Theta\)가 학습되는 과정 (출처 : 논문 및 원저자 추가내용) Training process는 test process에서 일어난 일들을 모방하는데, 이런 방식은 앞에서 소개했던 Matching Network에서도 이미 좋다고 증명된 방식이다. 매 training epoch동안, 먼저 data \( \mathcal{D} = (\mathcal{D}_\text{train}, \mathcal{D}_\text{test}) \in \hat{\mathcal{D}}_\text{meta-train} \) 을 sampling하고, \(T\) round동안 \( \theta\)를 update하기 위해서 \( \mathcal{D}_\text{train} \) 중 일부를 mini-batch만큼 sampling한다. 그리고 learner parameter \(\theta_T\)의 final state는 test data set \( \mathcal{D}_{\text{test}} \) 을 이용해서 meta-learner를 학습시키는데 사용한다. meta-learner의 구현부분중 조금 더 신경써야 할 부분은 다음과 같다. LSTM meta-learner에서 parameter space를 어떻게 하면 줄일수 있을까 이다. meta-learner가 현재의 model이 아닌 또다른 neural network의 parameter를 가지고 학습하는 이상, 학습에 있어서 엄청 많은 parameter variable들이 존재할 것이다. 이 문제에 대해서는 coordinate기반으로 parameter를 공유하는 방식을 적용한 다음 논문을 참고해보면 좋을거 같다. Training process를 간단히하기 위해서 meta-learner는 사전에 loss \(\mathcal{L}_t\)와 gradient \( abla_{\theta_{t-1}} \mathcal{L}_t\) 가 independent하다고 가정을 둔다. 위의 내용을 하나의 과정으로 표현하면 다음과 같다. 그림 11. LSTM Meta-Learner 학습 알고리즘 (출처 : 논문) Model-Agnostic Meta-Learning (MAML) Model-Agnostic Meta-Learning (Finn et al, 2017)을 줄인 MAML은 gradient descent를 통해서 학습하는 어떤 모델에도 적용이 가능한, general optimization algorithm이다. 우선 \(\theta\)에 의해서 조절되는 모델 \( f_\theta\)를 학습시킨다고 가정해보자. 주어진 task \(\tau_i\)와 이와 관련된 dataset \(( \mathcal{D}_{\text{train}}^{(i)}, \mathcal{D}_{\text{test}}^{(i)} )\)가 있을때, 하나나 여러 gradient descent step를 통해서 model의 parameter를 update할 수 있다. (아래 예시는 one step만 표현한 것이다.) $$ \theta_i’ = \theta – \alpha abla_{\theta} \mathcal{L}_{\tau_i}^{(0)}(f_\theta) $$ 여기서 \( \mathcal{L}^{(0)}\)은 첫번째로 뽑은 mini batch dataset (id = 0)을 사용해서 계산한 loss를 말한다. 그림 12. MAML의 동작. (출처 : 논문) 아마 잘 아는 사람은 알겠지만, 위의 식은 하나의 task에 대해서만 optimize가 가능하다. 여러 task들을 통틀어서 generalization을 잘 시키기 위해서는 optimal \( \theta^{*}\)를 찾아야 하며, 그래야만, task-specific fine-tuning이 효율적으로 이뤄질 수 있다. 이제 meta-objective를 update하기 위해서 다음 mini batch data (id=1)를 sampling한다. 이때 Loss \(\mathcal{L}^{(1)}\)는 mini batch (id=1)에 따라 결정되게 된다. 참고로 \(\mathcal{L}^{(0)}\)과 \(\mathcal{L}^{(1)}\)의 위에 붙은 첨자는 단순히 서로 다른 mini-batch data를 사용했다는 것을 의미하며, 이 두개의 loss 모두 같은 task에 대해서 같은 loss objective로부터 나온 값이다. $$ \begin{aligned} \theta^* &= \arg\min_\theta \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta’_i}) = \arg\min_\theta \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta – \alpha abla_\theta \mathcal{L}_{\tau_i}^{(0)}(f_\theta)}) & \\ \theta &\leftarrow \theta – \beta abla_{\theta} \sum_{\tau_i \sim p(\tau)} \mathcal{L}_{\tau_i}^{(1)} (f_{\theta – \alpha abla_\theta \mathcal{L}_{\tau_i}^{(0)}(f_\theta)}) & \scriptstyle{\text{; updating rule}} \end{aligned} $$ 그림 13. MAML algorithm의 일반적인 형태 (출처 : 논문) First-Order MAML (FOMAML) 위에서 설명한 meta-optimization step은 second derivative의 영향을 많이 받는다. 미분을 두번 해야 하기 때문에 computation power가 많이 필요한데 이를 줄이기 위해서, MAML의 수정된 형태는 second derivative를 생략하고, 조금더 더 간단하고, cost가 많이 필요하지 않는 형태로 제시되었는데, 이를 First-Order MAML (FOMAML)이라고 한다. 우선 \(k\)개 (\(k \ge 1\)) 의 inner gradient step 과정을 생각해보자. 초기 model parameter를 \(\theta_{\text{meta}}\)라고 지정했을 때, \(k\) step까지의 parameter update는 다음과 같이 표현할 수 있다. $$ \begin{aligned} \theta_0 &= \theta_\text{meta}\\ \theta_1 &= \theta_0 – \alpha abla_\theta\mathcal{L}^{(0)}(\theta_0)\\ \theta_2 &= \theta_1 – \alpha abla_\theta\mathcal{L}^{(0)}(\theta_1)\\ &\dots\\ \theta_k &= \theta_{k-1} – \alpha abla_\theta\mathcal{L}^{(0)}(\theta_{k-1}) \end{aligned} $$ 그러면 outer loop에서는 meta-objective를 update하기 위한 새로운 data batch를 sampling할 수 있다. $$ \begin{aligned} \theta_\text{meta} &\leftarrow \theta_\text{meta} – \beta g_\text{MAML} & \scriptstyle{\text{; update for meta-objective}} \\[2mm] \text{where } g_\text{MAML} &= abla_{\theta} \mathcal{L}^{(1)}(\theta_k) &\\[2mm] &= abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot ( abla_{\theta_{k-1}} \theta_k) \dots ( abla_{\theta_0} \theta_1) \cdot ( abla_{\theta} \theta_0) & \scriptstyle{\text{; following the chain rule}} \\ &= abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k abla_{\theta_{i-1}} \theta_i & \\ &= abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k abla_{\theta_{i-1}} (\theta_{i-1} – \alpha abla_\theta\mathcal{L}^{(0)}(\theta_{i-1})) & \\ &= abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k (I – \alpha abla_{\theta_{i-1}}( abla_\theta\mathcal{L}^{(0)}(\theta_{i-1}))) & \end{aligned} $$ 이때 MAML의 gradient는 다음과 같다. $$ g_\text{MAML} = abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) \cdot \prod_{i=1}^k (I – \alpha \color{red}{ abla_{\theta_{i-1}}( abla_\theta\mathcal{L}^{(0)}(\theta_{i-1}))}) $$ First-Order MAML은 위 식의 빨간색으로 표현된 second derivative term을 무시한다. 이를 통해서 결국 마지막 inner gradient update 결과에 대한 derivative와 같은 형태로 축약되는 것을 확인할 수 있다. $$ g_\text{FOMAML} = abla_{\theta_k} \mathcal{L}^{(1)}(\theta_k) $$ Reptile Reptile (Nichol, Achiam& Schulman, 2018)은 정말 놀라울 정도로 매우 간단한 meta-learning optimization algorithm이다. MAML과 이 algorithm 모두 gradient descent를 통해서 meta-optimization을 수행하고, model-agnostic 하다는 점에서 상당수 유사한 부분이 있다. Reptile은 다음 과정을 반복적으로 수행한다. Task를 samling한다. Multiple Gradient Descent step을 통해 task를 학습한다. 새로운 parameter를 얻을 수 있게끔 model weight를 움직인다. 아래 알고리즘을 한번 살펴보자. 그림 14. Reptile Algorithm의 batch 형태 (출처 : 논문) 여기서 \(\text{SGD}(\mathcal{L}_{\tau_i}, \theta, k) \)는 initial parameter \(\theta\)를 가진 상태에서 Loss \(\mathcal{L}_{\tau_i}\) 에 대한 \(k\) step 동안의 stochastic gradient descent를 수행하고, output으로 final parameter vector를 내보낸다. 그러면 위와 같은 batch 형태는 매 iteration마다 하나가 아닌 여러 task를 sampling한다. 그러면 repile gradient는 \( (\theta – W) / \alpha \)라고 정의할 수 있는데, 이때 \(\alpha\)는 SGD 수행시 사용되는 stepsize를 말한다. 한눈에 보면, 위의 algorithm은 평범한 SGD와 많이 유사하다는 것을 알 수 있다. 하지만, task-specific optimization이 one step 보다 더 걸릴 수 있기 때문에, \(k = 1\)인 상태에서는 \( \mathbb{E}_\tau [\text{SGD}(\mathcal{L}_{\tau}, \theta, k)] \)를 \( \mathbb{E}_\tau [\text{SGD}(\mathcal{L}_{\tau}, \theta, k)] \) 로 바꿀수 있게 된다. The Optimization Assumption 어떤 task \(\tau \sim p(\tau) \)가 다양한(manifold) optimal network configuration \(\mathcal{W}_{\tau}^*\)를 가지고 있다고 가정해보자. 그러면 현재의 model \(f_{\theta}\)은 \(\theta\)가 \(\mathcal{W}_{\tau}^*\) 에 놓여있을때, task \(\tau\)에 대해서 최고의 성능을 얻을 수 있을 것이다. 그럼 task 전반적으로 잘 동작하는 solution을 찾기 위해서, 일단 모든 task에 대해서 optimal manifold에 가까운 parameter를 찾아야 할 것이다. $$ \theta^* = \arg\min_\theta \mathbb{E}_{\tau \sim p(\tau)} [\frac{1}{2} \text{dist}(\theta, \mathcal{W}_\tau^*)^2] $$ 그림 15. Reptile Algorithm이 다른 task에 대해서 optimal manifold에 가까워지기 위해서 parameter를 update하는 과정 ( 출처 : 논문 ) 이제 L2 distance를 사용할텐데 수식상으로는 \(\text{dist}(\dot)\)라고 할 것이고, 기본 전제로 \(\theta\)라는 점과 특정 weight set \( \mathcal{W}_\tau^* \) 사이의 거리는 \(\theta\)와 \(\theta\)와 가장 가까운 manifold상의 점인 \( W_{\tau}^*(\theta) \) 간의 거리가 같다는 가정을 할 것이다. $$ \text{dist}(\theta, \mathcal{W}_{\tau}^*) = \text{dist}(\theta, W_{\tau}^*(\theta)) \text{, where }W_{\tau}^*(\theta) = \arg\min_{W\in\mathcal{W}_{\tau}^*} \text{dist}(\theta, W) $$ 그러면 squared L2 distance (euclidean distance)에 대한 gradient는 다음과 같다. $$ \begin{aligned} abla_\theta[\frac{1}{2}\text{dist}(\theta, \mathcal{W}_{\tau_i}^*)^2] &= abla_\theta[\frac{1}{2}\text{dist}(\theta, W_{\tau_i}^*(\theta))^2] & \\ &= abla_\theta[\frac{1}{2}(\theta – W_{\tau_i}^*(\theta))^2] & \\ &= \theta – W_{\tau_i}^*(\theta) & \scriptstyle{\text{; See notes.}} \end{aligned} $$ Notes : Reptile 논문에 따르면 ” \(\theta\)와 \(S\)간의 squared euclidean distance의 gradient는 \(2(\theta – p)\)라고 표현할 수 있고, 이때 \(p\)는 \(\theta\)와 가장 가까운 S상의 점이다” 라고 표현되어 있다. 엄밀히 말해서는 S상의 가장 가까운 점도 \(\theta\)에 대한 함수이기 때문에, 원저자는 이 gradient수식이 p의 derivative와 상관이 없는지에 대해서 의문을 가지고 있다. (혹시 이에 대해서 생각이 있으면 원저자에게 메일을 보내면 좋을거 같다.) 결국 한 stochastic gradient step에 대한 update는 다음과 같이 진행된다. $$ \theta = \theta – \alpha abla_\theta[\frac{1}{2} \text{dist}(\theta, \mathcal{W}_{\tau_i}^*)^2] = \theta – \alpha(\theta – W_{\tau_i}^*(\theta)) = (1-\alpha)\theta + \alpha W_{\tau_i}^*(\theta) $$ 그래서 optimal task manifold \( W_{\tau_i}^*(\theta)\)에 대한 가장 가까운 점은 정확하게 계산할 수는 없지만, Reptile algorithm은 \( \text{SGD}(\mathcal{L}_\tau, \theta, k) \)을 사용해서 그나마 가까운 점을 근사할 수 있다. Reptile vs FOMAML Reptile과 MAML간의 관계를 확인해보기 위해서, \(\text{SGD}(\dot)\)상에서 두 개의 gradient step를 update하는 과정 (\(k=2\))을 한번 살펴보자. 참고로 MAML에서 정의한대로 \(\mathcal{L}^{(0)}\)와 \(\mathcal{L}^{(1)}\)은 서로 다른 mini-batch에서 뽑은 data에 대한 loss이다. 수식의 가독성을 위해서 Loss에 대한 gradient를 각각 다음과 같이 표기했다. (\( g^{(i)}_j = abla_{\theta} \mathcal{L}^{(i)}(\theta_j), H^{(i)}_j = abla^2_{\theta} \mathcal{L}^{(i)}(\theta_j) \)) 그러면 위 식에 따른 \(\theta\)에 대한 update는 다음과 같다. $$ \begin{aligned} \theta_0 &= \theta_\text{meta}\\ \theta_1 &= \theta_0 – \alpha abla_\theta\mathcal{L}^{(0)}(\theta_0)= \theta_0 – \alpha g^{(0)}_0 \\ \theta_2 &= \theta_1 – \alpha abla_\theta\mathcal{L}^{(1)}(\theta_1) = \theta_0 – \alpha g^{(0)}_0 – \alpha g^{(1)}_1 \end{aligned} $$ FOMAML에서 설명한 바에 따르면, FOMAML의 gradient는 마지막으로 수행한 inner gradient update의 결과라고 했었다. 그렇기 때문에 \(k=1\)이면 다음과 같이 gradient를 계산할 수 있다. $$ \begin{aligned} g_\text{FOMAML} &= abla_{\theta_1} \mathcal{L}^{(1)}(\theta_1) = g^{(1)}_1 \\ g_\text{MAML} &= abla_{\theta_1} \mathcal{L}^{(1)}(\theta_1) \cdot (I – \alpha abla^2_{\theta} \mathcal{L}^{(0)}(\theta_0)) = g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1 \end{aligned} $$ 그리고 Reptile에 대한 gradient는 다음과 같이 정의된다. $$ g_\text{Reptile} = (\theta_0 – \theta_2) / \alpha = g^{(0)}_0 + g^{(1)}_1 $$ 이제 Reptile과 FOMAML의 gradient update 과정을 도식화하면 아래와 같다. 그림 16. Meta-optimization을 한번 수행할 때, Reptile과 FOMAML간의 차이 (출처 : 이윤호 교수님 slide) 앞의 수식을 요약하면, 우리는 MAML과 FOMAML, Reptile에 대한 gradient을 구할 수 있었다. $$ \begin{aligned} g_\text{FOMAML} &= g^{(1)}_1 \\ g_\text{MAML} &= g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1 \\ g_\text{Reptile} &= g^{(0)}_0 + g^{(1)}_1 \end{aligned} $$ 이제 Taylor expansion을 사용해서 \(g_1^{(1)}\)을 풀어볼 수 있다. \(a\)에서 미분가능한 function \(f(x)\)의 Taylor expansion을 다시 살펴보면 다음과 같다. $$ f(x) = f(a) + \frac{f'(a)}{1!}(x-a) + \frac{f”(a)}{2!}(x-a)^2 + \dots = \sum_{i=0}^\infty \frac{f^{(i)}(a)}{i!}(x-a)^i $$ 여기서 \( abla_{\theta}\mathcal{L}^{(1)}(\dot)\)을 하나의 함수로 간주하고, \(\theta_0\)를 어떤 특정값이라고 해보면 해당 특정값 \(\theta_0\)에 대한 \(g_1^{(1)}\)의 Taylor expansion을 다음과 같이 전개할 수 있다. $$ \begin{aligned} g_1^{(1)} &= abla_{\theta}\mathcal{L}^{(1)}(\theta_1) \\ &= abla_{\theta}\mathcal{L}^{(1)}(\theta_0) + abla^2_\theta\mathcal{L}^{(1)}(\theta_0)(\theta_1 – \theta_0) + \frac{1}{2} abla^3_\theta\mathcal{L}^{(1)}(\theta_0)(\theta_1 – \theta_0)^2 + \dots & \\ &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + \frac{\alpha^2}{2} abla^3_\theta\mathcal{L}^{(1)}(\theta_0) (g_0^{(0)})^2 + \dots & \scriptstyle{\text{; because }\theta_1-\theta_0=-\alpha g_0^{(0)}} \\ &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2) \end{aligned} $$ (참고로 \(O(\alpha^2)\)은 taylor expansion의 뒷부분을 Complexity 관점에서 축약한 것이다.) 위에서 구한 확장된 형태의 \(g_1^{(1)}\)을 앞에서 언급한 one-step inner gradient update시의 MAML gradient에 대입해보면 아래와 같다. $$ \begin{aligned} g_\text{FOMAML} &= g^{(1)}_1 = g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\ g_\text{MAML} &= g^{(1)}_1 – \alpha H^{(0)}_0 g^{(1)}_1 \\ &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2) – \alpha H^{(0)}_0 (g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2))\\ &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + \alpha^2 \alpha H^{(0)}_0 H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\ &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + O(\alpha^2) \end{aligned} $$ 그리고 Reptile Gradient는 다음과 같이 된다. $$ \begin{aligned} g_\text{Reptile} &= g^{(0)}_0 + g^{(1)}_1 \\ &= g^{(0)}_0 + g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2) \end{aligned} $$ 정리해보면 각 gradient는 이렇게 된다. $$ \begin{aligned} g_\text{FOMAML} &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2)\\ g_\text{MAML} &= g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} – \alpha H^{(0)}_0 g_0^{(1)} + O(\alpha^2)\\ g_\text{Reptile} &= g^{(0)}_0 + g_0^{(1)} – \alpha H^{(1)}_0 g_0^{(0)} + O(\alpha^2) \end{aligned} $$ Training시 multiple data batch에 대해서 보통 평균을 취하게 된다. 위에서 다룬 예제에서는 id=0인 mini-batch data와 id=1인 mini-batch 는 Random하게 뽑아낸 data이기 때문에 서로 교환이 가능하다. 이에 대한 expectation \(\mathbb{E}_{\tau,0,1} \)는 현재의 task \(\tau\)에 대한 두개의 data batch의 평균을 취한 것이다. 이제 다음과 같이 내용을 전개할 것이다. \(A = \mathbb{E}_{\tau, 0, 1}[g_0^{(0)}] = \mathbb{E}{\tau, 0, 1}[g_0^{(1)}]\) – A는 task loss에 대한 average gradient이다. 이렇게 A가 가리킨 방향을 따라감으로써 task performance를 향상시킬 수 있도록 model parameter를 개선시키기를 원하는 것이다. – A는 task loss에 대한 average gradient이다. 이렇게 A가 가리킨 방향을 따라감으로써 task performance를 향상시킬 수 있도록 model parameter를 개선시키기를 원하는 것이다. \(B = \mathbb{E}_{\tau, 0, 1}[H^{(1)}_0, g^{(0)}_0] = \frac{1}{2}\mathbb{E}_{\tau, 0, 1}[H^{(1)}_0, g^{(0)}_1 + H^{(0)}_0 g^{(1)}_0] = \frac{1}{2} \mathbb{E}_{\tau, 0, 1}[ abla_{\theta} (g^{(0)}_0 g^{(1)}_0)] \) – B는 같은 task에 대해서 두개의 다른 mini-batch에 대한 gradient의 inner product를 증가시킬 수 있는 gradient(방향)를 나타낸다. 이를 통해서 B가 가리킨 방향을 따라감으로써 또다른 data에 대한 generalization이 잘 이뤄질 수 있도록 model parameter를 개선시키기를 원하는 것이다. 결론을 내자면, MAML과 Reptile 모두 같은 goal을 가지고 optimize하는 것을 지향하며, gradient update가 아래의 세개의 항으로 근사됬을 때, (A에 의해서) 좋은 task performance를 낼수 있고, (B에 의해서) 좋은 generalization을 보여줄 수 있다. $$ \begin{aligned} \mathbb{E}_{\tau,1,2}[g_\text{FOMAML}] &= A – \alpha B + O(\alpha^2)\\ \mathbb{E}_{\tau,1,2}[g_\text{MAML}] &= A – 2\alpha B + O(\alpha^2)\\ \mathbb{E}_{\tau,1,2}[g_\text{Reptile}] &= 2A – \alpha B + O(\alpha^2) \end{aligned} $$ 사실 원저자 관점에서는 위의 식 중 생략된 항인 \(O(\alpha^2)\)이 parameter learning시 큰 영향을 줄 수 있다고 생각하는 것 같다. 하지만 위에서 설명한 대로 FOMAML이 완전한 MAML과 비교했을때 거의 비슷한 성능을 낼 수 있는 것처럼, gradient descent를 update할 때는 higher-level derivative는 그렇게 중요하지 않는 것처럼 보인다. 해당 포스트 글을 논문에 인용하려면 다음 bibtex를 참고하고, 포스트와 관련해서 오류나 문제가 발생하면 댓글이나 원저자 (lilian dot wengweng at gmail dot com), 혹은 역자(kcsgoodboy at gmail dot dom) 에게 문의해주시면 감사하겠습니다. @article{weng2018metalearning, title = “Meta-Learning: Learning to Learn Fast”, author = “Weng, Lilian”, journal = “lilianweng.github.io/lil-log”, year = “2018”, url = “http://lilianweng.github.io/lil-log/2018/11/29/meta-learning.html” }

Meta Learning

학습하는 과정을 학습하다. Meta learning은 현재 AI에서 가장 유망하고 트렌디한 연구분야로 AGI(Artificial General Intelligence) 로 나아갈 수 있는 매우 중요한 디딤돌이라고 볼 수 있다. AGI란 ‘일반 인공지능’, ‘범용 인공지능’으로 불리는데 이는 AI의 다음 단계를 말한다. 기본적으로 AI는 수학 계산의 연장선으로 한정된 환경에서만 가치가 있다. 그 유명한 알파고마저도 단순히 바둑에서만 데이터를 분석하고 최선의 결과를 제시할 뿐 다른 분야에서는 전혀 사용할 수 없는 소프트웨어다. 반면, AGI는 일반적인 사고와 행동을 할 수 있는 인공지능으로 쉽게 말하면 ‘보다 사람에 가까운 인공지능’이라고 할 수 있다. ​ 현재 딥 러닝의 실체 AI의 한계를 돌파할 수 있는 주요 돌파구인 메타 러닝에 대해 알아보기 전에 현재 AI, 머신 러닝, 딥 러닝이라고 불리는 것들은 어떻게 작동하는지 알아보자. 이것들을 앞으로는 딥 러닝으로 뭉뚱그려 부르겠다. 딥 러닝을 완성하기 위해서는 데이터와 모델이 필요하다. 수많은 데이터를 가공하여 모델에 넣으면 모델에서 이 데이터를 이용해 결과를 도출한다. 수년 동안 딥 러닝은 훌륭한 모델들의 개발로 빠르게 발전했지만 큰 문제점이 있는데 바로 이 ‘수많은 데이터’이다. 딥 러닝 모델을 학습하기 위해서는 엄청나게 많은 데이터가 필요하다. 또 다른 문제점이 있는데 A라는 task를 수행할 수 있도록 모델을 훈련시켰다고 가정하자. Task A는 가죽 지갑과 천 지갑을 비교하는 task이다. 하지만 비슷한 또 다른 task B는 가죽 장갑과 천 장갑을 비교하는 일인데 기존의 task A를 훈련한 모델로는 이러한 task를 수행할 수 없다. 이것들이 과연 진정한 AI라고 할 수 있을까? 사람은 단 몇 장의 사진만 가지고도 가죽 지갑과 천 지갑을 구분할 수 있고, 이를 통해 가죽 장갑과 천 장갑도 구분해 낼 수 있다. 사람은 몇 번의 학습만으로도 여러 개의 개념들을 학습할 수 있지만, 기존의 딥 러닝 알고리즘은 그러지 못하고 단 하나의 task만 수행한다. 이것이 메타 러닝이 탄생하게 된 이유이다. ​ 메타 러닝이란? 메타 러닝은 적은 데이터로 모델을 훈련하면 관련 task를 모두 수행할 수 있다. Task A만 훈련시키면 task B는 추가적인 훈련 없이도 바로 구분해낼 수 있는 모델이 탄생하는 것이다. 현재 AI 연구자들은 이러한 메타러닝이 AGI를 달성하는데 큰 도움이 될 것으로 기대하고 있다. ​ 메타 러닝과 퓨 샷, Meta learning and few-shot 적은 데이터로 훈련을 하는 것을 퓨 샷 러닝( few-shot learning ) 혹은 n-way k-shot learning 이라고 부른다. 이때 n은 클래스의 개수고, k는 각 클래스당 필요한 데이터를 의미한다. 예를 들어 강아지와 고양이를 구분하는 모델을 만들고자 하는데 강아지와 고양이 사진이 각각 1장씩 있으면 2-way 1-shot learning이 되는 것이고 각각 5장씩 있다면 2-way 5-shot learning이 되는 것이다. 메타 러닝에서는 데이터 셋(Dataset)을 서포트 세트(support set) 과 쿼리 세트(query set) 으로 나누어 부른다. 둘 다 같은 종류의 데이터 셋이지만, 서로 다른 데이터를 가지고 있어야 한다. 우리는 서포트 셋을 이용해 train 하고 쿼리 셋을 이용해 test를 진행한다. 그리고 train을 할 때 한 epoch에서 episode라는 단어를 사용하는데 episode란 n-way k-shot model 일 때 n 개의 class 당 k 개의 데이터로 구성된 하나의 데이터 셋을 말한다. 하나의 episode에 n-way k-shot이 구성되는 방법, © kakaobrain 메타 러닝은 크게 3 가지로 카테고리를 나눌 수 있고, 그 카테고리는 아래와 같다. 1. Learning the metric space 2. Learning the initializations 3. Learning the optimizer ​ 1. Learning the metric space 두 이미지의 특징을 한 공간에 나타내고 거리를 통해 similarity를 계산하는 방식이다. 같은 이미지면 거리가 가깝게, 다른 이미지면 거리를 멀게 하는 방식으로 이미지를 classification 한다. 아래 사진처럼 훈련이 끝나면 비슷한 사진끼리 가깝게 모이는 것을 알 수 있다. 학습하기 전과 후 거리 차이, ©kakaobrain 거리 기반의 학습을 하는 알고리즘은 siamese networks, prototypical networks, relation networks 등이 있다. ​ 2. learning the initializations 최적의 초기 파라미터 값을 설정하는 것을 배우는 방법이다. 모델을 학습하기 위해서는 모델을 구축하고 weight을 초기화한 다음에 loss를 계산하고 gradient descent를 통해 loss를 최소화한다. 이 과정에서 weight을 초기화할 때 보통 랜덤하게 값을 넣어 초기화해주지만 랜덤 값을 사용하지 않고 최적화된 initial weight을 찾아서 이 값을 weight의 초깃값으로 세팅해 준다면 더 빠르게 학습하고 학습 결과도 더 좋은 결과를 얻을 수 있을 것이다. Optimal initial weight을 찾는 알고리즘은 MAML, Reptile, Meta-SGD 등이 있다. ​ 3. Learning optimizer Optimizer를 학습하도록 만든다. 우리는 neural network를 많은 데이터 셋을 훈련시키고 gradient descent로 loss를 최소화하는 방향으로 모델을 최적화한다. 하지만, few shot learning은 적은 데이터 셋을 사용하기 때문에 이러한 방법이 효과적으로 작동하지 못한다. 따라서 optimizer가 스스로 학습할 수 있도록 한다. Base network와 Meta network 두 가지를 사용해서 Base network는 실제로 맡은 업무를 train 하고 meta network는 base network를 optimize 하도록 역할을 구성한다. Learning to learn gradient descent by gradient descent Learning to learn gradient descent by gradient descent는 메타러닝의 알고리즘을 부르는 말이다. 메타러닝의 목표는 `To learn the learning process’이다. 일반적으로 모델을 학습할 때 gradient descent를 통해 loss를 최적화하는 방향으로 모델을 학습한다. 결과적으로 보통 모델을 optimize 하는 것은 gradient descent를 이용해서 하는데 gradient descent를 사용하는 대신 자동적으로 이러한 process를 optimization 하도록 설계한다. 어떻게 이게 가능할까? Traditional optimizer인 gradient descent 대 신 그 자리에 RNN(Recurrent Neural Network)를 넣어준다. 그리고 RNN을 optimization 하기 위해 gradient descent를 사용한다. 이해하기 조금 어려울 수 있지만, model을 RNN을 통해 optimize 하고 RNN은 gradient descent를 통해 optimize 한다. 즉, 우리는 RNN을 통해 gradient descent 하는 방법을 학습하고 RNN은 gradient descent를 통해 optimized 된다. 이것이 메타 러닝이 learning to learn gradient descent by gradient descent라고 불리는 이유이다. Learning to learn gradient descent by gradient descent 모형도 RNN을 optimizer로, base network를 optimizee라고 부르고, 모델 f는 파라미터 θ로 parameterized 된다고 가정한다. 목적은 최적화된 파라미터 θ를 찾는 것이다. 따라서 optimizer(RNN)은 최적화된 파라미터θ를 찾고 이것을 optimizee에게 넘겨준다. 그러면 optimizee(base network)는 이 파라미터θ를 통해 loss를 계산하고 이 loss를 다시 optimizer(RNN)으로 넘겨준다. RNN은 loss를 gradient descent를 통해 최적화하고 이 값을 다시 optimizee(base network)로 넘겨주는 방식이다. Optimizee(base network)는 θ로 parameterized 되어 있고 optimizer(RNN)은 Φ로 parameterized되어 있다고 할 때 optimizer의 loss function은 아래와 같다. $L(Φ)=E_f[f(Θ(f,Φ))]$L(Φ)=Ef​[f(Θ(f,Φ))]​ 그리고 loss를 최적화하는 방법은 gradient descent를 통해 최적화된 Φ를 찾는다. 때라서 RNN을 function으로 나타내어 보면 $(g_t,h_{t+1})=m(∇_t,\ h_t,\ Φ)$(gt​,ht+1​)=m(∇t​, ht​, Φ)​ 라고 할 수 있다. 출처 : packt, hands on Meta learning with python 결국 optimizee의 파라미터 값을 $θ_{t+1}=θ_t+g_t$θt+1​=θt​+gt​​ 로 업데이트한다. Learning to learn gradient descent by gradient descent 흐름도, © packt 이러한 방식으로 gradient descent를 이용한 gradient descent 최적화 방식을 학습할 수 있다. ​ Reference Packt, Hands-On meta learning with python https://www.kakaobrain.com/blog/106

So you have finished reading the meta learning 설명 topic article, if you find this article useful, please share it. Thank you very much. See more: Meta-learning tutorial, 메타러닝 논문, MAML 리뷰, Meta-learning episode, MAML 설명, Meta-Learning GitHub, Meta-reinforcement learning, Matching Network 설명

CS330-Stanford-Meta-Learning – 메타러닝(Meta Learning)이란? 메타러닝 문제 정의와 설명, 적용

안녕하세요 모카의 머신러닝 입니다. 이번 포스팅에서는 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 리뷰와 정리에 대해서 이야기 합니다. [lecture website] [lecture slide]

Deep Multi-Task and Meta-Learning

주제

문제 정의 멀티 태스크 러닝 기초 메타 러닝 알고리즘: 블랙박스 접근법, 최적화 기반 메타 러닝, metric learning 계층적 베이지안 모델과 메타 러닝 멀티 태스크 강화학습, goal-conditioned 강화학습, 계층 강화학습 메타 강화학습 열린 문제들, 초대 강의들, 연구 이야기

이 분야들을 딥러닝, 강화학습 분야를 강조하고 있습니다.

다루지 않을 주제들

강의의 시간 관계상 모든 분야를 다 커버할 수가 없어서, Auto ML topics를 커버하지 않는다고 합니다.

architecture search

hyperparameter optimization

learning optimizers

이 분야들은 딥러닝 분야의 접근법을 강조하는 분야입니다.

Course Format

3가지 종류의 세션이 있습니다.

lecture (9)

student reading: presentations & discussions (7)

guest lectures (3)

연구 분야

Chelsea Finn 교수님의 연구 분야와, 왜 multi-task learning과 meta-learning에 관심을 가지는지 설명합니다.

어떻게 우리는 에이전트가 실제 환경에서 스킬을 배우도록 할 수 있을까?

교수님은 다음과 같이 로봇에 대한 여러 연구들을 하셨습니다.

왜 로봇인가?

로봇은 지능에 대한 것들을 우리에게 가르쳐준다! 그리고 아래와 같은 이유들이 있습니다.

로봇은

현실 문제에 직면해 있고

할 일, 목적, 환경 등에 반드시 일반화 되어야 하고

감독이 주어지지 않을 때 잘 할 수 있는 일반적인 상식을 이해하기

가 필요하기 때문입니다.

박사 처음 시절

교수님의 박사를 하실 때 로봇을 활용한 연구 프로젝트를 진행하셨다고 합니다.

처음에 로봇은 눈이 없는 상태로 비행기 장난감을 조립하는 문제에 대해 학습했다고 합니다.

나중에 눈이 필요한 비전 문제에 관심이 가게 되었다고 합니다.

동그라미, 네모 모양의 교구를 조립하는 일, 텀블러 뚜겅을 닫는일, 물건을 옮기는 일 등 입니다.

한 가지를 학습 하는 일

한가지를 학습하는 일은 하나의 환경에서 처음부터 시작해서 학습하는 것입니다.

하지만 예전에 동료가 로봇이 하키를 하는 문제를 학습하기 위해, 로봇이 퍽을 한번 칠 때 사람이 다시 퍽을 원 위치로 되돌리면서, 자신이 더 많이 움직인 일화를 말해주면서 이러한 방법은 효율적이지는 않다고 설명합니다.

앞서 설명한 부분에 덧붙입니다.

한 가지를 학습하는 일은 하나의 환경에서 처음부터 시작해서 학습하면서 자세한 감독이나 가이드에 의존하는 일읍니다.

이것은 강화학습과 로보틱스 문제에 국한되는 일은 아닙니다.

Machine translation, speech recognition, object detection 과 같이 다양한 문제들이 아직도 하나의 문제를 시작부터 디테일한 감독과 함께 학습된다고 합니다.

하지만 사람은 제네럴리스트 입니다!

왜 우리는 deep multi-task & meta-learning에 관심을 가져야 할까요?

Why shoud we care about deep multi-task & meta-learning?

beyond the robots and general-purpose ML systems

기존의 컴퓨터 비전: 직접 설계된 특징들을 사용함

현대의 컴퓨터 비전: end-to-end 학습

딥러닝은 정제되지 않은 입력들을 (픽셀, 언어, 센서에서 읽은 값 등) 직접 설계된 특징들들을 사용하지 않고, 도메인 지식을 적제 사용해서 다룰 수 있게 해주었습니다.

객체 인식을 위한 딥러닝 예시

머신 번역을 위한 딥러닝 예시

하지만 왜 deep multi-task learning 과 meta-learning 일까요?

큰 데이터셋을 가지고 있지 않으면 어떨까요?

-> 각각의 질병, 각각의 로봇, 각각의 사람, 각각의 언어, 각각의 task를 위해 처음부터 스크래치로 학습하는 것은 실용적이지 않다.

가지고 있는 데이터가 long tail (아래 그래프와 같은 모습)이면 어떨까요?

-> 이런 셋팅은 기존의 머신러닝의 패러다임을 부쉰다.

새로운 것을 빨리 배울 필요가 있으면 어떨까요?

-> 새로운 사람, 새로운 일이나, 새로운 환경 등에 대해서

잠깐 예시로 쉬어가기

test datapoint에 있는 그림이 Braque의 그림이라고 생각하시나요 Cezanne의 그림이라고 생각하시나요?

이렇게 적은 수의 그림 (training data)만 보고 test datapoint를 예측하는 것이 few-shot learning 이라고 합니다.

이것을 어떻게 수행할 수 있을까요? 사전 지식을 활용하면서 할 수 있습니다!

multi-task learning 적용할 수 있는 곳

일반적인 목적의 AI 시스템을 원하면 어떨까?

큰 데이터셋을 가지고 있지 않으면 어떨까?

데이터가 long tail을 가지고 있으면 어떨까?

새로운 것을 빨리 배워야 한다면 어떨까?

이것들이 multi-task learning을 적용할 수 있는 곳 들입니다!

task란 무엇인가?

이제부터 task는 데이터셋과 loss function 이 주어졌을 때 최적의 모델을 찾는 것이라고 합니다.

중요한 가정

나쁜 소식

다른 task들은 몇가지 구조를 공유해야 합니다.

만약 이것이 되지 않는다면, single-task learning을 학습하는 것이 더 좋을 것 입니다.

좋은 소식

구조를 공유하는 많은 task들이 있습니다!

task들이 연관되지 않아 보일지라도

실제 데이터는 물리 법칙에 의존한다.

사람들은 각자의 의사가 있는 유기체들이다. 각자 의견이 다르기도 하고 같기도 하다.

영어 언어 데이터는 영어의 법칙에 의존한다.

언어들은 비슷한 목적을 위해 개발되었다.

이러한 것들이 랜덤 task들 보다 더 좋은 구조를 이끈다고 합니다.

비공식적인 문제 정의

더 공식적인 정의는 다음 lecture 시간에 한다고 합니다.

정확한 설명을 위해서 영어 설명을 같이 첨부합니다.

멀티 태스킹 러닝 문제

모든 task들을 각각 독립적으로 학습하는 것 보다 더 빨리 또는 더 효율적으로 학습합니다.

메타 러닝 문제

이전 task들에 대한 데이터나 경험이 주어졌을 때, 새로운 task를 더 빨리 그리고/또는 더 효율적으로 학습합니다.

멀티 태스크 러닝을 싱글 태스크 러닝으로 줄일 수 있을까?

할 수 있습니다!

task들 간에 데이터를 aggregating 하거나 단일 모델을 학습하는 것은 멀티 태스크 러닝의 한 가지 접근법 중 하나이다.

하지만, 더 잘 할 수 있습니다!

다른 task들로부터 데이터가 올 것을 알고 있다. 싱글 태스크 러닝을 할 수 도 있지만 멀티 태스크 러닝을 해야할 필요가 있다는 의미이다.

왜 지금 deep multi-task & meta learning을 배워야 하나요?

멀티 태스크 러닝과 메타 러닝은 사실상 머신러닝 연구분야에서 이전부터 지속되어 근본적인 역할을 하는 알고리즘 입니다.

머신러닝과 딥러닝이 발전하면서, 멀티 태스크 러닝과 메타 러닝의 역할은 증가하고 있습니다.

구글 검색 쿼리에서 메타 러닝과 멀티 태스크 러닝의 수가 증가한 모습입니다.

멀티 태스크 러닝과 메타 러닝의 성공은 딥러닝을 보급하는데 중요한 역할을 합니다.

이전에는 120만개의 이미지와 라벨들을 사용하고, 4080만개의 문장의 쌍을 사용하고, 300 시간의 라벨이 된 데이터를 상용했습니다.

최근에는 3만 5000천개의 라벨된 이미지들, 1시간 이하, 15분 이하의 데이터를 사용합니다. 더 적은 수의 데이터를 학습 하는데에 멀티 태스크 러닝과 메타 러닝을 적용할 수 있습니다.

여기까지 Stanford Chelsea Finn 교수님의 Deep Multi-Task and Meta Learning 강의 Lecture 1에 대한 리뷰와 정리에 대한 설명을 해보았습니다. 질문이나 지적, 요청해주실 부분이 있다면 댓글이나 메일 부탁드립니다.

읽어주셔서 감사합니다. 😃

Multi-task learning & Meta-learning

이번 글은 Multi-task learning과 Meta-learning 알고리즘 비교와 특징을 비교하여 설명한다.

Multi-task learning은 처음 딥러닝을 공부할 때부터 많이 들어온 알고리즘이다. 알고리즘의 목적은 여러 task를 함께 풀어내어 좋은 성능을 내는 것이다. 여러 task를 함께 학습하여 general 한 feature를 뽑게 하여 학습에 도움을 주며 한 번에 여러 개를 풀 수 있으므로 efficient 한 장점이 있다.

Meta-learning은 익숙하지 않은 경우가 많을 것 같다. 논문은 많이 나왔지만 실제 사용하여 문제를 푸는 경우는 거의 못봤기 때문인 것 같다. 알고리즘의 목적은 unseen task에 대해 few 개의 데이터를 주었을 때 그것을 빠르게 학습하도록 만드는 것이다. 사람은 이미 meta-learning이 잘 되어서 처음 보는 꽃을 하나 보여주고 여러 사진 속에서 해당 꽃을 찾아보라고 했을 때 굉장히 잘 찾는다. 하지만 neural network는 그렇지 않았다. 이런 문제를 해결하기 위해 제시된 알고리즘이다. 이 방법은 learning to learn 이라고도 불린다. 말 그대로 학습하는 것을 배워서 보지 못한 데이터를 잘 배워보자 라는 것이다.

한마디로 multi-task learning은 학습하는 task를 잘 푸는 것이 목적이라면 meta-learning은 학습하지 않은 task를 잘 푸는 것이 목적이다. 목적이 다르니 알고리즘도 많이 다르다. multi-task learning은 보통 hard parameter sharing 방법을 많이 사용한다. 그래서 fig1과 같은 구조를 가진다.

fig1

데이터로부터 shared layers에서 공통 feature를 뽑게 된다. 그리고 task specific layer를 통과하여 각 task에 대한 예측값을 inference 한다. 이때 shared-layers에서 general한 좋은 feature를 뽑아서 각 task의 데이터가 부족해도 좋은 성능을 낼 수 있길 원하는 것이다.

meta learning은 학습시 데이터를 크게 meta-train, meta-test로 나눈다. 그리고 그 안에서 다시 train set (support set), test set (query set)으로 나누어 사용한다. 이렇게 하는 이유는 training 시 few개의 train set을 보여주고 test set을 잘 맞추도록 하는 알고리즘을 사용하기 위해서다. few개의 데이터를 보여주는 것은 few-shot이라고 부른다.

대표적으로 model agnostic meta learning(MAML) 논문에서 가져온 fig2 그림을 많이 인용하여 설명한다.

fig2

MAML은 gradient-based meta learning의 대표 알고리즘이다. optimization 시 2개의 과정으로 나누어 업데이트하는 것이 특징이다. 첫 번째 과정에서 train set을 이용하여 각 task 별 업데이트를 진행하여 $\theta^{*}$ 을 얻는다. 이를 adaptation이라고 부른다. 다음으로 test set과 첫 번째 과정에서 얻은 $\theta^{*}$을 이용하여 $\theta$를 얻는다. 이를 meta-learning이라고 부른다. 이렇게 해주는 이유는 meta-test시 적은 양의 데이터를 넣어줬을 때 데이터를 잘 설명해주는 optima로 빠르게 adaptation 할 수 있는 좋은 initial point ($\theta$)를 찾기 위함이다.

최근에는 multi-task learning과 meta-learning이 사실 차이가 거의 없고 multi-task learning으로도 few-shot setting에서 좋은 성능을 보인다고 주장하는 Bridging multi-task learning and meta-learning 이라는 논문도 있다.

반응형

키워드에 대한 정보 meta learning 설명

다음은 Bing에서 meta learning 설명 주제에 대한 검색 결과입니다. 필요한 경우 더 읽을 수 있습니다.

이 기사는 인터넷의 다양한 출처에서 편집되었습니다. 이 기사가 유용했기를 바랍니다. 이 기사가 유용하다고 생각되면 공유하십시오. 매우 감사합니다!

사람들이 주제에 대해 자주 검색하는 키워드 ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편

  • 빅데이터
  • Bigdata
  • automated machine learning
  • AutoML
  • meta-learning

★논문 #세미나 #공개 #Meta-Learning #(김도형 #연구원) #1편


YouTube에서 meta learning 설명 주제의 다른 동영상 보기

주제에 대한 기사를 시청해 주셔서 감사합니다 ★논문 세미나 공개 Meta-Learning (김도형 연구원) 1편 | meta learning 설명, 이 기사가 유용하다고 생각되면 공유하십시오, 매우 감사합니다.

Leave a Reply

Your email address will not be published. Required fields are marked *