Frechet Inception Distance
생성모델을 훈련시킬 때 어려운 점 중 하나는 현재의 모델이 얼마나 “진짜"같은 이미지를 만드는 지를 정량적으로 평가하는 것이다. “진짜같음"은 많은 의미를 내포하므로 수치화하기가 어려우나 학습을 위해서는, 그리고 평가를 위해서는 반드시 계량할 수 있는 방법이 필요하다. 이런 상황에서 사용할 수 있는 도구 중 하나가 Frechet Inception Distance(FID)이다.
생성모델을 훈련시킬 때 어려운 점 중 하나는 현재의 모델이 얼마나 “진짜"같은 이미지를 만드는 지를 정량적으로 평가하는 것이다. “진짜같음"은 많은 의미를 내포하므로 수치화하기가 어려우나 학습을 위해서는, 그리고 평가를 위해서는 반드시 계량할 수 있는 방법이 필요하다. 이런 상황에서 사용할 수 있는 도구 중 하나가 Frechet Inception Distance(FID)이다.
Motion capture는 모션에 대한 정보를 수집하는 것으로 어떠한 대상의 위치정보(position)와 회전정보(orientation)을 기록하는 것이다. 줄여서 mocap으로 말하기도 한다.
Binary tree의 높이를 구하는 문제이다. Tree를 class수준에서 높이를 구하는 것이 아니라 root node에 대해서만 input으로 받는다는 것이 특징이다.
Eigenvalue와 eigenvector는 행렬분해에 있어 가장 기본이 되는 개념이며 행렬의 변환을 기하학적으로 생각할 때, 공간에 대해 이해할 수 있는 토대를 제공해준다. 면접에서도 선형대수학 부분에서 꼭 알고 가야할 개념이기도 하다.
Determinant와 trace는 행렬의 특성과 선형변환의 특성을 판단하고 표현하는데 유용하게 사용되는 개념이다.
Sorting관련 알고리즘으로 이 문제를 풀기 위해서는 효율적으로 이진검색을 해야한다.
수학적 의미와는 별개로 단어가 주는 느낌 때문에 마치 회전변환은 “선형"변환이 아니라는 느낌을 받을 수 있지만 회전변환도 선형변환의 일종이다. 앞서, 선형변환의 특징 중 하나로 길이와 각도의 보존이 언급되었었는데 어떤 공간을 회전한다고해서 길이나 이루고 있는 각도가 변하지는 않을 것이므로 선형변환의 특성을 만족한다는 것도 직관적으로 생각해볼 수 있다.
머신러닝에서 다루는 데이터는 대부분 3차원 이상의 고차원데이터로, 사람이 인지할 수 있는 3차원이하의 공간으로는 데이터를 표현하기 어렵다는 문제가 있다. 하지만 데이터의 모든 정보가 중요한 경우는 많지 않다. 따라서, 필요없는 변수는 줄이고 가능한 한 중요한 정보만을 보존하는 변수를 활용하면 고차원의 데이터를 시각화가 가능한 영역까지 축소할 수 있다. 그렇다면 compression loss를 최소화하면서 중요한 정보를 보존하려면 어떻게 해야할까? 이러한 논의를 하기 위해 기초가 되는 projection에 대해 알아보자.
Imitation learning의 목적은 expert를 잘 따라하는 것이다. 이러한 방법으로 behavior cloning이나 inverse reinforcement learning과 같은 방법이 알려져있고 2016년에 generative adversarial imitation learning이라는 방법이 소개되었다.
강화학습은 주로 MDP로 문제 formulation을 한다. MDP는 discrete-time에 대한 stochastic process를 다루는 유용한 도구이다. 생각해보면, sequence modeling도 유사한 점이 있음을 알 수 있다. 이 논문에서는 sequence modeling에서 좋은 성능을 보여주며 de facto standard가 된 Transformer를 강화학습에 적용하려는 시도를 보여준다.