Related to: Machine Learning

주의사항

가끔가다 모르는 수식이나 표현이 있었는데, 참조하면 좋겠다고 생각하여 가져와 한글로 정리합니다.

원문은 Shan-Hung Wu라는 분이 작성하신 자료이며 본인의 수업에서 사용하는 notation을 정리한 자료로 보입니다.

따라서 아래 기호들의 의미는 절대적인 기준이 아니므로, 이 점 유의하여 참조하여 주시기 바랍니다.

필요없다고 판단한 부분은 임의로 제외하였으니, 모든 내용을 보고 싶으신 분들은 원본 pdf를 참조하여 주시기 바랍니다.

Numbers & Arrays

: n x n 단위 행렬(identity matrix)

: diagonal matrix

: vector a의 요소를 주 대각선 요소로 하는 diagonal matrix

Indexing

: vector a의 i번째 element(1부터 indexing 했을 때)

: vector a의 i번째 element를 제외한 모든 element

: matrix A의 (i, j) element(i : row, j : column)

Functions

: 영역(domain) A와 범위(range) B를 갖는 함수 f

: 함수 f와 함수 g의 합성 함수

: 로 매개변수화 된 x의 함수(는 때때로 생략됩니다)

와 수학적으로 차이는 없으나, 중요도를 표현한 것입니다.
위 식에서 theta는 단순히 함수 f(x)를 만들기 위해 사용한 변수이며 관심있는 값은 x라고 표현해 준 것입니다.

링크를 들어가보시면 더 좋은 설명을 볼 수 있습니다.

: x의 자연로그

: Logistic sigmoid 함수

: Softplus 함수

Relu 함수에 부드럽게 근사한 함수입니다.

이 링크를 들어가보시면 더 자세한 설명을 볼 수 있습니다.

: norm of x

: x의 양수 part

: indicator 함수, condition이 true이면 x = 1, false이면 x = 0

: f를 f(x)에 mapping하는 함수

함수 f를 f(x)로 사용할 수 있도록 mapping해주는 함수입니다.
예를들어 f가 단일 element에 대한 함수라고 했을 때, vector x에 f를 사용하려면, x의 각 element에 element-wise하게 f를 각각 적용해야 합니다. 여기서 g는 이 mapping을 해주는 함수입니다.

Calculus

: 입력 a의 요소 x_i에 대한 f의 편미분

x_i에 대한 편미분이므로 차원이 유지되지 않습니다.

: 입력 a에 대한 gradient

편미분이 사용되므로 차원이 유지되지 않습니다.

Linear Algebra

: A의 Transpose matrix

: 무어-펜로즈 유사 역행렬(Moore-Penrose pseudo-inverse matrix)

: A와 B의 Element-wise 연산 = Hadamard product

: A의 Determinant

: A의 대각 합(trace) = Trace of A

: i번째 표준 기저 vector(one-hot vector) = standard basis vector

Probability & Info. Theory

: 확률 변수 a와 b는 독립

: given c에 의해 조건부로 a와 b는 독립

: 이산 확률 변수 a에 대한 확률 질량 함수

: 연속 확률 변수 a에 대한 확률 밀도 함수

: Theta로 Pameterized된 확률 분포

: 평균이 mu고 표준편차가 sigma인 gaussian 분포

: 확률변수 x는 분포는 P를 갖는다

: P에 대한 f(x)의 기대

: f(x)의 분산

: f(x)와 g(x)의 공분산

: 확률변수 x에 대한 shannon entropy

: 분포 Q로의 KL Divergence

Machine Learning

: Training set

: Training set의 크기

: 지도학습에서 Training set의 i번째 Sample pair(data & label)

: 비지도학습에서 Training set의 i번째 Sample pair(data)

: Data의 Dimension

오역의 우려되어 원문을 같이 적습니다.
원문 = Dimension of a data point

: Label의 Dimension

오역의 우려되어 원문을 같이 적습니다.
원문 = Dimension of a label

: Design matrix, X_i는 x^i를 의미합니다.

: Data 생성 분포

: 학습할 함수의 가설공간(Hypothesis space)

: F에서 f의 비용함수(loss function)

: F에서 f로 매개변수화 된 theta의 비용함수(loss function)

: testing pair

: function f에 의해 예측된 label

참조

https://nthu-datalab.github.io/ml/slides/Notation.pdf