Related to: Machine Learning
주의사항
가끔가다 모르는 수식이나 표현이 있었는데, 참조하면 좋겠다고 생각하여 가져와 한글로 정리합니다.
원문은 Shan-Hung Wu라는 분이 작성하신 자료이며 본인의 수업에서 사용하는 notation을 정리한 자료로 보입니다.
따라서 아래 기호들의 의미는 절대적인 기준이 아니므로, 이 점 유의하여 참조하여 주시기 바랍니다.
필요없다고 판단한 부분은 임의로 제외하였으니, 모든 내용을 보고 싶으신 분들은 원본 pdf를 참조하여 주시기 바랍니다.
Numbers & Arrays
: n x n 단위 행렬(identity matrix)
: diagonal matrix
: vector a의 요소를 주 대각선 요소로 하는 diagonal matrix
Indexing
: vector a의 i번째 element(1부터 indexing 했을 때)
: vector a의 i번째 element를 제외한 모든 element
: matrix A의 (i, j) element(i : row, j : column)
Functions
: 영역(domain) A와 범위(range) B를 갖는 함수 f
: 함수 f와 함수 g의 합성 함수
: 로 매개변수화 된 x의 함수(는 때때로 생략됩니다)
와 수학적으로 차이는 없으나, 중요도를 표현한 것입니다.
위 식에서 theta는 단순히 함수 f(x)를 만들기 위해 사용한 변수이며 관심있는 값은 x라고 표현해 준 것입니다.
이
링크를 들어가보시면 더 좋은 설명을 볼 수 있습니다.
: x의 자연로그
: Logistic sigmoid 함수
: Softplus 함수
Relu 함수에 부드럽게 근사한 함수입니다.
이 링크를 들어가보시면 더 자세한 설명을 볼 수 있습니다.
: norm of x
: x의 양수 part
: indicator 함수, condition이 true이면 x = 1, false이면 x = 0
: f를 f(x)에 mapping하는 함수
함수 f를 f(x)로 사용할 수 있도록 mapping해주는 함수입니다.
예를들어 f가 단일 element에 대한 함수라고 했을 때, vector x에 f를 사용하려면, x의 각 element에 element-wise하게 f를 각각 적용해야 합니다. 여기서 g는 이 mapping을 해주는 함수입니다.
Calculus
: 입력 a의 요소 x_i에 대한 f의 편미분
x_i에 대한 편미분이므로 차원이 유지되지 않습니다.
: 입력 a에 대한 gradient
편미분이 사용되므로 차원이 유지되지 않습니다.
Linear Algebra
: A의 Transpose matrix
: 무어-펜로즈 유사 역행렬(Moore-Penrose pseudo-inverse matrix)
: A와 B의 Element-wise 연산 = Hadamard product
: A의 Determinant
: A의 대각 합(trace) = Trace of A
: i번째 표준 기저 vector(one-hot vector) = standard basis vector
Probability & Info. Theory
: 확률 변수 a와 b는 독립
: given c에 의해 조건부로 a와 b는 독립
: 이산 확률 변수 a에 대한 확률 질량 함수
: 연속 확률 변수 a에 대한 확률 밀도 함수
: Theta로 Pameterized된 확률 분포
: 평균이 mu고 표준편차가 sigma인 gaussian 분포
: 확률변수 x는 분포는 P를 갖는다
: P에 대한 f(x)의 기대
: f(x)의 분산
: f(x)와 g(x)의 공분산
: 확률변수 x에 대한 shannon entropy
: 분포 Q로의 KL Divergence
Machine Learning
: Training set
: Training set의 크기
: 지도학습에서 Training set의 i번째 Sample pair(data & label)
: 비지도학습에서 Training set의 i번째 Sample pair(data)
: Data의 Dimension
오역의 우려되어 원문을 같이 적습니다.
원문 = Dimension of a data point
: Label의 Dimension
오역의 우려되어 원문을 같이 적습니다.
원문 = Dimension of a label
: Design matrix, X_i는 x^i를 의미합니다.
: Data 생성 분포
: 학습할 함수의 가설공간(Hypothesis space)
: F에서 f의 비용함수(loss function)
: F에서 f로 매개변수화 된 theta의 비용함수(loss function)
: testing pair
: function f에 의해 예측된 label