[ 머신러닝 ]2 Regularization vs. Standardization vs. Normalization / 정규화? Regularization, Standardization, Normalization 모두 한국어로 '정규화' 이다. (Standardization은 '표준화'라고 번역되는 경우도 있다.) 이걸 통해서 최대한 영어를 쓰는 것이 필요함을 깨달았다.. 특히 Normalization과 Standardization이 가장 헷갈렸는데, 이번 기회에 한번 정리해보려고 한다. 1. Regularization 가중치 최적화를 하는 과정에서 규제 (제약)를 거는 기법으로, 오버피팅을 방지하기 위함이다. 높은 복잡도를 방지하여 모델을 적당히 fit 하도록 한다. Regularization의 예시로 L1 규제, L2 규제, Drop out, Early Stopping, Weight Decay 등이 있다. 그 중에서 L2 규제.. 2023. 6. 2. 군집화 종류 간단하게 표로 정리하기 | 모수, 비모수 | K값 결정 | 기타 파라미터 유, 무 1. 비모수 군집화는 가우시안 혼합 모델밖에 없다. 2. K-means 군집화는 몇 개의 군집으로 구분할 것인지 정한 후에 학습한다. 3. 가우시안 혼합 모델은 몇 개의 정규분포를 가지고 군집화할 것인지 정한다. 4. Mean Shift의 기타 파라미터는 'bandwidth (대역폭)' 2023. 3. 14. 이전 1 다음