과소적합
- 모델의 용량이 작아 오차가 클 수 밖에 없는 현상
- 비선형 모델을 사용하는 대안이 있다
- 우측 그래프로 갈수록 오차가 크게 감소
과잉적합
- 12차 다항식 곡선을 채택한다면 훈련집합에 대해서는 거의 완벽하게 근사함
- 하지만, 새로운 데이터를 예측한다면 큰 문제가 발생
- 이유는 용량이 크기 때문. 학습 과정에서 잡음까지 수용함으로서 과잉적합 현상
- 따라서 적절한 용량의 모델을 선택하는 모델 선택 작업이 필요
1차 ~ 12차 다항식 모델의 비교 관찰
- 1~2차는 훈련집합과 테스트집합 모두 낮은 성능
- 3~4차는 훈련집합에 대해 낮은 성능, 테스트집합에는 높은 성능 -> 높은 일반화 능력
- 12차는 훈련집합에 대해 높은 성능, 테스트집합에는 낮은 성능 -> 낮은 일반화 능력
훈련집합을 여러 번 수집하여 1차 ~ 12차에 적용하는 실험
- 2차는 매번 큰 오차 -> 바이어스가 큼 / 비슷한 모델을 얻음 -> 분산이 작음
- 12차는 매번 작은 오차 -> 바이어스가 작음 / 크게 다른 모델을 얻음 -> 분산이 큼
- 일반적으로 용량이 작은 모델은 바이어스는 크고 분산은 작고, 용량이 큰 모델은 바이어스가 작고 분산이 큼
- 바이어스와 분산은 트레이드오프 관계(반비례)
기계 학습의 목표
- 낮은 바이어스와 낮은 분산을 가진 예측기 제작이 목표
- 바이어스와 분산은 트레이드오프 관계(반비례)
- 따라서 바이어스 희생을 최소로 유지하며 분산을 최대로 낮추는 전략이 필요
'기계학습' 카테고리의 다른 글
[기계학습] 퍼셉트론 / 가중치 / 바이어스 / 가중합(feat. 시그모이드 함수) (0) | 2020.03.29 |
---|---|
[기계학습] 선형 회귀 와 최소 제곱법, 경사하강법(오차의 합 / 평균 제곱 오차(MSE) / 평균 제곱근 오차(RMSE) (0) | 2020.03.29 |
[기계학습] 규제(데이터 확대, 가중치 감쇠) / 기계학습의 유형 / 그라운드 트루스(Ground truth)란? (0) | 2020.03.29 |
[기계학습] 기계학습이란 무엇일까? (0) | 2020.03.17 |