본문 바로가기
[머신러닝] 앙상블 학습 - 2) Bagging 지난 번 포스팅에서 앙상블 학습의 의미와 효과에 대해서 알아보았다. 이어서 이번 포스팅에서는 앙상블 학습 기법 중 한 종류인 Bagging에 대해서 정리하였다. 구체적으로는, 1) Bagging의 정의와 의의, 그리고 2) 모델 결합 방법에 대해서 알아본다. 본 포스팅은 고려대학교 강필성 교수님의 비즈니스 애널리틱스 강의 내용을 요약한 것이며, 해당 강의는 유튜브에서 무료로 시청이 가능하다(링크). 아래 링크들은 본 포스팅과 관련된 게시글이므로 같이 보면 이해가 더 쉬울 것이다. 1. [머신러닝] 편향-분산 분해 2. [머신러닝] 편향과 분산의 의미 3. [머신러닝] 앙상블 학습 - 1) 배경 1. Bagging 1) Bagging (Bootstrap Aggregating) 이란? Bagging이란, 기.. 2021. 6. 23.
[머신러닝] 편향-분산 분해 (Bias-Variance Decomposition) 본 작성글은 고려대학교 강필성 교수님의 비즈니스 애널리틱스 강의 내용을 바탕으로 정리한 내용이다. 해당 강의는 유튜브에서 무료로 시청이 가능하다(링크). 앙상블 학습(Ensemble Learning)에 대해 순차적으로 다룰 예정이며, 이번 게시글에는 이론적 배경이 되는 편향-분산 분해에 대하여 먼저 알아보도록 한다. 1. Additive Error Model Additive Error Model이란 데이터에 대한 가정을 의미한다. 우리에게 주어진 현실 세계의 데이터에는 데이터를 생성하는 정답 매커니즘(f(x))이 있다하더라도, 노이즈(epsilon)가 반드시 포함되어 있다는 가정이다. 노이즈란, 사람이 컨트롤 할 수 없는 자연발생적인 변동성을 의미한다. 아래 수식은 Additive Error Model를.. 2021. 5. 29.