앵커링을 통한 모델 일치: 독립 학습 모델의 불일치 감소 기법
본 논문은 독립적으로 학습된 두 모델 사이의 예측 차이를 제곱 오차 기준으로 정의하고, “중점 앵커링”이라는 단순한 식을 이용해 이 불일치를 이론적으로 0에 수렴하도록 제어하는 방법을 제시한다. 스태킹, 그래디언트 부스팅, 신경망 아키텍처 탐색, 깊이 제한 회귀 트리 네 가지 대표 학습 알고리즘에 적용해 각각 모델 수·반복 횟수·아키텍처 크기·트리 깊이가 증가함에 따라 불일치가 점차 사라짐을 증명한다. 또한 1차원 회귀에서 시작해 강하게 볼록한…
저자: Eric Eaton, Surbhi Goel, Marcel Hussing
이 논문은 머신러닝 모델 간 예측 불일치를 정량화하고, 이를 제어하기 위한 일반적인 이론적 프레임워크를 제시한다. 저자들은 실수값 회귀 문제에서 두 모델 f₁, f₂ 가 독립적인 데이터 샘플을 사용해 학습될 때, 그들의 예측 차이 D(f₁,f₂)=Eₓ
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기