전이 학습을 위한 전이 라데마허 복잡도와 그 활용

본 논문은 전이 학습에서 사용되는 라데마허 복잡도를 전이 전용으로 정의하고, 이를 기반으로 데이터 의존적인 일반화 오차 경계식을 제시한다. 저자는 “비표시‑표시(Unlabeled‑Labeled) 표현(ULR)”을 이용해 여러 그래프 기반 전이 알고리즘의 복잡도를 스펙트럼 형태로 한정하고, 세 가지 대표 알고리즘에 대해 구체적인 오류 상한을 도출한다. 마지막으로 전이 알고리즘 혼합에 대한 PAC‑Bayesian 경계도 제시한다.

저자: Ran El-Yaniv, Dmitry Pechyony

전이 학습을 위한 전이 라데마허 복잡도와 그 활용
본 논문은 전이 학습(transductive learning) 분야에서 데이터 의존적인 일반화 오류 경계를 제공하기 위한 새로운 이론적 도구인 “전이 라데마허 복잡도(transductive Rademacher complexity)”를 제안한다. 전이 학습은 전체 데이터 집합(표시된 훈련 샘플 m개와 비표시된 테스트 샘플 u개)이 고정된 상태에서, 훈련 샘플을 무작위로 선택하고 그에 대한 라벨을 이용해 테스트 샘플의 라벨을 예측하는 문제이다. 기존 인덕티브 학습에서는 가설 공간을 사전에 고정해야 하지만, 전이 상황에서는 전체 비표시 데이터까지 관찰한 뒤 가설 공간을 정의할 수 있다. 이를 반영하기 위해 저자는 확률 p∈

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기