가우시안 네트워크 학습을 위한 베이지안 접근법

본 논문은 연속 변수만을 포함하는 도메인에서 베이지안 네트워크 구조를 학습하기 위한 점수화 메트릭과 탐색 절차를 제시한다. 다변량 정규분포 가정 하에 사건 등가(event equivalence)와 파라미터 모듈러리티(parameter modularity)라는 두 핵심 가정을 도입해, 사용자가 제공한 단일 사전 베이지안 네트워크로부터 다변량 정규 파라미터의 사전 분포를 구성한다. 이를 통해 연속형 데이터에 대한 구조 학습이 가능한 점수 함수를 유…

저자: Dan Geiger, David Heckerman

본 논문은 베이지안 네트워크 구조 학습을 위한 점수화 메트릭과 탐색 절차를 연속형 변수(가우시안) 도메인에 적용하는 방법을 제시한다. 기존 연구는 주로 이산 변수에 초점을 맞추어 다항분포를 가정했으며, 연속 변수에 대해서는 변수를 구간으로 나누는 이산화 방법을 사용했다. 그러나 이러한 변환은 정보 손실과 차원 폭발을 초래한다. 저자들은 이러한 한계를 극복하고자, 연속 변수만을 포함하는 도메인에서 데이터가 다변량 정규분포를 따른다는 가정 하에 새로운 점수 메트릭을 개발한다. **1. 가우시안 베이지안 네트워크의 정의** 변수 집합 x = {x₁,…,xₙ}에 대해 각 변수 xᵢ 는 그 이전 변수들의 선형 결합에 정규 오차를 더한 형태로 조건부 분포를 가진다(식 4). 회귀계수 bᵢⱼ 가 0이면 xⱼ 는 xᵢ 의 부모가 아니며, 이는 그래프 구조와 직접 대응한다. 따라서 구조 B_S 와 파라미터 (m, v, B) 는 다변량 정규분포의 평균 m 과 정밀도 행렬 W (= Σ⁻¹)으로 완전히 기술된다. **2. 사건 등가(event equivalence)와 파라미터 모듈러리티(parameter modularity)** - *사건 등가*는 두 베이지안 네트워크 구조가 동일한 조건부 독립성 관계를 표현하면 같은 사건 B_eS 에 해당한다는 원칙이다. 이를 통해 구조가 등가 클래스에 속하면 동일한 점수를 부여하도록 보장한다. 논문은 사건 정의를 약간 수정해 겹치는 사건들의 교집합을 측정 0 집합으로 처리함으로써, 사건들이 상호 배타적이면서도 등가성을 유지하도록 설계한다. - *파라미터 모듈러리티*는 구조가 바뀌어도 동일한 부모‑자식 관계에 대한 파라미터 사전은 변하지 않는다는 가정이다. 즉, 특정 변수 xᵢ 의 조건부 분포에 대한 사전은 그 변수의 부모 집합 Πᵢ 만을 의존한다. 이 가정은 사전 분포를 ‘정규‑위시트(Normal‑Wishart)’ 형태로 선택하게 만든다. **3. 정규‑위시트 사전과 사후 계산** 가정 1(데이터는 다변량 정규표본)과 2(데이터는 완전) 하에, 평균 m 과 정밀도 W 에 대한 사전은 정규‑위시트 분포로 설정한다(정리 3). 이 사전은 데이터가 추가될 때 폐쇄형 형태로 업데이트되며, 사후 평균 μ_l 과 정밀도 W 의 파라미터는 샘플 평균 X̄ 와 산포 행렬 S_l 에 의해 간단히 계산된다(식 7‑9). 따라서 구조 B_S 에 대한 점수 ρ(D, B_eS | ξ) 는 사전·사후 정규‑위시트 정규화 상수들의 비율로 표현될 수 있다. **4. 점수 함수와 탐색 절차** 구조 점수는 사전 구조 확률 p(B_S | ξ)와 데이터 우도 ρ(D | B_S, ξ) 의 곱으로 정의된다. 사건 등가에 의해 동일한 독립성 집합을 가진 구조들은 동일한 점수를 갖게 되므로, 탐색 알고리즘은 등가 클래스를 기준으로 탐색 효율을 높일 수 있다. 논문은 완전 그래프(모든 가능한 부모‑자식 관계가 존재)와 불완전 그래프(일부 엣지가 제거된 경우) 모두에 대해 점수 함수를 유도하고, 구조 변경 시 파라미터 사전이 어떻게 변하는지를 명시한다. **5. 실용적 의의와 장점** - 연속형 변수를 이산화하지 않으므로 정보 손실을 방지하고, 차원 폭발 문제를 회피한다. - 다변량 정규분포의 파라미터 공간이 O(n²) 정도에 불과해, 이산 변수에서 요구되는 지수적 파라미터 수와 비교해 계산 효율이 크게 향상된다. - 사용자는 도메인 지식을 평균, 회귀계수, 조건부 분산 형태로 제공하면 되며, 이는 직관적인 ‘베이지안 네트워크 설계’와 일치한다. - 사건 등가와 파라미터 모듈러리티라는 두 원칙을 통해 사전 설계와 점수 계산을 일관되게 수행할 수 있어, 다양한 도메인에서 연속형 데이터 기반 구조 학습을 적용하기 위한 이론적 토대를 제공한다. **6. 결론** 본 연구는 베이지안 네트워크 학습 이론을 연속형 데이터에 자연스럽게 확장하고, 사건 등가와 파라미터 모듈러리티라는 두 핵심 원칙을 도입함으로써 사전 설계와 점수 계산을 일관되게 수행할 수 있는 체계적인 방법을 제시한다. 이를 통해 연속 변수만을 포함하는 복잡한 도메인에서도 효율적인 구조 탐색과 정확한 사후 추론이 가능해진다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기