Q‑DIVER: 양자 전이학습과 차별적 양자 아키텍처 탐색을 결합한 EEG 분류 프레임워크
본 논문은 대규모 사전학습 EEG 인코더(DIVER‑1)와 차별적 양자 아키텍처 탐색(DiffQAS) 기반 양자 분류기를 결합한 Q‑DIVER를 제안한다. PhysioNet Motor Imagery 데이터셋에서 양자 헤드가 기존 MLP 헤드와 비슷한 F1 점수(63.49 %)를 보이면서도 헤드 파라미터를 약 50배(2.10 M vs 105.02 M) 절감한다. 이는 고차원 생물신호 처리에서 파라미터 효율적인 양자 전이학습 가능성을 입증한다.
저자: Junghoon Justin Park, Yeonghyeon Park, Jiook Cha
본 논문은 양자 회로를 기존 딥러닝 파이프라인에 통합하는 과정에서 발생하는 설계 휴리스틱의 한계를 극복하고자, 대규모 사전학습 EEG 인코더(DIVER‑1)와 차별적 양자 아키텍처 탐색(DiffQAS) 기반 양자 분류기를 결합한 Q‑DIVER 프레임워크를 제안한다.
1. **배경 및 동기**
- 기존 양자‑클래식 하이브리드 모델은 양자 회로를 보조적인 역할로만 사용하거나, 고정된 회로 구조를 임의로 선택하는 경우가 많다. 이는 양자 회로가 실제로 어떤 기능적 역할을 수행해야 하는지에 대한 체계적 분석이 부족함을 의미한다.
- 전이학습 패러다임은 대규모 사전학습 모델이 표현 학습을 담당하고, 다운스트림 작업에서는 가벼운 헤드만을 학습하도록 설계된다. EEG 분야에서도 DIVER‑1과 같은 대규모 foundation model이 등장했으며, 이러한 표현을 효과적으로 활용하기 위한 읽기(head) 메커니즘이 연구 필요하다.
2. **핵심 구성 요소**
- **DIVER‑1 백본**: 17,700명 이상의 피험자 데이터를 이용해 자기지도 학습으로 사전학습된 트랜스포머 기반 인코더(51.36 M 파라미터). 퍼뮤테이션 등가성 및 다채널 지원을 통해 다양한 EEG/iEEG 데이터에 강인함을 제공한다.
- **QTSTransformer 양자 헤드**:
- *유닛 임베딩*: 각 타임스텝 피처를 회전 파라미터 θ_t 로 변환하는 학습 가능한 프로젝션 레이어(시그모이드 정규화).
- *LCU 기반 어텐션*: 선형 결합 유니터리(LCU)를 이용해 시퀀스 유니터리들을 가중합 M = Σ_j e^{iγ_j}|a_j|^2 U_j 로 결합, 양자 중첩을 통한 효율적 어텐션 구현.
- *QSVT 비선형성*: 다항식 P_c(M) = Σ_{k=0}^d c_k M^k 로 특이값을 변환, 복잡한 비선형 결정 경계 학습.
- *측정 및 로짓*: 파울리 기대값을 측정해 클래식 피드포워드 레이어에 전달, 최종 클래스 로짓 생성.
- **DiffQAS**: 회로 설계 공간을 L개의 모듈(각 모듈는 후보 집합 B_l)으로 정의하고, 각 후보에 구조 가중치 w_j 를 부여해 연속적인 가중합 형태로 모델을 구성. 손실 최소화와 동시에 가중치와 회로 파라미터를 최적화하고, 학습 종료 후 가장 큰 w_j 를 가진 후보를 최종 아키텍처로 선택한다. 타임스텝 모델링 블록과 QFF 블록을 별도로 탐색 후 결합한다.
3. **실험 설정**
- **사전학습**: DIVER‑1과 동일한 프로토콜을 사용해 30 s 윈도우를 0.1 s 혹은 1.0 s 패치로 토큰화, 다양한 EEG/iEEG 데이터셋(예: AJILE12, PEERS, TUEG, HBN‑EEG, NCHSDB)에서 자기지도 학습 수행.
- **다운스트림 작업**: PhysioNet Motor Imagery 데이터셋(109명, 64채널, 160 Hz)에서 4‑class 모터 이미지 분류 수행. 원시 신호는 4 s(500 Hz 재샘플링) 윈도우로 전처리 후 DIVER‑1 백본에 입력.
- **비교 모델**: 동일 백본에 MLP 헤드(다층 퍼셉트론)와 QTSTransformer 헤드를 각각 적용, 전체 파라미터와 헤드 파라미터 수를 비교.
4. **결과 및 해석**
- **성능**: QTSTransformer 헤드가 F1 = 63.49 %를 기록, MLP 헤드와 거의 동등한 수준.
- **파라미터 효율성**: 전체 파라미터는 DIVER‑1+MLP 156.38 M vs DIVER‑1+QTSTransformer 53.46 M(≈2.9배 감소). 헤드 파라미터만 보면 105.02 M vs 2.10 M(≈50배 감소). 양자 회로 자체는 43개의 파라미터만 차지, 전체 모델에서 차지하는 비중은 0.00008 % 수준.
- **연산 복잡도**: LCU 기반 어텐션은 O(polylog L) 복잡도로 시퀀스 길이에 대한 스케일링을 크게 개선, QSVT는 다항식 비선형성을 제공해 전통적인 활성화 함수보다 풍부한 표현력을 확보한다.
5. **한계 및 향후 연구**
- 현재 실험은 시뮬레이션 기반 NISQ 환경에서 수행됐으며, 실제 양자 하드웨어에서의 디코히런스, 게이트 오류, 큐비트 수 제한이 성능에 미치는 영향을 추가 검증해야 함.
- DiffQAS 탐색 공간이 24개의 후보에 제한돼 있어, 더 넓은 회로 라이브러리와 메타‑학습 기반 탐색 전략을 도입하면 최적화 효율과 성능을 향상시킬 가능성이 있다.
- 다른 생물신호(예: MEG, fNIRS) 및 멀티모달 융합 시나리오에 Q‑DIVER를 적용해 전이학습‑양자 헤드의 일반성을 검증할 필요가 있다.
6. **결론**
Q‑DIVER는 대규모 사전학습된 클래식 백본과 차별적 양자 아키텍처 탐색을 결합함으로써, 파라미터 효율성을 크게 높이면서도 양자 회로가 제공하는 고유한 시간‑시계열 처리 능력을 활용한다. 이는 EEG와 같은 고차원, 비정상적 생물신호 분야에서 양자‑클래식 하이브리드 모델이 실용적인 대안이 될 수 있음을 실증적으로 보여준다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기