신경 논리망 동적 구조 기반 논리 추론 모델

본 논문은 입력 논리식에 따라 계산 그래프를 동적으로 구성하고, AND·OR·NOT 연산을 신경 모듈로 학습시켜 명제 논리 추론을 수행하는 Neural Logic Network(NLN)를 제안한다. 논리 규칙을 손실에 정규화함으로써 모듈이 실제 논리 연산을 구현하도록 유도하고, 시뮬레이션 및 추천 시스템 실험에서 기존 RNN·LSTM 기반 모델을 크게 능가한다.

저자: Shaoyun Shi, Hanxiong Chen, Min Zhang

신경 논리망 동적 구조 기반 논리 추론 모델
**1. 서론** 최근 딥러닝이 이미지·언어·검색 등 다양한 분야에서 뛰어난 성과를 보였지만, 대부분은 데이터 간 유사성을 학습하는 방식에 기반한다. 이러한 접근은 논리적 추론, 즉 명제 논리의 규칙을 따르는 판단을 수행하기 어렵다. 인간의 사고에서 논리 추론은 의사결정·법률·의료 등 핵심적인 역할을 하며, 기존 GOFAI(전통적인 AI)에서는 규칙 기반 시스템으로 구현되었다. 그러나 규칙 기반 방법은 수작업이 많이 필요하고 새로운 상황에 대한 일반화가 제한적이다. 따라서 딥러닝의 표현력과 논리 추론 능력을 결합한 모델이 필요하다. **2. Neural Logic Network(NLN) 설계** NLN은 입력 논리식에 따라 계산 그래프를 동적으로 구성한다. 변수 vᵢ는 차원 d 인 벡터 \mathbf{v}_i 로 표현되며, 논리 상수 T, F도 동일 차원의 벡터로 초기화된다. 기본 연산인 AND, OR, NOT은 각각 신경 모듈 AND(·,·), OR(·,·), NOT(·) 로 구현된다. 이 모듈들은 다층 퍼셉트론(MLP) 형태이며, 비다항 활성화 함수를 사용해 任意 함수 근사를 가능하게 한다. 논리식 e = (v_i ∧ v_j) ∨ ¬v_k 와 같이 구성된 경우, 입력 벡터들을 차례로 모듈에 통과시켜 중간 표현을 얻고, 최종 표현 \mathbf{e} 를 구한다. 논리식의 진리값은 \mathbf{e}와 TRUE 벡터 \mathbf{T} 간 코사인 유사도를 시그모이드 변환한 값 p = Sim(\mathbf{e}, \mathbf{T}) 로 추정한다. **2.1 논리 정규화** 모듈이 실제 논리 연산을 수행하도록 강제하기 위해 10개의 논리 규칙을 손실에 포함한다. 예를 들어, w ∧ T = w 은 r₃ = 1 − Sim(AND(w,T), w) 로 정의되고, ¬(¬w)=w 은 r₂ = 1 − Sim(NOT(NOT(w)), w) 로 정의된다. 모든 규칙은 학습 데이터에 등장한 표현 집합 W 에 대해서만 계산되므로 계산량이 크게 늘어나지 않는다. 정규화 가중치 λ_l 을 조절해 논리 규칙과 모델 표현력 사이의 균형을 맞춘다. **2.2 길이 정규화** 벡터 크기가 무한히 커지는 것을 방지하기 위해 ℓ₂ 정규화 R_ℓ = ∑_{w∈W}‖w‖₂² 를 손실에 추가한다. 또한 전체 파라미터에 대한 ℓ₂ 정규화 R_Θ 를 적용해 과적합을 억제한다. 최종 손실은 L = L_c + λ_l ∑ r_i + λ_ℓ R_ℓ + λ_Θ R_Θ 이다. **3. 구현 세부사항** AND·OR 모듈은 입력을 연결(concatenation)한 뒤 1‑hidden‑layer MLP(활성화 ReLU)와 출력층을 거쳐 차원 d 의 벡터를 반환한다. NOT 모듈은 단일 입력에 대해 동일 구조를 적용한다. 유사도 Sim은 코사인 유사도에 스케일링 파라미터 α=10 을 곱하고 시그모이드 함수를 씌워 0~1 사이 확률값을 만든다. 학습은 Adam 옵티마이저(learning rate 0.001)와 배치 128 으로 진행하며, 조기 종료와 드롭아웃(0.2)으로 일반화 성능을 높인다. 변수·아이템 임베딩 차원은 64로 설정하였다. **4. 실험** *4.1 시뮬레이션 데이터* n = 1 000~20 000개의 변수와 m = 5 000~50 000개의 DNF 형태 논리식을 무작위 생성한다. 각 식은 1~5개의 절(clause)과 각 절은 1~5개의 리터럴(변수·부정)로 구성된다. 모델은 80%/10%/10% 비율로 학습·검증·테스트를 나눈다. 결과: - Bi‑RNN, Bi‑LSTM은 0.61~0.70 수준의 정확도에 그쳤다. - NLN‑Rₗ (정규화 없이)도 0.84~0.88 수준으로 향상되었지만, 논리 정규화를 추가한 NLN은 0.97 이상의 정확도와 0.16 이하의 RMSE를 기록, 통계적으로 유의미하게 우수했다(p < 0.05). - λ_l을 변화시킨 실험에서 적절한 정규화(λ_l≈10⁻²) 시 정확도가 최고이며, 과도한 정규화는 표현력을 억제해 성능이 감소한다. - t‑SNE 시각화에서 TRUE와 FALSE 변수 임베딩이 명확히 구분돼, 변수 자체의 T/F 값을 95.9% 정확도로 복원할 수 있음을 확인했다. *4.2 개인화 추천* 사용자 U와 아이템 I를 각각 논리 변수로 두고, 사용자의 과거 행동을 논리식으로 변환한다. 예: “사용자 u가 아이템 i₁을 좋아하고 i₂를 싫어하면 i₃을 추천한다”와 같은 형태. NLN은 이러한 논리식들을 학습해 새로운 아이템에 대한 선호 확률을 예측한다. 실험 결과, 기존 협업 필터링, 시퀀스 기반 모델(MF, GRU4Rec 등) 대비 RMSE와 정확도에서 유의미한 개선을 보였다. **5. 논의 및 한계** NLN은 동적 그래프와 논리 정규화를 통해 명제 논리 추론을 신경망 수준에서 구현했다는 점에서 큰 의의를 가진다. 그러나 현재는 AND·OR·NOT 세 연산만 지원하고, 분배법칙·드모르간 법칙 등 복합적인 변환을 정규화 없이 다루지 못한다. 따라서 입력을 DNF·CNF 형태로 사전 변환해야 하는 전제조건이 있다. 또한 변수 수가 급증하면 모듈당 파라미터가 고정돼 메모리·연산 비용이 선형적으로 증가한다는 스케일링 이슈가 존재한다. **6. 결론 및 향후 연구** 본 연구는 논리식 기반 동적 신경망 구조를 제안하고, 논리 정규화와 길이 정규화를 통해 안정적인 학습을 달성했다. 실험은 논리 추론과 실용적인 추천 시스템 두 영역에서 기존 모델을 크게 능가함을 입증한다. 향후 연구에서는 다값 논리, 양화자(∀, ∃) 지원, 정규화 없이도 논리 법칙을 자동 학습하는 메커니즘, 그리고 대규모 변수 집합에 대한 효율적인 파라미터 공유 방식을 탐구할 계획이다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기