진화 가능한 신경 단위 네트워크: 시냅스 수준에서 학습을 진화시키다

본 논문은 개별 뉴런과 시냅스를 재귀 신경망(RNN) 형태의 진화 가능한 유닛(ENU)으로 모델링하고, 진화 전략(ES)으로 파라미터를 최적화한다. ENU는 내부 메모리와 여러 게이트를 통해 IAF(Integrate‑and‑Fire)와 STDP와 같은 생물학적 동작을 스스로 학습하도록 진화시킬 수 있다. 여러 ENU를 연결해 만든 ENU‑NN은 T‑maze 환경에서 보상 기반 강화학습을 수행하며, 전역 파라미터는 공유하지만 각 유닛은 독립적인 …

저자: Paul Bertens, Seong-Whan Lee

진화 가능한 신경 단위 네트워크: 시냅스 수준에서 학습을 진화시키다
본 논문은 기존 딥러닝 모델이 전체적인 구조와 최적화 기법은 지속적으로 발전했지만, 뉴런과 시냅스 수준의 미세 구조는 여전히 단순화된 수학적 모델에 머물러 있다는 문제점을 지적한다. 이를 해결하기 위해 저자들은 ‘진화 가능한 신경 단위(Evolvable Neural Unit, ENU)’라는 새로운 구성 요소를 제안한다. ENU는 재귀 신경망(RNN) 기반의 게이트 구조를 갖으며, 내부 메모리(state)와 네 개의 게이트(리셋, 업데이트, 셀, 출력)로 이루어진다. 각 게이트는 동일한 가중치 행렬을 공유하지만, 입력과 현재 메모리 상태에 따라 다르게 동작한다. 이러한 설계는 하나의 파라미터 집합으로 수천 개의 뉴런·시냅스 유닛을 동시에 모델링하면서도, 각 유닛이 독립적인 동적 파라미터(메모리)를 유지하도록 만든다. 먼저 저자들은 ENU를 이용해 단순한 Integrate‑and‑Fire(IAF) 뉴런과 Spike‑Timing‑Dependent Plasticity(STDP) 시냅스 규칙을 진화시켰다. 진화 전략(Evolution Strategies, ES)을 사용해 전역 가중치를 최적화하고, 각 ENU는 자체 메모리를 통해 스파이크 발생 시점과 시냅스 가중치 변화를 저장·갱신한다. 실험 결과, 진화된 ENU는 IAF의 전압 누적과 스파이크 임계값, 그리고 STDP의 시간 의존적 가중치 변화를 정확히 근사하였다. 다음 단계에서는 다수의 ENU를 연결해 ENU‑NN(ENU 기반 신경망)을 구성하였다. 여기서는 두 종류의 ‘염색체’를 진화시킨다: 하나는 모든 뉴런 ENU에 적용되는 가중치, 다른 하나는 모든 시냅스 ENU에 적용되는 가중치이다. 각 유닛은 고유한 메모리 상태를 유지하므로, 동일한 전역 파라미터라도 서로 다른 동작을 보일 수 있다. ENU‑NN은 감각 입력 뉴런(색상 감지), 보상 뉴런, 그리고 행동 출력 뉴런(전진, 좌회전, 우회전)으로 구성된 T‑maze 환경에 배치되었다. 에이전트는 환경으로부터 받은 보상 신호를 보상 뉴런을 통해 네트워크 전체에 전파하고, 각 시냅스 ENU는 이 신호를 이용해 자체 메모리와 가중치를 업데이트한다. 결과적으로 에이전트는 보상 기반 강화학습을 수행하며, 미리 정의된 학습 규칙 없이도 스스로 스파이크 기반의 탐색·학습 메커니즘을 진화시켰다. 핵심 기여는 다음과 같다. (1) ENU라는 진화 가능한 RNN 유닛을 제안하고, 이를 통해 뉴런·시냅스 수준의 복합 동역학을 학습한다. (2) ENU가 IAF와 STDP를 근사하도록 성공적으로 진화시켰다. (3) 전역 가중치를 공유하면서도 각 유닛이 독립적인 메모리 상태를 갖는 ENU‑NN을 구현하고, GPU 기반 대규모 행렬 연산으로 효율적으로 학습한다. (4) 보상 기반 강화학습 과제를 통해 ENU‑NN이 ‘학습을 학습’하는 메타‑학습 능력을 입증한다. 논문의 한계로는 현재 실험이 비교적 단순한 시뮬레이션 환경에 국한되어 있다는 점, 그리고 ENU 내부 메모리의 물리적·생물학적 해석이 어려워 실제 뇌의 이온 채널·대사·신경전달물질 네트워크와 직접 매핑하기엔 추가 연구가 필요하다는 점을 들 수 있다. 향후 연구에서는 더 복잡한 신경 회로, 다중 모달리티 신호, 그리고 실제 로봇 플랫폼에 적용해 ENU‑NN의 일반화와 확장성을 검증할 계획이다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기