절차적 지식을 실행 가능한 그래프로: GEAKG 혁신
GEAKG는 대형 언어 모델이 생성한 연산자와 Ant Colony Optimization으로 학습된 전이 패턴을 결합한 실행 가능한 지식 그래프이다. 노드에 실행 코드가 내장되고, 에지 가중치는 학습된 연산자 조합 효과를 나타낸다. NAS와 조합 최적화 두 도메인에서 제로샷 전이와 무비용 배포를 입증하였다.
저자: Camilo Chacón Sartori, José H. García, Andrei Voicu Tomut
본 논문은 절차적 지식, 즉 알고리즘 설계와 연산자 조합에 관한 “노하우”를 명시적으로 표현하고 재사용 가능한 형태로 전환하는 새로운 지식 그래프 프레임워크인 GEAKG(Generative Executable Algorithm Knowledge Graphs)를 제안한다. 기존 지식 그래프(KG)는 주로 선언적 정보를 저장해 왔으며, 절차적 지식을 코드에 암묵적으로 담아 두고 실행마다 재설계해야 하는 문제점이 있었다. GEAKG는 이러한 문제를 해결하기 위해 세 가지 핵심 속성을 결합한다. 첫째, **Generative**: 그래프 토폴로지(L0)와 연산자 구현(L1)은 대형 언어 모델(LLM)로 자동 생성된다. 둘째, **Executable**: 각 노드에 실제 실행 가능한 코드가 포함되어 그래프 순회 시 바로 실행 가능하다. 셋째, **Transferable**: ACO 기반 학습 엔진이 에지에 페로몬 값을 부여해 연산자 조합의 효과를 학습하고, 이 학습된 지식(L2)은 새로운 도메인에 제로샷으로 적용될 수 있다.
프레임워크는 **RoleSchema**라는 추상화 레이어에 크게 의존한다. RoleSchema는 도메인별 역할(Role)과 허용 전이 규칙을 정의하는 온톨로지이며, 이를 교체함으로써 동일 엔진을 다양한 문제에 적용할 수 있다. 논문에서는 두 가지 도메인, 즉 **Neural Architecture Search(NAS)**와 **Combinatorial Optimization**에 대해 동일 코드베이스와 학습 파이프라인을 사용했다. NAS에서는 18개의 역할을 5개의 카테고리로 나누어 연산자 풀을 구성했고, 70개의 교차‑데이터셋 전이 실험을 통해 기존 Random Search 대비 통계적으로 유의미한 성능 향상을 보였다. 최적화 도메인에서는 11개의 역할을 사용해 TSP에서 학습한 그래프가 Job Shop Scheduling Problem(JSSP)과 Quadratic Assignment Problem(QAP)으로 제로샷 전이되었으며, 대규모 인스턴스에서도 기존 휴리스틱 대비 경쟁력 있는 해를 제공했다.
학습 과정은 완전 오프라인이다. L0와 L1을 LLM으로 생성한 뒤, ACO를 통해 L2를 학습한다. 학습이 끝난 스냅샷은 Symbolic Executor에 의해 실행되며, 런타임에 LLM 호출이 전혀 필요하지 않다. 이는 배포 비용을 최소화하고, 제로코스트 전이를 가능하게 만든다. 또한, 학습된 GEAKG를 기존 코드‑진화 시스템(LLaMEA 등)과 결합하면, 일회성 휴리스틱을 재사용 가능한 지식 자산으로 전환할 수 있다.
논문의 주요 기여는 다음과 같다. (1) 절차적 지식을 그래프 형태로 명시화하고 실행 가능하도록 만든 새로운 KG 프레임워크 제시(RQ1). (2) 동일 스냅샷을 다른 도메인에 제로샷 전이시켜 성능 향상을 입증(RQ2). (3) 모든 학습을 오프라인에서 수행하고, 런타임에 비용 없이 지식을 적용함으로써 지식 지속성을 증명(RQ3).
제한점으로는 RoleSchema 설계가 수작업이며, 도메인 전문가의 참여가 필요하다는 점과, 현재는 온라인 적응이 불가능해 환경 변화에 대응하지 못한다는 점을 들었다. 향후 연구에서는 자동 RoleSchema 추출, 온라인 페로몬 업데이트, 그리고 더 복잡한 멀티‑모달 연산자(예: GPU 커널) 통합 등을 통해 프레임워크를 확장할 계획이다.
결론적으로, GEAKG는 절차적 알고리즘 지식을 명시적, 학습 가능, 그리고 전이 가능한 형태로 변환함으로써 자동화된 알고리즘 설계와 지식 재사용에 새로운 패러다임을 제시한다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기