시각언어모델로 매크로 배치 최적화: VeoPlace 혁신
VeoPlace는 파인튜닝 없이 비전‑언어 모델(VLM)을 활용해 매크로 배치 영역을 제시하고, 이를 진화적 탐색과 결합해 기존 학습 기반·분석 기반 배치 도구의 와이어길이를 크게 감소시킨다.
저자: Ikechukwu Uchendu, Swati Goel, Karly Hou
이 논문은 매크로 배치라는 고차원 최적화 문제에 비전‑언어 모델(VLM)을 도입해 인간 설계자의 시각적 직관을 기계적으로 재현하려는 시도를 상세히 기술한다. 매크로 배치는 매크로 블록들의 크기와 연결성을 고려해 2차원 캔버스에 배치함으로써 전체 와이어길이(HPWL)를 최소화하고, 전력·면적·성능(PPA) 목표를 만족시키는 복합 목표 최적화 문제이다. 기존 접근법은 크게 세 가지로 구분된다. (1) 분석 기반 방법은 비선형 최적화와 밀도 제약을 풀어 전역 최적해를 찾지만, 초기값에 크게 의존한다. (2) 블랙박스 최적화(예: 시뮬레이티드 어닐링, 유전 알고리즘)는 탐색 범위가 넓지만 계산 비용이 크다. (3) 학습 기반 방법, 특히 강화학습(RL)과 모방학습(IL)은 최근 최고 성능을 기록했지만, 새로운 디자인에 대한 일반화가 어려워 추가 fine‑tuning이 필요하다.
이러한 한계를 극복하기 위해 저자들은 VLM을 “전략적 고수준 가이드”로 활용한다. VLM은 대규모 이미지‑텍스트 데이터로 사전 학습돼 시각적 패턴 인식과 언어 이해 능력을 동시에 보유한다. 논문에서는 Gemini 모델을 파인튜닝 없이 그대로 사용한다. VLM에 입력되는 컨텍스트는 (a) 현재 순회 중인 순서와 매크로 특성, (b) 최근 K개의 배치 이미지와 해당 HPWL 메트릭, (c) 전체 netlist 정보이다. VLM은 이 정보를 바탕으로 각 매크로에 대해 1~2개의 바운딩 박스를 제안한다. 제안은 “가능한 영역”을 의미하며, 구체적인 좌표는 바운딩 박스의 좌하단 코너를 사용해 앵커 위치 x̂_i 로 변환한다.
VeoPlace 프레임워크는 이 VLM 제안을 저수준 배치 엔진에 전달하는 두 가지 인터페이스를 제공한다. 첫째, 분석 기반 배치(DREAMPlace)에서는 기존 목적 함수에 앵커 페널티 λ_A·∑‖x_i−x̂_i‖²를 추가한다. λ_A를 0에서 시작해 점진적으로 증가시키면 VLM 가이드가 점점 강해져, 초기에는 자유 탐색을 허용하고 이후에 VLM이 제시한 영역으로 수렴한다. 둘째, 학습 기반 배치(ChiPFormer)에서는 정책 π가 출력하는 그리드 셀 확률 분포에 마스크를 씌워 VLM이 지정한 바운딩 박스 외부의 셀을 0 확률로 만든다. 이렇게 하면 정책은 VLM이 제시한 “가능한 영역” 안에서만 샘플링하게 된다.
진화적 탐색은 고정된 예산 B(예: 2000 회) 내에서 무작위(비가이드)와 VLM‑가이드 롤아웃을 교대로 수행한다. 매 에피소드마다 완전한 배치를 생성하고, DREAMPlace의 내장 legalizer를 통해 물리적 충돌을 해소한다. 생성된 배치의 HPWL을 평가하고, 상위 N개의 배치를 히스토리 버퍼 H에 저장한다. 이후 VLM은 H에 저장된 최신 K개의 배치를 컨텍스트로 삼아 새로운 영역을 제안한다. 이 과정은 “지역적 진화” 원리를 따르며, 고성능 배치가 집중된 영역을 점진적으로 확대·세분화한다.
실험은 공개된 ISPD 2005, ICCAD 2004, Ariane 벤치마크 10개와 ICCAD 2015 Superblue 8개를 대상으로 수행되었다. ChiPFormer와 비교했을 때, VeoPlace는 9/10 벤치마크에서 평균 32% 이상의 HPWL 감소를 달성했으며, 최고 44% 감소를 기록했다. DREAMPlace와 결합했을 때는 모든 8개 Superblue 벤치마크에서 0.5%~4.3%의 추가 개선을 보였다. 특히 동일한 예산(2000 회) 내에서 파인튜닝을 수행한 학습 기반 모델보다도 높은 성능을 보여, VLM이 제공하는 “시각적 사전지식”이 탐색 효율을 크게 높인다는 점을 입증했다.
한계점으로는 VLM API 호출 비용(시간·금전)과 제안 영역의 정확도 의존성이 있다. 현재 VLM은 바운딩 박스 형태만 반환하므로, 더 정밀한 좌표 제안이나 확률적 영역 제시가 필요할 경우 추가 연구가 요구된다. 또한 매크로 배치 외에 표준 셀 배치, 전력/열 제약 등 다중 목표 최적화에 VLM을 적용하려면 멀티모달 컨텍스트 설계가 필요하다. λ_A와 마스크 강도와 같은 하이퍼파라미터를 자동으로 튜닝하는 메커니즘도 향후 과제로 남는다.
결론적으로 VeoPlace는 “대형 기초 모델을 설계 자동화에 직접 활용한다”는 새로운 패러다임을 제시한다. 파인튜닝 없이도 VLM이 제공하는 고수준 시각적 직관을 활용해 기존 배치 엔진을 보강함으로써, 설계자들이 새로운 칩에 빠르게 적응하고, 비용·시간을 절감할 수 있는 실용적인 솔루션을 제공한다.
원본 논문
고화질 논문을 불러오는 중입니다...
댓글 및 학술 토론
Loading comments...
의견 남기기