직관 물리와 사회 인지의 융합: 물리 기반 사회 인식 모델

본 논문은 물리적으로 시뮬레이션된 2인 에이전트 상호작용 영상 데이터셋 PHASE를 소개하고, 물리 엔진과 베이지안 역계획을 결합한 SIMPLE 모델을 제안한다. SIMPLE은 관찰된 궤적을 물리·심리적 생성 모델에 역으로 적용해 에이전트의 목표와 관계(우호·중립·적대)를 추론한다. 실험 결과 SIMPLE은 인간 판단과 높은 일치도를 보이며, 시각‑언어 모델 및 물리 무시 역계획 대비 우수함을 입증한다.

저자: Lance Ying, Aydan Y. Huang, Aviv Netanyahu

직관 물리와 사회 인지의 융합: 물리 기반 사회 인식 모델
본 논문은 “사회적 인식은 직관 물리와 직관 심리의 통합된 추론 과정이다”라는 가설을 검증하기 위해 두 가지 주요 작업을 수행한다. 첫 번째는 PHASE(Physically grounded Abstract Social Events)라는 새로운 데이터셋을 구축하는 것이다. PHASE는 2D 평면에서 물리 엔진을 이용해 절차적으로 생성된 500개의 짧은 애니메이션으로 구성된다. 각 영상에는 두 개의 트라페조이드 형태 에이전트가 등장하며, 에이전트는 크기·힘·시야 제한 등 물리적 속성을 갖는다. 환경에는 네 개의 코너 랜드마크와 여러 원형 물체가 배치되고, 에이전트는 “랜드마크로 이동”, “물체를 특정 랜드마크로 이동”, “다른 에이전트에 가까이 가기” 등 36가지 목표 중 하나를 갖는다. 두 에이전트의 목표 조합에 따라 네 가지 시나리오 유형(협동, 독립, 경쟁, 대립)으로 구분되며, 이는 각각 친화적, 중립적, 적대적 관계 라벨에 매핑된다. 인간 실험을 통해 130명의 참가자가 100개의 테스트 영상에 23개의 상호작용 라벨을 부여했으며, 라벨 사용 빈도와 일관성이 높아 데이터셋이 인간의 사회적 직관을 잘 포착함을 확인했다. 두 번째 작업은 SIMPLE(SIMulation, Planning, and Local Estimation) 모델을 설계하고 평가하는 것이다. SIMPLE은 베이지안 역계획 프레임워크에 물리 시뮬레이션을 직접 결합한다. 관찰된 상태 시퀀스 s₁:ₜ와 가설 h = ⟨g_i, g_j, α_ij, α_ji, f_i, f_j⟩(목표, 관계 파라미터, 물리적 힘) 사이의 차이를 L2 손실로 정의한 likelihood와 사전 분포를 곱해 posterior를 만든다. 가설 공간이 연속적이고 고차원적이므로, 메트로폴리스‑해스팅 기반 MCMC 샘플링을 사용한다. 여기서 “로컬 추정” 단계가 핵심인데, 시뮬레이션과 관찰 사이의 오류가 큰 구간을 선택해 그 구간만 재시뮬레이션하고 새로운 가설을 제안한다. 이렇게 하면 전체 시뮬레이션 비용을 절감하면서도 충돌·물체 조작 등 미세한 물리적 현상을 빠르게 정교화할 수 있다. SIMPLE을 기존 모델과 비교하였다. (1) SocialGNN은 그래프 신경망으로 시각적 특징을 학습해 목표와 관계를 예측하지만, 물리적 충돌을 명시적으로 모델링하지 못한다. (2) Gemini 2.5 Pro는 대규모 Vision‑Language 모델로 일반적인 장면 이해에 강하지만, PHASE와 같은 물리‑제한된 추론에서는 성능이 떨어진다. (3) 물리‑agnostic 역계획 모델은 목표와 관계를 추론하지만, 물체 이동·장애물 회피 등 물리적 제약을 무시해 오류가 빈번하다. 실험 결과 SIMPLE은 목표 분류 정확도 87 %·관계 분류 정확도 84 %를 달성했으며, 인간 평균 정확도(≈89 %)와 거의 일치했다. 또한, 인간 판단과의 상관관계가 가장 높아(ρ = 0.78) 인간과 유사한 확신도를 제공한다. 결론적으로, 논문은 (1) 물리적 제약이 사회적 인식에 핵심적 역할을 한다는 심리학적·신경과학적 증거를 데이터와 모델을 통해 실증하고, (2) 물리 시뮬레이션을 포함한 베이지안 역계획이 복잡한 다중 에이전트 상황에서 인간 수준의 목표·관계 추론을 가능하게 함을 보여준다. 향후 연구는 3D 물리 환경, 다중(>2) 에이전트, 언어적 설명과의 멀티모달 통합, 그리고 실시간 로봇 제어에의 적용을 통해 현재 모델을 확장할 계획이다.

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기