다중 인간 연관을 위한 위·수평 시점 공간 분포 매칭

본 논문은 드론이 촬영한 위쪽 시점 영상과 착용형 카메라가 촬영한 수평 시점 영상을 동시에 이용해, 두 시점에 등장하는 사람들을 정확히 연결하는 방법을 제안한다. 사람들의 외관 차이가 크게 나는 상황에서, 외관 대신 사람들의 공간 분포(위치와 깊이)를 모델링하고, 위 시점에서 가상의 카메라 위치와 시야각을 탐색해 매칭 비용을 최소화함으로써 카메라 위치와 시야각을 추정하고, 최종적으로 다중 인물 간의 연관을 달성한다. 새로운 데이터셋을 구축해 실…

저자: Ruize Han, Yujun Zhang, Wei Feng

다중 인간 연관을 위한 위·수평 시점 공간 분포 매칭
본 논문은 드론이 제공하는 위쪽 시점 영상과 착용형 카메라가 제공하는 수평 시점 영상을 동시에 활용해, 두 시점에 등장하는 사람들을 정확히 연관시키는 새로운 방법을 제시한다. 기존 연구들은 위·수평 시점 간의 외관 차이가 크다는 문제를 해결하기 위해, 위 카메라가 일정한 기울기를 가지고 있어 사람의 몸통이 보이거나, 착용자의 시선이 이동 방향과 일치한다는 가정을 전제로 했다. 그러나 이러한 가정은 실제 상황에서 흔히 위배되며, 연관 정확도를 크게 저하시킨다. 이에 저자들은 사람들의 외관 대신, 사람들의 **공간 분포**—즉, 각 사람의 카메라 기준 상대 위치와 깊이—를 이용해 매칭을 수행한다. 구체적인 흐름은 다음과 같다. 1. **데이터 전처리**: 위 시점 이미지와 수평 시점 이미지에서 각각 사람 검출기를 이용해 모든 사람을 검출한다. 위 시점에서는 N명의 사람, 수평 시점에서는 M명의 사람이 검출된다. 2. **벡터 표현** - *위 시점*: 가상의 수평 카메라 위치 O와 시야각 θ를 가정하면, 카메라의 시야 영역(*L, *R)을 정의할 수 있다. 시야 안에 있는 각 사람 P에 대해, 카메라 기준 오른쪽 방향(*V)과 깊이 방향을 이용해 ˆx와 ˆy를 계산한다. ˆx는 카메라 오른쪽으로의 거리, ˆy는 깊이(거리)이다. 이를 정규화하여 x_top = ˆx / (f·cot(π−α/2)), y_top = ˆy 로 변환하고, 모든 사람에 대해 (x_top, y_top) 벡터를 만든다. - *수평 시점*: 각 사람의 이미지 상 위치 ˜x와 높이 h를 이용해 x_hor = (˜x−W/2)/(W/2) 로 가로 위치를 정규화하고, y_hor = 1/h 로 깊이를 근사한다. 이렇게 얻은 (x_hor, y_hor) 벡터 집합을 만든다. 3. **벡터 매칭** - x값은 이미

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기