분산 Tier‑2 센터를 위한 통합 스토리지 시스템과 WAN 기반 RFIO 성능 평가

** 본 논문은 영국 스코틀랜드에 위치한 Glasgow와 Edinburgh 클러스터를 이용해, 분산된 Tier‑2 환경에서 DPM 스토리지를 통합하고 RFIO 프로토콜을 WAN을 통해 접근했을 때의 성능 및 보안 영향을 실험적으로 분석한다. 다양한 RFIO 읽기 모드, 버퍼 크기, TCP 윈도우 설정을 변동시키며 1 GiB 파일을 다중 클라이언트가 동시에 읽는 상황을 재현하였다. 결과는 전체 파일을 연속적으로 읽을 경우 32~64 클라이언트…

저자: Greig A. Cowan, Graeme A. Stewart, Andrew Elwell

분산 Tier‑2 센터를 위한 통합 스토리지 시스템과 WAN 기반 RFIO 성능 평가
** 본 논문은 LHC 실험 데이터 분석에 필수적인 수백 테라바이트 규모의 데이터가 전 세계에 분산된 Tier‑2 센터로 전송되는 현 상황에서, 영국 스코틀랜드에 위치한 Glasgow와 Edinburgh 두 클러스터를 활용해 분산된 Tier‑2 환경의 스토리지를 하나의 논리적 풀로 통합하고, 이를 원격으로 접근하는 방안을 실험적으로 검증한다. 1. **배경 및 목적** - LHC 데이터는 연간 15 PB에 달하며, 이를 분석하기 위해 전 세계 WLCG(Worldwide LHC Computing Grid) 네트워크가 구축되어 있다. - 영국 GridPP는 지리적으로 분산된 Tier‑2 센터를 운영하고 있으며, 각 센터는 CPU와 스토리지가 독립적으로 관리된다. 이로 인해 CPU와 스토리지가 불균형하게 배치되는 경우가 발생하고, 데이터 복제 비용이 증가한다. - 본 연구는 이러한 문제를 해결하기 위해 DPM(Disk Pool Manager) 기반 스토리지를 통합하고, LAN 전용 파일 접근 프로토콜인 RFIO를 WAN을 통해 그대로 사용했을 때의 성능과 보안 영향을 평가한다. 2. **시스템 구성** - **스토리지 미들웨어**: DPM은 dpns, dpm, rfiod, dpm‑gsiftp, srm 등 여러 데몬으로 구성된다. RFIO는 GSI‑인증 기반 POSIX 파일 입출력을 제공한다. - **하드웨어**: DPM 서버는 듀얼코어, 2 GB RAM, 300 GB 디스크 풀을 갖춘 Yaim 기반 시스템이며, 클러스터는 140대의 듀얼코어 Opteron 282 노드(각 8 GB RAM)로 구성된다. - **네트워크**: 두 사이트는 J‑ANET‑UK 광섬유망으로 1 Gbps 연결되어 있으며, iperf 테스트 결과 최대 900 Mb/s, RTT 12 ms를 기록했다. 3. **테스트 설계** - **클라이언트 애플리케이션**: C 언어로 직접 구현한 RFIO 클라이언트를 사용해 파일 읽기 패턴을 시뮬레이션했다. 읽기 모드로는 NORMAL, READBUF, READAHEAD, STREAM(V3)를 지원했으며, STREAM 모드는 데이터와 제어 소켓을 분리해 전송 파이프라인을 겹치게 한다. - **데이터 셋**: 1 GiB 크기의 파일 100개를 DPM에 미리 배치하고, 각 클라이언트는 고유 파일을 읽도록 설정했다. - **시나리오**: (1) 전체 파일 연속 읽기, (2) 파일의 10 %만 읽고 90 %를 스킵하는 부분 읽기. 동시에 1~64개의 클라이언트를 실행해 오픈 지연과 전송률을 측정했다. - **파라미터 변동**: RFIO 버퍼 크기(IOBUFSIZE), 클라이언트 블록 크기, TCP 윈도우 크기(0.5 MiB~16 MiB) 등을 조정해 성능 변화를 관찰했다. 4. **주요 결과** - **전체 파일 연속 읽기**: 클라이언트 수가 2~3개일 때 오픈 지연은 2 s 수준이었으며, 64개에서는 12 s까지 증가했다. 전송률은 4~12 MiB/s(단일 클라이언트)에서 시작해 32~64 클라이언트에서는 READAHEAD와 STREAM 모드가 60 MiB/s에 근접했다. 이는 디스크 서버가 I/O 바운드로 전환되고, 헤드 이동이 병목이 됨을 의미한다. - **부분 파일 읽기(10 % 읽고 90 % 스킵)**: READBUF와 READAHEAD 모드가 크게 저하돼 최대 2 MiB/s 수준에 머물렀다. 반면 NORMAL 모드가 버퍼링에 의한 불필요한 데이터 전송을 피해 상대적으로 높은 효율을 보였다. - **버퍼 크기(I/O BUFSIZE) 영향**: 기본값 128 kB가 최적이며, 이를 크게 늘리면 버퍼가 채워지는 동안 네트워크와 디스크 자원을 낭비해 전체 전송률이 감소한다. 클라이언트 블록 크기와 동일하게 맞출 경우에는 차이가 미미했다. - **TCP 윈도우 튜닝**: 다중 클라이언트 상황에서는 윈도우 크기에 따른 전송률 차이가 거의 없었으며, 소수 클라이언트에서는 약간의 개선만 관찰되었다. 이는 각 클라이언트가 전체 대역폭의 작은 조각만 차지하기 때문이다. 5. **보안 고려사항** - RFIO는 GSI 기반 X.509 인증을 사용하므로, 인증된 사용자만 접근 가능하고 데이터 무결성은 보장된다. WAN을 통한 전송이라도 추가적인 암호화가 필요 없으며, 방화벽에서 5001(RFIO), 5010(DPNS), 5015(DPM) 포트만 열어주면 된다. 다만 포트 개방 관리가 추가적인 운영 부담을 초래한다. 6. **논의 및 향후 과제** - 실험 결과는 WAN을 통한 RFIO 접근이 최소 2 MB/s 요구 전송률을 충분히 만족한다는 것을 보여준다. 그러나 대규모 동시 접근 시 디스크 I/O 병목과 버퍼 설정이 성능에 큰 영향을 미치므로, 운영 단계에서는 클라이언트 수 제한, 버퍼 최적화, 그리고 가능한 경우 데이터 로컬 복제 전략을 병행하는 것이 바람직하다. - 향후 연구에서는 고성능 SSD 기반 스토리지, RDMA 기반 전송, 그리고 다중 경로 라우팅을 적용해 대역폭 활용 효율을 높이는 방안을 탐색할 필요가 있다. 또한, 실제 물리 분석 워크로드를 적용해 CPU‑I/O‑네트워크 복합 병목을 정량화하는 것이 중요하다. **

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기