정보 이론으로 바라본 소수의 분포와 로그 합의 비대칭성

본 논문은 정보 이론의 엔트로피 개념을 이용해, 소수 p≤n에 대해 \(\sum_{p\le n}\frac{\log p}{p}\) 가 \(\log n\)에 점근적으로 수렴한다는 고전적 결과를 새로운 방식으로 증명한다. 저자는 엔트로피 하한과 상한을 각각 정밀하게 계산하여 Chebyshev가 1852년에 얻은 유한‑n 경계들을 재구성하고, 이를 통해 소수 정리와의 연관성을 다시 조명한다.

저자: Ioannis Kontoyiannis

논문은 정보 이론과 수론을 연결하는 새로운 프레임워크를 제시한다. 첫 단계에서는 정수 N을 \(\{1,\dots ,n\}\)에서 균등하게 선택하고, 고유 소인수 분해 \(N=\prod_{p\le n}p^{X_p}\) 로 나타낸다. 여기서 각 지수 \(X_p\)는 “p가 N을 몇 번 나누는가”를 의미하며, 확률적으로는 \(\Pr\{X_p\ge k\}= \frac{\lfloor n/p^k\rfloor}{n}\approx p^{-k}\) 로 근사된다. 이는 \(X_p\)가 평균 \(\mu_p=1/(p-1)\) 인 기하분포와 거의 동일한 분포를 가진다는 직관을 제공한다. 다음으로, 엔트로피 개념을 도입한다. 균등 분포의 엔트로피는 \(\log n\)이며, 이는 \(\{X_p\}\)의 결합 엔트로피와 동일하다. 고정 평균을 갖는 비음수 정수값 확률변수 중 엔트로피가 최대인 것이 기하분포라는 사실을 이용하면, \

원본 논문

고화질 논문을 불러오는 중입니다...

댓글 및 학술 토론

Loading comments...

의견 남기기