General

'General' 카테고리의 모든 글

총 273개의 글
시간순 정렬
3차원 신경망 표현을 활용한 얼굴 이미지 통합 설명

3차원 신경망 표현을 활용한 얼굴 이미지 통합 설명

본 연구는 3차원 신경망 표현을 활용하여 캘리브레이션되지 않은 여러 개의 인간 얼굴 이미지를 통합하고 일관된 설명을 제공하는 방법을 제시합니다. 특히, Gaussian Splatting 기법이 NeRFs보다 더 명확하게 구조화되어 있어 제약 조건에 잘 대응할 수 있다는 점에서 주목할 만한 연구입니다. 본 논문은 세그멘테이션 주석을 활용하여 얼굴의 의미적 영역을 정렬함으로써, 11장의 이미지만으로 중립 자세를 재구성하는 데 성공했습니다. 이는 기존에 긴 동영상이 필요했던 것과 대조되는 중요한 발전입니다. 또한 본 논문은 Gaussia

No Image

AI와 함께하는 연구 혁신: TIB AIssistant 플랫폼

본 논문은 생성형 인공지능(AI)과 대형 언어 모델(Large Language Models, LLMs)의 발전이 연구 방법론에 미치는 잠재적 변화를 탐구하고 있다. 특히, AI가 제공하는 새로운 기회와 그로 인해 발생할 수 있는 도전 과제들을 분석한다. 논문은 TIB AIssistant라는 플랫폼을 제안하며, 이 플랫폼은 다양한 학문 분야의 연구자들이 AI를 활용하여 연구 생명 주기 전반에 걸친 작업을 수행하도록 지원하는 것을 목표로 한다. TIB AIssistant는 프롬프트와 도구 라이브러리, 공유 데이터 저장소, 유연한 조정

No Image

가상현실 환경에서의 적대적 예제 기반 사이버질병 조작 연구

이 논문은 가상현실(VR) 환경에서 사이버질병(CS)의 심각도 조작 및 그에 따른 적절하지 않은 완화 전략을 연구하고 있습니다. 특히, 로컬 VR 환경과 클라우드 기반 VR 환경이 결합된 테스트베드를 개발하여 이 문제를 탐구합니다. 로컬 환경에서는 사용자의 체험 중에 CS 완화가 이루어지며, 클라우드 환경에서는 딥러닝(DL) 모델을 활용해 CS 감지를 수행하고 있습니다. 논문의 핵심은 적대적 예제를 생성하여 DL 모델에 입력함으로써 CS의 심각도를 조작하는 것입니다. 이러한 접근법은 VR 사용자의 체험 질을 저하시키거나, 심지어는

Detection
분산 대형 언어 모델 추론의 효율적 검증: 비용 인식 프레임워크를 통한 접근

분산 대형 언어 모델 추론의 효율적 검증: 비용 인식 프레임워크를 통한 접근

이 논문은 분산 대형 언어 모델(LLM) 추론의 품질 검증에 대한 새로운 접근 방식을 제시하고 있습니다. 기존의 품질 증명(PoQ) 방법은 계산 결과의 암호학적 검증을 사용하지만, 이 논문에서는 출력 품질에 대한 합의를 통해 이를 대체합니다. 특히, 추론 노드와 평가자 노드 간의 이질적인 컴퓨팅 비용을 고려하여 보상 메커니즘을 개선하는 데 초점을 맞추고 있습니다. 논문은 다양한 LLM과 평가 모델을 사용한 실험 결과를 통해, 특정 아키텍처의 중요성을 강조합니다. 특히, 심미적 텍스트 유사성(bi encoder)이 교차 인코더보다 더

기반모델의 의료영상 진단: 가능성과 한계

기반모델의 의료영상 진단: 가능성과 한계

본 논문은 기반모델(Foundation Models)이 의료 영상 분야에서 어떻게 활용되고 있는지에 대해 깊이 있게 분석합니다. FMs는 단순히 패턴을 인식하는 데 그치지 않고, 복잡한 임상 사고를 모방하고 공간 관계를 이해하며 다중모달 데이터를 통합하는 능력을 갖추고 있습니다. 그러나 이러한 가능성과 실제 활용 사이에는 큰 간극이 존재합니다. 논문은 FMs의 핵심 기능과 한계를 평가하면서, 이들 모델들이 진정한 인지력을 보여주고 있는지 아니면 표면적인 패턴을 단순히 흉내 내는 것인지에 대해 검토하고 있습니다. 또한 논문은 통계적

Model
No Image

나무 종 분류를 위한 TLS와 딥러닝의 결정 과정 해석

본 논문은 TLS(Terrestrial Laser Scanning) 데이터를 활용한 나무 종류 분류 모델의 결정 과정 해석에 초점을 맞추고 있다. 특히, Finer CAM(Class Activation Mapping)이라는 기술을 통해 딥러닝 모델이 어떤 특징에 집중하여 나무 종을 구분하는지 분석한다. 연구팀은 7종류의 유럽 나무들로부터 수집된 TLS 데이터를 이용해 YOLOv8 모델을 학습하고 검증하였으며, 평균 정확도는 96%에 달했다. 이 연구에서 중요한 발견 중 하나는, 딥러닝 모델이 나무의 콘크로나트(crown) 특징에 크

No Image

ELVIS: 비디오 스트리밍 품질과 재생의 균형

ELVIS 아키텍처는 전통적인 코드크와의 차별화된 접근법으로 주목할 만합니다. 이 논문은 서버 측 인코딩 최적화와 클라이언트 측 생성형 인페인팅을 결합하여 중복 데이터를 제거하고 재구성하는 방법을 제시합니다. 이러한 접근법은 대역폭 사용을 줄이면서도 높은 화질을 유지할 수 있는 새로운 가능성을 열어줍니다. ELVIS의 모듈식 설계는 다양한 코드크, 인페인팅 모델, 품질 지표를 쉽게 통합할 수 있게 하며, 이는 미래 기술 발전에 대한 유연성과 확장성을 제공합니다. 또한, 현재 기술이 베이스라인보다 최대 11 VMAF 점을 개선한 결과

Learning
강화학습 에이전트의 안정적 학습을 위한 하이퍼볼릭 특징 공간 활용

강화학습 에이전트의 안정적 학습을 위한 하이퍼볼릭 특징 공간 활용

본 논문은 강화학습(Reinforcement Learning, RL) 에이전트의 성능 향상을 위해 하이퍼볼릭 특징 공간을 활용하는 방법에 대해 깊게 분석하고 있다. 특히, 포앙카레 공(Poincaré Ball)과 하이퍼볼로이드(Hyperboloid) 모델에서 핵심 연산들의 그래디언트를 분석함으로써, 큰 노름(embedding norm)은 그래디언트 기반 훈련을 불안정하게 만들고 근접 정책 최적화(Proximal Policy Optimization, PPO)의 신뢰 영역 위반(trust region violation)을 초래한다는 것

Learning
모델 간 추론 연쇄 교환 가능성 탐구

모델 간 추론 연쇄 교환 가능성 탐구

본 논문은 추론 연쇄의 중간 산출물을 다른 모델이 이어받을 수 있는지를 실험적으로 검증함으로써, LLM 연구 분야에 새로운 시각을 제공한다. 첫 번째 핵심 기여는 ‘추론 교환 가능성’이라는 개념을 정의하고, 이를 정량화하기 위한 평가 프레임워크를 구축한 점이다. 저자들은 토큰‑레벨 로그‑확률을 기준으로 추론을 세 단계(초기, 중간, 후기)로 트렁케이트하고, 각 단계마다 프로세스 보상 모델(PRM)을 적용해 논리적 일관성과 정답 정확도를 측정한다. 이때 사용된 두 베이스 모델인 Gemma‑3‑4B‑IT와 LLaMA‑3.1‑70B‑In

Model
No Image

카디널리티 추정을 개선하는 TiCard: 데이터베이스 최적화의 새로운 지평

이 논문은 카디널리티 추정 문제를 해결하기 위해 TiCard라는 새로운 프레임워크를 소개하고 있습니다. 카디널리티 추정은 데이터베이스 쿼리 최적화에서 중요한 역할을 하지만, 기존의 방법들은 상관관계를 고려하지 못하거나 특정 작업 부하에 맞는 별도의 훈련 파이프라인과 통합이 필요하다는 문제점이 있습니다. TiCard는 이러한 제약을 극복하기 위해 데이터베이스의 원래 추정기를 보완하는 방식으로 설계되었습니다. TiCard는 두 가지 주요 구성 요소를 사용합니다: 그레디언트 부스팅 회귀기(Gradient Boosting Regressor

Learning
해석 가능한 결정트리 기반 선호 베이지안 최적화

해석 가능한 결정트리 기반 선호 베이지안 최적화

본 논문은 베이지안 최적화의 한계점을 극복하고자 결정트리를 새로운 대리 모델로 제시한다. 이는 가우시안 프로세스(GP)를 사용하는 기존 방법과 달리 해석성이 뛰어나며, 연속형 및 범주형 데이터 처리 능력이 강화되어 실제 적용에 유용하다. 결정트리는 복잡한 모델을 이해하기 쉽게 시각화할 수 있어, 최적화 과정에서 얻은 결과를 직관적으로 해석하고 활용하는 데 도움이 된다. 특히, 본 논문의 실험에서는 날카로운 함수에 대한 성능 향상이 확인되었으며, 이는 실제 세계에서 자주 발생하는 불규칙적인 데이터 분포에 효과적일 수 있음을 시사한다.

Learning Model
대형 언어 모델의 낙태 낙인 인식 한계와 다층적 일관성 부재

대형 언어 모델의 낙태 낙인 인식 한계와 다층적 일관성 부재

이 논문은 인공지능 윤리와 인간‑컴퓨터 상호작용 분야에서 매우 시의적절한 질문을 제기한다. 낙태와 같이 사회적·문화적 갈등이 심한 주제는 개인의 내면적 판단, 주변인과의 관계, 그리고 사회 구조적 압력이라는 세 층위에서 복합적으로 작동한다. 저자들은 이러한 다층적 구조를 정량화한 ILAS(Individual Level Abortion Stigma Scale)를 기준으로, GPT‑4, Claude, Llama 2 등 현재 가장 널리 사용되는 다섯 개 LLM을 627명의 가상 페르소나에 적용해 체계적인 실험을 설계했다. 첫 번째 핵심

No Image

대화 분기: AI와의 효율적인 프로그래밍 탐색

이 논문은 대형 언어 모델(LLMs)의 한계를 극복하기 위해 ContextBranch라는 새로운 시스템을 제시하고 있습니다. LLMs는 여러 차례에 걸친 대화에서 성능이 크게 저하되며, 이로 인해 개발자가 다양한 접근 방식을 탐색하는 데 어려움을 겪습니다. ContextBranch는 체크포인트, 분기, 전환, 주입이라는 네 가지 핵심 기능을 제공하여 사용자가 대화 상태를 캡처하고 고립된 환경에서 다양한 접근 방식을 탐색하며 통합할 수 있도록 합니다. 실험 결과, ContextBranch는 선형 대화보다 2.5% 더 높은 응답 품질을

반응형 학습을 통한 수학적 추론 모델의 효율적인 훈련: TRAPO 알고리즘

반응형 학습을 통한 수학적 추론 모델의 효율적인 훈련: TRAPO 알고리즘

본 논문은 강화학습과 준감독 학습을 결합하여 대규모 추론 모델(LRMs)을 효율적으로 훈련하는 방법을 제안하고 있습니다. 특히, TRAPO 알고리즘을 통해 소량의 라벨링 데이터와 많은 비라벨 데이터를 활용해 모델을 안정화시키고, 이를 통해 높은 정확도와 강력한 일반화 성능을 달성할 수 있음을 보여주었습니다. 이 연구는 기존 무감독 RLVR 방법들이 훈련 후기 단계에서 일관성을 유지하지 못하고 모델 붕괴를 겪는 문제를 해결하는 데 중점을 두고 있습니다. TRAPO 알고리즘은 학습 경로 유사성 분석을 통해 신뢰할 수 있는 비라벨 샘플을

Framework Learning
실시간 다중 사용자 영상 번역을 위한 선형 복합 AI 파이프라인 설계와 평가

실시간 다중 사용자 영상 번역을 위한 선형 복합 AI 파이프라인 설계와 평가

본 논문이 다루는 핵심 문제는 “실시간”이라는 엄격한 시간 제약 하에 복수의 생성형 AI 모델을 연속적으로 실행해야 하는 상황에서 발생하는 시스템 레벨의 병목 현상이다. 전통적인 파이프라인 방식은 각 프레임 혹은 영상 세그먼트에 대해 음성 인식, 번역, 텍스트‑투‑스피치, 영상 합성 등 여러 모델을 순차적으로 호출한다. 이러한 순차 호출은 모델마다 수백 밀리초에서 수초에 이르는 추론 지연을 유발하고, 특히 다중 사용자가 동시에 참여하는 화상 회의에서는 각 사용자의 스트림에 대해 동일한 파이프라인을 독립적으로 적용해야 하므로 전체 연

질문을 통한 인터랙티브 추론 결과 기반 질문 최적화 전략

질문을 통한 인터랙티브 추론 결과 기반 질문 최적화 전략

본 논문은 “질문”이라는 행동을 LLM의 핵심 능력으로 재정의하고, 이를 학습 가능한 정책으로 전환하는 혁신적인 프레임워크를 제시한다. 전통적인 LLM 활용 방식은 주어진 프롬프트에 대해 가능한 한 정확한 답을 생성하는 데 초점을 맞추지만, 실제 고위험 응용에서는 사용자가 제공한 정보가 불완전하거나 모호할 때 추가적인 질의가 필요하다. 이러한 상황을 모델이 스스로 인식하고, 교사 모델(보다 강력한 LLM)에게 보완 정보를 요청하도록 학습시키는 것이 핵심 아이디어이다. ODQS는 두 단계 학습 파이프라인을 사용한다. 첫 번째 단계는

Model
No Image

3D 이해와 생성을 위한 통합적 추론 프레임워크: CoRe3D

CoRe3D는 3D 이해와 생성의 통합적 추론 프레임워크로, 기존의 다모달 모델에서 중요한 역할을 하는 명시적인 추론 메커니즘을 3D 영역에 확장하는 것을 목표로 한다. 이 연구는 언어와 비전 작업에서 효과적으로 입증된 추론 중심 접근법이 아직 충분히 개발되지 않은 3D 분야에서도 유사한 성과를 낼 수 있다는 가설을 제시한다. CoRe3D의 핵심은 공간적 근거를 갖춘 추론 표현으로, 이를 통해 모델은 3D 잠재 공간을 지역화된 영역으로 분해하고, 이러한 분해된 부분들에 대해 조합적이고 절차적인 방식으로 기하학적 특성을 추론할 수 있

경제예측을 위한 해석가능 인공지능의 진화

경제예측을 위한 해석가능 인공지능의 진화

이 논문은 계산경제학에서 해석가능 인공지능(XAI)의 중요성을 강조하며, 특히 기계 학습 예측자가 고전적인 경제학적 모델을 능가할 수 있지만 그 내부 작동 원리가 불투명하다는 문제를 해결하기 위해 XAI에 대한 관심이 증가하고 있음을 설명합니다. 논문은 시간 시리즈 데이터의 특성, 즉 자기상관성, 비정상성, 계절성, 혼합 주기, 그리고 제도 변화 등이 표준적인 설명 기법을 불안정하거나 경제적으로 설득력 없게 만들 수 있다는 점에 주목합니다. 이를 해결하기 위해 논문은 XAI 방법론을 세 가지 범주로 분류하고, 각 범주의 특징과 시간

System
대형언어모델의 일관성 강화: 기업환경에서의 정보 안정성 향상

대형언어모델의 일관성 강화: 기업환경에서의 정보 안정성 향상

본 논문은 대형 언어 모델(LLMs)의 일관성 문제를 해결하기 위한 새로운 접근 방식을 제안합니다. LLMs는 다양한 비즈니스 분야에서 중요한 역할을 하지만, 사용자에게 일관된 정보를 제공하는 데 어려움이 있습니다. 이는 특히 기업 환경에서 중요하며, HR 입문, 고객 지원, 정책 공개 등과 같은 시나리오에서는 정보의 안정성이 필수적입니다. 기존 접근 방식은 사실성 향상이나 확률성을 줄이는 데 중점을 두지만, 의미적으로 동등한 프롬프트 간의 일관성을 보장하지는 못합니다. 본 논문에서 제안하는 방법은 그룹 상대 정책 최적화(GRPO)

Model
베이지안 전파형 역산을 통한 대규모 지하 모델의 불확실성 인식

베이지안 전파형 역산을 통한 대규모 지하 모델의 불확실성 인식

이 논문은 베이지안 전파형 역산(FWI) 기법을 이용해 지하 모델의 불확실성을 효과적으로 처리하는 방법을 제시하고 있다. 특히, 대규모 현장 조사에서 실용적이지 않다는 문제를 해결하기 위해 확산 기반 사후 표본 추출과 동시 소스 FWI 데이터를 결합한 새로운 접근 방식을 제안한다. 이 방법은 각 단계에서 파 방정식 해의 수를 줄이고, 모델 공간에서 스토캐스틱 정교화 단계를 적용하여 계산 비용을 크게 감소시키면서도 높은 정확성을 유지할 수 있다. 또한, 속도 패치와 볼륨에 대한 조건 없는 확산 사전 훈련을 통해 소스 관련 수치적 오류

Model
AI 교실의 혁신: 실시간 수업에서 인공지능 활용 사례 연구

AI 교실의 혁신: 실시간 수업에서 인공지능 활용 사례 연구

이 연구는 인공지능(AI)이 실시간 교육 환경에서 어떻게 통합되고 활용되는지를 상세히 분석합니다. 특히, AI가 제3의 참여자로서 수업에 도입되었으며, 이로 인해 피드백 중재와 탐구 지원 등 다양한 역할을 수행하게 되었습니다. 연구는 21명의 교사와 그들이 지도하는 학생들(600여 명)이 AI 기반 플랫폼의 네 가지 주요 기능(Teaching Aide, Assessment & AI Grading, AI Tutor, Student Growth Insights)을 통합한 결과를 분석하였습니다. 이 연구는 교사들의 역할과 AI의 활용 방

AI 위험 완화를 위한 통합 분류체계

AI 위험 완화를 위한 통합 분류체계

이 논문은 AI 위험 관리에 대한 체계적인 접근법을 제시하며, 특히 다양한 프레임워크와 용어의 혼란을 해결하려는 시도를 보여줍니다. 저자들은 2023년부터 2025년 사이에 발행된 13개의 AI 위험 완화 프레임워크를 분석하여, 총 831가지의 독특한 위험 완화 방법을 추출하고 이를 분류체계로 구성하였습니다. 이 분류체계는 AI 시스템에 대한 인간 감독, 기술적 보안, 운영 프로세스, 그리고 투명성과 책임성을 포함하는 네 가지 주요 범주로 나뉩니다. 이 연구의 핵심은 다양한 용어와 개념을 일관되게 정리하고 통합하려는 노력에 있습니다

제로터치 네트워크 보안을 위한 자동화 프레임워크 SecLoop과 보안 인식 정책 최적화 SA GRPO

제로터치 네트워크 보안을 위한 자동화 프레임워크 SecLoop과 보안 인식 정책 최적화 SA GRPO

본 논문은 차세대 6G 통신망에서 핵심적인 보안 과제를 두 단계로 명확히 구분하고, 각각에 대한 혁신적인 해결책을 제시한다는 점에서 학술적·실용적 의의가 크다. 첫 번째 과제는 “보안 전략의 전주기 자동화”이다. 기존 연구들은 주로 침입 탐지·차단과 같은 개별 기능에 초점을 맞추었으며, 전략 수립부터 검증, 업데이트까지의 연속적인 흐름을 자동화하는 체계는 부재했다. 여기서 저자들은 대형 언어 모델(LLM)을 활용해 인간 전문가가 수행하던 전략 생성 과정을 자동화하고, 이를 네트워크 오케스트레이션 엔진과 연동시켜 실시간 대응까지 확장

Network
반분리 쌍 분해의 최적 구성과 저차원 스패너 응용

반분리 쌍 분해의 최적 구성과 저차원 스패너 응용

반분리 쌍 분해(SSPD)는 거리 기반 알고리즘, 특히 근접 탐색, 범위 검색 및 그래프 스파닝에 핵심적인 전처리 구조이다. 기존의 SSPD 구현은 보통 각 점이 O(log n)개의 쌍에 포함되는 형태였으며, 차원 d가 증가함에 따라 복잡도가 급격히 악화되는 문제가 있었다. 본 논문은 “각 점이 몇 개의 쌍에만 참여한다”는 강력한 희소성 조건을 만족하면서도 전체 쌍의 개수를 Θ(n) 수준으로 유지하는 최적 구성을 제시한다. 이는 특히 배율 차원(doubling dimension)이 낮은 메트릭 공간—예를 들어, 저차원 유클리드 공간

생성형 AI가 자동 콘텐츠 분석을 바꾸다

생성형 AI가 자동 콘텐츠 분석을 바꾸다

본 논문은 생성형 대규모 언어 모델(GLLM)이 자동 콘텐츠 분석에 미치는 영향을 다각도로 조명한다. 첫 번째로, GPT‑4와 같은 최신 모델이 사전 학습(pre‑training) 단계에서 방대한 웹 텍스트를 학습함으로써 인간 수준에 근접하는 언어 이해 능력을 획득한다는 점을 강조한다. 이러한 사전 지식은 전통적인 지도학습 방식이 요구하는 대량의 라벨링 데이터와 비교했을 때, 소수의 샘플만으로도 높은 성능을 끌어낼 수 있게 만든다. 논문은 실제 실험을 통해 텍스트 분류, 감성 분석, 주제 모델링, 자동 요약 등 네 가지 대표적인 작

System
중환자실 인공호흡기 필요성 예측을 위한 적응형 테스트 타임 트레이닝

중환자실 인공호흡기 필요성 예측을 위한 적응형 테스트 타임 트레이닝

AdaTTT 논문은 임상 현장에서 급격히 변하는 데이터 분포를 고려한 테스트‑타임 적응 방법을 제시함으로써, 기존 TTT 접근법의 한계를 효과적으로 보완한다는 점에서 큰 의의를 가진다. 첫 번째 강점은 이론적 기여이다. 저자들은 메인 태스크(IMV 예측)와 보조 태스크(재구성·마스크드 피처 모델링) 사이의 상호 정보량을 기반으로 테스트 단계 오류의 상한을 도출했으며, 이는 모델이 얼마나 잘 일반화될 수 있는지를 정량적으로 평가할 수 있는 틀을 제공한다. 이러한 정보‑이론적 분석은 실험적 결과와 결합돼, 보조 태스크가 메인 태스크와

대규모 생성 모델에서 개인 신원 제거를 위한 SUGAR 프레임워크

대규모 생성 모델에서 개인 신원 제거를 위한 SUGAR 프레임워크

본 논문은 생성 모델의 ‘언러닝(unlearning)’이라는 비교적 새로운 연구 영역에 실용적인 해결책을 제시한다는 점에서 큰 의미를 가진다. 기존의 생성 모델은 대규모 데이터셋을 기반으로 학습되며, 한 번 학습된 파라미터를 수정하거나 특정 샘플을 제거하려면 전체 모델을 재학습해야 하는 비효율적인 구조를 가지고 있었다. 특히 얼굴 합성처럼 개인 식별이 가능한 데이터를 다루는 경우, 법적·윤리적 요구에 따라 특정 인물의 데이터를 즉시 삭제할 필요가 있다. SUGAR는 이러한 요구를 충족시키기 위해 두 가지 핵심 아이디어를 도입한다.

Learning
시계열 범위 강화학습 정책의 기억 사용량 측정

시계열 범위 강화학습 정책의 기억 사용량 측정

Temporal Range는 강화학습 에이전트가 과거 관측을 얼마나 활용하는지를 정량화하려는 시도에서 출발한다. 기존 연구에서는 정책 네트워크의 구조적 메모리 용량(예: RNN의 hidden size)이나 훈련된 모델의 성능을 통해 간접적으로 추정했지만, 실제 입력‑출력 관계가 어느 시점까지 영향을 미치는지는 명확히 드러나지 않았다. 이 논문은 그런 공백을 메우기 위해 “시간적 영향 프로파일”이라는 개념을 도입한다. 구체적으로, 시점 t 에서 입력 x t 가 이후 시점 s ( t < s ≤ T )의 출력 y s 에 미치는 1차 민감

Learning
양자 강화학습을 활용한 인적 자원 배정 최적화

양자 강화학습을 활용한 인적 자원 배정 최적화

본 논문은 전통적인 심층 강화학습이 직면한 표현력 한계를 양자 컴퓨팅의 고유 특성을 이용해 극복하고자 하는 시도이다. 기존 Rainbow DQN은 Double DQN, Prioritized Experience Replay, Dueling Network, Multi‑step Learning, Distributional RL 등 여섯 가지 개선 기법을 통합해 성능을 끌어올렸다. 그러나 이들 모두는 고전적인 뉴럴 네트워크를 기반으로 하며, 파라미터 수가 급격히 증가하면 학습이 불안정해지고 메모리 요구량이 커지는 문제가 있다. 변분 양자

Network
양자 상대성 원리와 초광속 변환의 물리적 의미

양자 상대성 원리와 초광속 변환의 물리적 의미

이 논문은 양자역학과 상대성 이론 사이의 오래된 불일치를 새로운 관점에서 접근한다는 점에서 학술적 의미가 크다. 기존의 ‘양자 상대성 원리(QPR)’는 초광속 로렌츠 변환을 허용함으로써, 특수 상대성 이론의 기본 가정인 빛속도 상한을 형식적으로 깨뜨린다. 그러나 저자는 이 변환 자체가 물리적 실재를 의미하지 않으며, 실제 물리학은 실험적 운영 정의에 의해 규정된다고 강조한다. 특히 양자 중첩을 ‘다중 경로’를 그리는 행위가 아니라, 서로 다른 대안이 간섭 고리에서 재결합할 때 나타나는 관측 가능한 위상 차이와 확률 분포로 정의한다는

JPEG DCT 기반 초고해상도 학습으로 데이터 로딩 2·5배 가속

JPEG DCT 기반 초고해상도 학습으로 데이터 로딩 2·5배 가속

본 논문은 딥러닝 기반 이미지 복원 분야에서 흔히 간과되는 데이터 전처리 단계, 즉 JPEG 디코딩 과정이 전체 파이프라인의 효율성을 크게 저해한다는 점을 정확히 짚어냈다. JPEG 포맷은 이미지 데이터를 8×8 블록 단위의 이산 코사인 변환(DCT) 계수와 양자화 테이블로 압축하는데, 이 과정에서 원본 픽셀값을 복원하기 위해서는 역변환과 역양자화가 필요하다. 이러한 연산은 CPU 중심의 작업으로, GPU 가속이 가능한 딥러닝 연산과는 별도로 수행되며 메모리 대역폭과 I/O 병목을 초래한다. 논문은 이러한 병목을 해소하기 위해, D

Learning
LLM 지식재산 보호를 위한 가중치 기반 지문 기술 SELF

LLM 지식재산 보호를 위한 가중치 기반 지문 기술 SELF

SELF 논문은 LLM의 지식재산 보호를 위한 근본적인 접근법을 제시한다는 점에서 의미가 크다. 기존 연구들은 주로 모델의 출력 행동(예: 특정 프롬프트에 대한 응답)이나 구조적 메타데이터(예: 레이어별 파라미터 분포)를 활용해 지문을 생성했으며, 이러한 방식은 공격자가 모델을 미세조정하거나 가중치를 재배열하는 경우 쉽게 회피될 수 있었다. SELF는 이러한 문제점을 해결하기 위해 ‘내재적 가중치 기반’이라는 새로운 패러다임을 도입한다. 구체적으로, 어텐션 메커니즘의 가중치 행렬을 특이값 분해(SVD)와 고유값 분해(EVD)로 분석

교육 난이도 분석을 위한 콘형 모델

교육 난이도 분석을 위한 콘형 모델

본 논문은 교육용 텍스트의 난이도 평가에 있어 기존의 단순 통계 기반 접근법이 갖는 한계를 지적하고, 의미론적 임베딩 공간을 활용한 새로운 프레임워크를 제시한다. 현재 자연어 처리 분야에서는 Word2Vec, GloVe, FastText, BERT, RoBERTa 등 수십 가지 임베딩 기법이 존재하며, 각각이 텍스트의 의미적 유사성을 다른 방식으로 포착한다. 그러나 교육 현장에서 요구되는 “난이도”라는 추상적 특성은 단순한 의미 유사도와는 별개의 차원을 가진다. 따라서 어떤 임베딩이 난이도 구분에 가장 적합한지를 사전에 알기 어렵다

Model
디퓨전 기반 지도 융합으로 실시간 HD 맵 생성

디퓨전 기반 지도 융합으로 실시간 HD 맵 생성

본 논문은 자율주행 차량이 필요로 하는 고정밀 지도(HD 맵)를 실시간으로 생성하기 위한 새로운 접근법을 제시한다. 기존의 HD 맵은 사전 구축된 정적 지도에 의존했으며, 도로 공사, 일시적 차선 변경 등 환경 변화에 즉각적으로 대응하지 못하는 한계가 있었다. 반면, 전 세계적으로 널리 배포되는 표준정밀 지도(SD 맵, 예: OpenStreetMap)는 최신성을 유지하기는 어려우나, 대략적인 도로 구조와 위치 정보를 제공한다는 점에서 유용한 ‘거친 사전(prior)’으로 활용될 수 있다. 논문은 이러한 저해상도 사전을 고해상도 센서

텍스트 기반 훈련을 위한 텍스트 인쇄 이미지 활용 저비용 LVLM 데이터 생성 전략

텍스트 기반 훈련을 위한 텍스트 인쇄 이미지 활용 저비용 LVLM 데이터 생성 전략

본 논문은 대형 비전‑언어 모델(LVLM)의 학습 비용을 크게 낮출 수 있는 새로운 데이터 생성 방식을 제시한다는 점에서 의미가 크다. 기존 LVLM은 이미지‑텍스트 쌍을 대규모로 수집해야 하는데, 이는 촬영·저작권·프라이버시 등 여러 제약으로 인해 특히 의료·법률·산업 현장 등 특수 도메인에서 어려움을 겪는다. 반면 텍스트는 웹·논문·보고서 등에서 손쉽게 확보할 수 있으며, 대형 언어 모델(LLM)을 이용해 자동으로 변형·확장할 수 있다. 그러나 텍스트만으로 LVLM을 학습하면 ‘모달리티 격차(modality gap)’가 발생한다

Model
패널투패치 계층적 구조를 활용한 바이오메디컬 비전 언어 사전학습 데이터 파이프라인

패널투패치 계층적 구조를 활용한 바이오메디컬 비전 언어 사전학습 데이터 파이프라인

Panel2Patch는 바이오메디컬 이미지‑텍스트 학습 분야에서 기존의 “그림‑전체” 접근법이 갖는 근본적인 한계를 뛰어넘는다. 전통적인 사전학습 파이프라인은 논문에 실린 복합적인 멀티패널 그림을 하나의 이미지‑캡션 쌍으로 단순화한다. 이 과정에서 각 패널이 전달하는 구체적인 실험 결과, 세포 구조, 혹은 마커 라벨링과 같은 미세한 의미가 손실된다. 임상의나 연구자는 실제 진단·분석 단계에서 특정 영역을 확대해 확인하므로, 이러한 미세 정보가 모델에 반영되지 않으면 실제 활용도는 제한적이다. Panel2Patch는 먼저 그림 레이아

대규모 데이터베이스를 위한 단일 서버 PIR 가속기 IVE와 DRAM 기반 고처리량 설계

대규모 데이터베이스를 위한 단일 서버 PIR 가속기 IVE와 DRAM 기반 고처리량 설계

프라이빗 정보 검색(PIR)은 사용자가 어떤 레코드를 조회했는지 서버에 노출되지 않도록 하는 암호학적 프로토콜로, 특히 클라우드 서비스나 의료·금융 데이터베이스와 같이 개인정보 보호가 필수적인 분야에서 중요한 역할을 한다. 전통적인 다중 서버 PIR은 서버 간 협업을 전제로 하여 통신 오버헤드와 신뢰 관계 설정이 복잡하지만, 단일 서버 PIR은 서버 하나만 있으면 되므로 배포가 간단하고 비용 효율적이다. 최근 동형암호(Homomorphic Encryption, HE) 기반 단일 서버 PIR가 연구되면서, 암호문 상태에서 직접 연산이

지시와 정책의 공동 진화 기반 강화학습

지시와 정책의 공동 진화 기반 강화학습

본 논문은 RLVR(강화학습 기반 검증 보상) 시스템에서 지시문이 정적인 설계에 머무르는 한계를 정확히 짚어낸다. LLM은 사전 학습된 언어 모델이지만, 실제 환경에서의 행동 정책은 지속적으로 변화한다. 따라서 초기 설계된 프롬프트가 최적이 아닐 가능성이 크며, 정책이 진화함에 따라 지시문도 동적으로 조정될 필요가 있다. INSPO는 이러한 요구를 충족시키기 위해 ‘지시‑정책 공동 진화’라는 새로운 학습 루프를 도입한다. 핵심 아이디어는 지시문을 개별적인 개체로 보고, 강화학습 보상을 각 지시문에 귀속시켜 성능 기반 선택·삭제 과정

다항식 신경 전단 사프 신경망 스펙트럼 기반 이질성 그래프 학습 혁신

다항식 신경 전단 사프 신경망 스펙트럼 기반 이질성 그래프 학습 혁신

Sheaf Neural Network(이하 SheafNN)는 전통적인 그래프 신경망이 정점마다 동일한 특성 공간을 가정하는 한계를 넘어, 각 정점에 독립적인 벡터 공간(스토크)을 할당하고, 인접 정점 사이에 선형 전송(제한) 맵을 학습함으로써 이질성(homophily)과 과평활(over‑smoothing) 문제를 구조적으로 해결한다는 점에서 혁신적이다. 그러나 현재 가장 널리 사용되는 확산 메커니즘인 Neural Sheaf Diffusion(NSD)은 두 가지 주요 병목을 가진다. 첫째, 정규화 과정에서 SVD(특이값 분해)를 사용

스파이킹 신경망의 그래디언트 유출 방어 효과

스파이킹 신경망의 그래디언트 유출 방어 효과

스파이킹 신경망(SNN)이 최근 엣지 디바이스와 저전력 AI 솔루션에서 각광받는 이유는, 뉴런이 스파이크(이산적인 전기 펄스) 형태로 정보를 전달함으로써 연산량과 에너지 소비를 최소화할 수 있기 때문이다. 이러한 구조적 특성은 기존의 연속적인 활성값을 사용하는 인공신경망(ANN)과 근본적으로 다르며, 특히 학습 과정에서도 차별점을 만든다. ANN은 역전파를 통해 정확한 미분값을 계산해 가중치를 업데이트하지만, SNN은 스파이크 발생 자체가 비미분 가능하기 때문에 대리 그래디언트(surrogate gradient)라는 근사 방법을 도

Network Learning
실제 물류 최적화 문제 기반 다중 에이전트 LLM 벤치마크

실제 물류 최적화 문제 기반 다중 에이전트 LLM 벤치마크

이 논문은 현재 LLM 기반 코드 생성 연구가 직면한 근본적인 평가 문제를 짚어낸다. 대부분의 기존 벤치마크는 단순히 코드가 문법적으로 올바른지, 혹은 사전 정의된 테스트 케이스를 통과하는지만을 확인한다. 그러나 실제 산업 현장에서는 코드가 복잡한 의사결정 흐름, 최적화 알고리즘, 그리고 다중 에이전트 간의 전략적 상호작용을 효과적으로 구현해야 한다. 이러한 요구를 반영하기 위해 연구진은 Auction‑Pickup‑Delivery Problem(APDP)이라는 복합 물류 문제를 선택했다. APDP는 입찰 단계에서 불확실한 경쟁 상황

LLM으로 자동 보상 함수 설계하는 LEARN Opt 프레임워크

LLM으로 자동 보상 함수 설계하는 LEARN Opt 프레임워크

본 논문이 제시하는 LEARN‑Opt 프레임워크는 강화학습에서 보상 함수를 설계하는 전통적인 워크플로우를 근본적으로 재구성한다는 점에서 학술적·실용적 의의가 크다. 기존 방법들은 보통 두 단계, 즉(1) 인간이 정의한 메트릭을 기반으로 후보 보상 함수를 생성하고, (2) 인간 혹은 전문가 피드백을 통해 후보를 정제하는 과정을 거친다. 이러한 접근은 인간 전문가의 가용성에 크게 의존하며, 특히 복잡한 도메인에서는 메트릭 설계 자체가 어려운 문제다. LEARN‑Opt는 LLM을 활용해 시스템 설명과 과제 목표만을 입력으로 받아, 자동으

Learning
가속기 설계 언어 컴파일러 성능 프로파일링 도구 Petal

가속기 설계 언어 컴파일러 성능 프로파일링 도구 Petal

본 논문은 가속기 설계 언어(ADL) 컴파일러가 갖는 본질적인 복잡성과 예측 불가능성을 지적하고, 이를 보완하기 위한 프로파일링 도구의 필요성을 설득력 있게 제시한다. ADL은 하드웨어 설계와 소프트웨어 개발 사이의 중간 단계에 위치해, 높은 생산성과 성능을 동시에 추구한다. 그러나 고수준 언어의 추상화와 사이클‑정밀 하드웨어 구현 사이의 변환 과정은 다중 단계 최적화와 복잡한 스케줄링을 요구한다. 특히, 데이터 경로 최적화와 제어 흐름 변환은 서로 상충되는 목표를 가질 수 있어, 컴파일러는 휴리스틱 기반 의사결정을 반복한다. 이러

다중모달 강화학습을 위한 가변 난이도 기반 동적 샘플링 프레임워크 VADE

다중모달 강화학습을 위한 가변 난이도 기반 동적 샘플링 프레임워크 VADE

GRPO와 GSPO와 같은 그룹 기반 정책 최적화 기법은 다중모달 모델이 복잡한 입력‑출력 관계를 학습하도록 설계되었으며, 그룹별 롤아웃을 통해 다양한 상황에 대한 행동을 동시에 평가한다. 이러한 접근법의 핵심 장점은 “상대 이점(relative advantage)”을 이용해 동일한 보상을 받은 샘플들 사이에서도 미세한 차이를 포착할 수 있다는 점이다. 그러나 실제 학습 과정에서 특정 그룹 내 모든 응답이 동일한 보상을 받는 경우, 이점 추정값이 0에 수렴하게 되고, 결과적으로 정책 업데이트에 필요한 그래디언트가 사라지는 ‘그라디언

진화하는 딥러닝 모델을 위한 적응형 키 기반 사용 제어 시스템 ADALOC

진화하는 딥러닝 모델을 위한 적응형 키 기반 사용 제어 시스템 ADALOC

ADALOC이 제시하는 핵심 아이디어는 “키 영역(Access Key Region)”을 모델 파라미터의 일부로 고정하고, 이후 발생하는 모든 파인튜닝·전이학습·도메인 적응 등을 이 영역에만 제한한다는 점이다. 기존의 키 기반 보호 방식은 전체 파라미터에 암호화된 마스크를 적용하거나, 특정 레이어에 비밀값을 삽입한다. 이러한 방법은 모델이 업데이트될 때 마스크가 손상되거나, 새로운 파라미터가 키와 독립적으로 변형돼 보호가 무효화되는 문제가 있다. ADALOC은 처음 키를 선정할 때, 모델의 손실 곡면과 파라미터 민감도를 분석해 “업데

Model
COBOL 코드 변형에 대한 LLM 시스템 견고성 평가 프레임워크

COBOL 코드 변형에 대한 LLM 시스템 견고성 평가 프레임워크

본 논문이 다루는 핵심 문제는 “LLM 기반 시스템이 입력 코드의 사소한 변형에 얼마나 취약한가”라는 질문이다. 특히 COBOL이라는 레거시 언어는 금융·보험·정부 등 핵심 산업에서 아직도 대규모 운영 시스템을 지탱하고 있으며, 그 코드베이스는 대부분 폐쇄형이며 LLM 훈련 데이터에 포함되지 않는다. 따라서 기존의 LLM 평가 방법을 그대로 적용하기 어렵다. 저자들은 이러한 상황을 인식하고, COBOL 코드를 대상으로 하는 전용 견고성 평가 프레임워크를 설계하였다. 첫 번째 기여는 “COBOL 파라그래프 및 전체 프로그램 수준의 변

System
동적 합성 개구를 활용한 GNSS 재밍 신호의 고정밀 방향·거리 추정 기술

동적 합성 개구를 활용한 GNSS 재밍 신호의 고정밀 방향·거리 추정 기술

본 논문은 GNSS 재밍 신호 탐지·위치추정 분야에서 두 가지 혁신적인 요소를 결합한다. 첫째, 저비용·범용적인 SDR 플랫폼인 Ettus USRP X440과 2 × 2 패치 안테나 배열을 활용해 실시간 I/Q 데이터를 확보한다는 점은 실험 재현성과 확장성을 크게 높인다. 전통적인 단일 안테나 기반 AoA 추정은 안테나 간 위상 차이를 이용하지만, 배열이 2 × 2에 불과해 각도 해상도가 제한적이다. 이를 보완하기 위해 저자들은 플랫폼의 이동을 이용한 합성 개구(Synthetic Aperture) 방식을 도입한다. 이동 경로와 속도

System

< 분야별 논문 현황 (Total: 768) >

Electrical Engineering and Systems Science
7
General
273
General Relativity
9
HEP-EX
7
HEP-PH
12
HEP-TH
7
MATH-PH
4
NUCL-TH
1
Quantum Physics
10

검색 시작

검색어를 입력하세요

↑↓
ESC
⌘K 단축키