

전태준 서울아산병원 정보의학과 교수는 최근 대한내과학회지(KJM)에 '의료 현장 맞춤형 거대 언어 모델 활용 전략과 데이터 보안 대응 방안 탐색' 논문을 발표해 이 같이 제언했다.
전 교수는 논문에서 의료 현장에서 LLM을 효과적으로 활용하기 위한 방안으로 ▲Text-to-text 학습 전략 ▲Any-to-text 학습 전략 ▲검색 증강 생성(RAG) 활용 전략 등 세 가지를 소개하고, 각 전략에서 발생할 수 있는 데이터 보안 문제와 대응책을 심도 있게 분석했다.
의료현장 적용 가능, 3가지 LLM 전략
먼저 'Text-to-text' 전략은 입퇴원기록지, 외래경과기록지 등 텍스트 형태의 임상 노트를 입력받아 요약된 내용을 생성하거나 새로운 기록 작성을 돕는 방식이다.
이는 방대한 의료 기록에서 핵심 정보를 빠르게 파악하고, 의료진 서류 작업 시간을 줄여 업무 효율성을 높일 수 있다.
또 'Any-to-text' 전략은 한 단계 더 나아가 영상과 생체신호 등 다양한 형태 데이터를 입력받아 그 결과를 텍스트로 생성하는 방식이다.
예를 들어 흉부 방사선 이미지를 보고 이상 소견을 텍스트로 기술하거나, 심전도(ECG) 신호를 분석해 부정맥 판독 결과를 문장으로 설명해주는 방식이다.
이 전략은 여러 형태 자료를 종합적으로 판단, 보다 더 정확한 판독 결과를 제공할 잠재력을 보유했다는 평이다.
'검색 증강 생성(RAG)' 전략도 조명했다. 해당 기술은 LLM 자체에 의료 지식을 저장하는 대신, 외부 데이터베이스를 참조해 답변을 생성한다.
특정 환자에 대한 질문이 입력되면, 모델이 최신 진료지침이나 관련 논문, 병원 내부 자료 등을 실시간으로 검색해 이를 바탕으로 답변을 재구성할 수 있다. 이 방식은 LLM을 직접 학습시키지 않고도 질의응답과 데이터 요약 등 다양한 서비스를 제공할 수 있는 장점이 있다.
'데이터 비식별화' 구축하는 것 최우선 과제
전 교수는 이러한 LLM 효용성에도 불구하고, 환자 민감 정보 유출 가능성을 가장 큰 걸림돌로 지적했다.
특히 'Text-to-text'나 'Any-to-text'처럼 병원 데이터를 직접 모델에 학습시키는 경우, LLM이 답변 과정에서 학습된 환자의 개인정보나 병원의 민감 정보를 외부에 노출할 가능성이 존재하기 때문이다.
또 일단 모델 내부에 학습된 데이터는 기존 정보 시스템처럼 접근 권한을 차등적으로 제어하기 어렵다는 기술적 한계도 있다.
이에 더해 RAG 기술 역시 모델 자체의 정보 유출 위험은 비교적 낮지만, 환자 데이터가 저장된 벡터 데이터베이스에 대한 직접적인 공격으로 정보가 탈취될 위험, 사용자 질문과 모델 답변 내용을 통해 민감정보를 유추하는 공격도 가능하다는 점을 위험 요인으로 꼽았다.
이에 대한 대응 방안으로 전 교수는 '데이터 비식별화'를 최우선 과제로 꼽았다.
환자 개인정보가 불필요한 업무라면, 학습 데이터에서 미리 개인정보를 삭제하거나 가명 처리하는 과정이 필수적이라는 것이다.
만약 개인정보 학습이 불가피하다면, 모델이 특정 정보를 외부로 노출하지 않도록 사전에 규칙과 제한을 설정하는 '가드레일(guardrail)'을 엄격하게 적용해야 한다고 제언했다.
더불어 근본적인 대안으로 외부 클라우드가 아닌 병원 내부망에 독립 서버를 구축해 LLM을 운영하는 '온-프레미스(on-premise)' 방식을 고려할 수 있다.
전 교수는 "LLM 기술은 빠르게 발전하나 보안 취약점이나 데이터 유출 가능성이 항상 존재한다"며 "학습 데이터에 민감 정보를 처음부터 포함하지 않는 것이 가장 근본적인 보안 방안으로 개인 정보를 효과적으로 제거하고 가명화하는 기술의 추가 연구가 이뤄져야 한다"고 강조했다.

(KJM) ' ' .
LLM Text-to-text Any-to-text (RAG) , .
, 3 LLM
'Text-to-text' , .
, .
'Any-to-text' .
, (ECG) .
, .
' (RAG)' . LLM , .
, , . LLM .
' '
LLM , .
'Text-to-text' 'Any-to-text' , LLM .
.
RAG , , .
' ' .
, .
, '(guardrail)' .
LLM '-(on-premise)' .
"LLM " " " .