

김남국 교수
AI는 바둑, 체스에서 학습 문화를 바꾸고 있다. 의료도 '의사-LLM 협업'이 기본 모델이 될 것이며 전문성은 AI가 제시한 선택지를 책임 있게 결정하는 능력으로 이동 중이다.
황웅주 교수
전문성은 AI 결과를 검토하고 해석하는 능력으로 확장돼야 한다. 'AI가 놓쳤다', 'AI가 그랬는데 무시했다'는 사례에서 결국 책임은 의사에게 있다. 판단력과 해석력이 더욱 중요해지는 이유다.
김은경 병원장
반복 업무는 줄었지만 대신 AI 결과를 점검하고 보정하는 일이 의료진 전문성의 핵심이 됐다. 설명 가능한 판단, 책임 있는 결정이 중요해졌고, 전문성은 설명 가능성과 책임성 위에서 재정의되고 있다.
권순용 교수
숙련된 손보다 설명 가능한 판단이 중요해지는 구조다. 이를 가능하게 하려면 교육과 윤리 기준이 함께 변화해야 한다.
Q. 의대 교육은 어떻게 달라져야 할까. 의대·전공의 단계에서 무엇이 바뀌면 좋을지
김남국 교수
AI 리터러시는 선택이 아닌 필수다. 병원 워크플로가 빠르게 바뀌고 있고 EMR 요약, 간호 상담 자동화 같은 환경 변화에 맞춰 편향, 전력소모, 작동 원리까지 이해할 수 있도록 가르쳐야 한다. AI와 함께 일하는 기본기를 체계화해야 한다.
김현정 이사장
첫째, 의대에 의료데이터·AI 윤리를 필수과목으로 넣어야 한다. 둘째, 전공의 단계에서는 임상-데이터 협업 프로젝트가 필요하다. 셋째, 전문의 갱신교육에 AI 활용법, 오류 대응, 설명 의무 항목을 정기적으로 반영해야 한다.
김은경 병원장
교육은 병원 시스템과 맞물려야 한다. 예컨대 'AI 판독→의사 검증→책임자 확인' 같은 구조가 실제 병원 운영과 연계돼야 한다. 이론 교육만으로는 한계가 있다.
황웅주 교수
영상의학이나 안과처럼 영상 기반 진료가 많은 과에서는 AI 결과 해석 훈련이 핵심이다. 어떤 결과가 나왔는지가 아니라 그 결과가 이 환자에게 어떤 의미인지를 판단하는 것이 진정한 전문성이다.
권순용 교수
교육은 단순한 도구 활용법이 아니라 판단 체계를 재구성하는 일이다. 교육-평가-책임 구조가 일관되게 설계돼야 한다.
“AI 진료가 어떻게 이뤄졌는지, 환자에게 투명하게 보여줘야”
윤리는 ‘하지 마라’가 아닌 ‘어떻게 안전하게 할 것인가’ 설계 지향돼야
Q. AI가 진료에 관여하는 상황에서 윤리와 책임은 어떻게 정립돼야 할까
황웅주 교수
AI 보조 → 의사 판단 → 기록 구조가 표준화돼야 한다. 특히 AI와 다른 판단을 내렸을 경우 그 이유를 기록으로 남기는 과정이 필수다. 이게 환자 신뢰를 지키는 방법이다.
김은경 병원장
의료 데이터 유출은 병원에 치명적이다. 안전한 내부망이나 국가망에서만 연구와 진료가 이뤄지도록 인프라를 강화해야 한다. 윤리는 "하지 마라"가 아니라 "어디서 어떻게 하라"로 설계돼야 한다.
김현정 이사장
설명 가능성이 윤리의 출발점이다. 판단의 근거가 명확하지 않으면 설명도 책임도 흐릿해진다. 인증, 보안, 로그 기록 등에서 투명성을 확보해야 한다.
김남국 교수
지금처럼 환자 돈으로 효과를 검증하는 구조는 왜곡을 낳는다. 정부가 공공재 차원에서 임상시험을 지원하고 필요하지만 상업성이 낮은 영역까지 보완해야 한다.
권순용 교수
윤리는 금지의 언어가 아니라 안전한 방법을 설계하는 언어다. 책임의 위치를 명확히 하고 설명 가능성을 제도화하는 게 핵심이다.
Q. 제도적 뒷받침은. 그리고 이 제도가 교육·윤리와 함께 작동하기 위해 필요한 것은
김현정 이사장
AI를 의료기기 프레임으로만 다루는 방식에서 벗어나야 한다. 'AI 의료행위'를 정의하고 수가 체계에 AI 보조와 의사 검증을 모두 포함해야 한다. 데이터 표준화는 국가가 주도해야 한다.
김은경 병원장
지금처럼 장문의 설명서와 복잡한 절차를 요구하면 현장에서 AI는 쓰기 어렵다. 설명 의무는 지키되 절차는 간소화해야 의료진이 AI를 도입할 수 있다.
황웅주 교수
법적 지위와 보험 체계가 명확해야 한다. 현실에서 통용될 수 있는 사용 원칙이 구체적으로 제시돼야 현장에서의 혼란이 줄어든다.
김남국 교수
AI 모델을 돌리기 위한 연산 자원이 병원마다 다르다. GPU 같은 인프라는 공공재로 제공돼야 한다. 병원 간 데이터 연계는 정부가 책임져야 한다.
권순용 교수
제도는 현장을 멈추게 하는 안전장치가 아니라 현장을 달리게 하는 안전장치여야 한다. 수가·법·윤리·인프라가 통합된 거버넌스가 필요하다.
Q. 사회적 신뢰, 환자와 시민은 무엇을 원하고 우리는 무엇을 보여줘야 할까
김현정 이사장
환자는 AI가 어떻게 내 진료에 개입했는지를 알고 싶어 한다. 어떤 데이터가 사용됐고 의료진이 무엇을 확인했는지를 보여주는 게 신뢰다.
김은경 병원장
설명은 짧고 명확하게. 'AI가 먼저 찾아냈고 의사가 확인했다'는 방식이면 환자도 수용한다. 기술보다 불확실성이 문제다.
황웅주 교수
공감과 관계는 사람의 몫이다. AI가 분석을 도와도 환자의 감정과 상황을 읽고 치료를 결정하는 건 사람이다. 좋은 의사-환자 관계는 AI 수용성을 높인다.
최현섭 대표
환자가 데이터 사용 이력을 직접 확인할 수 있게 하면 투명성이 확보되고 신뢰로 이어진다. 데이터 주권은 기술과 인터페이스로 실현돼야 한다.
권순용 교수
결국 신뢰는 시스템이 만든다. 설명 가능성, 기록 투명성, 환자 참여가 공존의 핵심이다.
Q. 'AI와 인간 공존'을 위한 최우선 과제를 한 줄로 표현하면
김남국 교수
'의사-LLM 협업'을 전제로 교육·수가·윤리가 함께 작동하는 구조를 만들자.
김현정 이사장
데이터 표준화와 로그·인증 체계를 일원화해 설명 가능한 AI 의료를 기본값으로 만들자.
김은경 병원장
설명 의무는 강화하되 절차는 합리화해 AI를 실제로 쓰게 만드는 제도를 설계하자.
황웅주 교수
책임의 주체를 명확히 하고 의사가 AI를 검증하는 프로세스를 고도화하자.
최현섭 대표
환자 데이터 주권을 기술과 기록으로 실현해 신뢰를 보장하자.
권순용 교수
AI는 미래 열쇠지만 문을 열기 위해선 교육·윤리·제도라는 손잡이가 함께 움직여야 한다.
??????????

AI , . '-LLM ' AI .
AI . 'AI ', 'AI ' . .
AI . , , .
. .
Q. .
AI . EMR , , , . AI .
, AI . , - . , AI , , .
. 'AI ' . .
AI . .
. -- .
AI ,
Q. AI
AI . AI . .
. . " " " " .
. . , , .
. .
. .
Q. .
AI . 'AI ' AI . .
AI . AI .
. .
AI . GPU . .
. .
Q. ,
AI . .
. 'AI ' . .
. AI . - AI .
. .
. , , .
Q. 'AI '
'-LLM ' .
AI .
AI .
AI .
.
AI .?