안전한 의료 인공지능(AI) 사용 '윤리기준' 제정
조성은 정보통신정책연구원 연구위원
2024.03.11 08:47 댓글쓰기

의료영역은 ICT 신기술 기반의 혁신을 추구하는 데 앞장서 온 영역이지만, 인간 생명과 직결되기에 신기술 도입에 매우 엄격하다.


전자건강기록(EHR)부터 의료영상기술, 로봇수술, 환자 모니터링 시스템 등 첨단 시스템을 통한 의료서비스 혁신이 계속되고 있고, 인공지능, 3D프린팅 등 신기술 수용 움직임도 매우 빠르다.


그러나 인간 생명과 무관하거나 미미한 행정시스템 등을 제외하면, 의료기기 지정에서 임상을 거쳐 현장에 투입되기까지 여러 절차와 심사를 받아야 해서 첨단 기술의 현장 투입 과정이 수월하지 않다.


의료 인공지능 기기에 대한 신뢰 부족도 현장 도입을 더디게 하는 주요 요인이다. 의료영역 인공지능 시스템은 병원과 전문의료인을 위한 전문영역 기술 시스템이다.


일반 시민이 직접 활용하는 디지털 헬스케어 서비스로까지 확장한다면 일반 시민도 사용자에 포함할 수 있지만, 지금의 디지털 헬스케어 서비스 수준은 인간의 생명이나 건강에 중대한 영향을 미치는 정도까지는 아니다.


의료인공지능시스템의 오류로 인한 피해는 궁극적으로 환자가 겪겠지만, 인공지능시스템의 오류로 잘못된 의학적 판단을 하거나 수술에 문제가 발생했을 때, 전문사용자인 병원 및 전문의료인의 손해도 적지 않다.


다른 한편에서는 전문기관과 의료인으로서의 역할을 다하지 못한 데 따른 책임이 있을 수 있는데, 이에 대한 현행 법·제도나 사회시스템은 아직 미비하다.


신기술 도입 단계에서 신기술에 대한 불확실성과 사회제도적 미비점은 장애요인이다. 신기술 채택율을 높이기 위해서는 신뢰 형성이 요구된다.


의료 인공지능 기기 제조사는 병원과 전문의료인의 신뢰를 얻어야 하고, 병원과 전문의료인은 환자의 신뢰를 얻어야 하는데, 윤리적 지침은 이러한 신뢰를 얻기 위한 구체적 노력의 방향을 제시한다.


신뢰를 얻기 위한 의료인공지능시스템의 윤리 기준은 여느 인공지능시스템과 크게 다르지 않겠지만, 의료영역의 특수성으로 인해 좀 더 강조되거나 엄격해지는 부분이 있다.


예를 들어 국내 개인 정보보호법에 따르면, 개인 의료 및 건강정보는 개인정보이면서 보다 엄격한 기준이 적용되는 민감정보로 분류된다.


또 인공지능의 편향성을 판단할 때, 성별, 나이, 사회경제적 지위, 위치 등 일반적인 사회통계학적 변수 외에 의사-환자 상호 작용에서 내재된 차별, 양질의 장비 접근성 격차, 기술·과학·임상·정책 팀 간의 다양성 이슈 등을 고려해야 한다.


무엇보다 의료 인공지능 시스템은 일반 상황에서 활용되는 것이 아니라 특수한 환경에서 특정 목적과 작업을 수행하도록 설계되었기에 의료 환경과 수행 목적을 고려해야 한다.


"일반 AI 윤리 원칙에 의료영역 특수성 반영해서 신뢰성 제고 필요"


OECD는 기 발표한 일반 인공지능 윤리원칙과 정책에서 크게 벗어나지 않으면서 의료영역 특수

성을 반영한 의료영역 인공지능 신뢰성을 위한 정책 권고를 제시했다.


한 해 전에 제시했던 세계 각국의 정책 수립에 방향의 일관성을 유지하는 동시에 일반 인공지능 윤리 원칙과 정책 추진이 특정 영역에도 충분히 적용될 수 있음을 보여준 셈이다.


그러나 정책 방향 제시만이 아니라 실질적 실행도 고려해야 하는 미국 정부와 유럽연합은 일반 수준의 원칙 논의만으로는 특정 영역에서의 실효성 있는 정책추진에 한계가 있다고 본다.


이들 보고서는 실행 가능성을 고려한 실천 전략 수준으로 좀 더 구체적 방안을 제시하고 있었다.


그 와중에 각각의 이해에 따라 강조하는 지점이 달랐다. 인공지능 연구개발을 선도하는 미국은 투명성 및 프라이버시, 보안, 형평성, 정확성 등 여러 윤리적 이슈를 데이터와 관련해 고찰하는 등 데이터 품질과 유통 개선에 유독 관심이 있다.


세계 최초 인공지능 규제 법안을 갖고자 하는 유럽은 일반 규제와 특정 영역 규제 간 충돌이나 미비점을 어떻게 개선할 것인가에 초점을 두었다.


인간의 생명과 신체 안전에 밀접한 의료영역은 고위험군으로 분류돼 여러 의무 규정을 갖는다. 


시라도 법적 모호성이 의료 인공지능 기술 개발의 장애요인이 되지 않도록 하는 동시에, 예상가능한 위험을 통제하는 실효성 있는 자정 기능을 기대하기 때문이다.


"의료영역 인공지능 여건은 원칙 제시로써 의의"


인공지능시스템의 투명성을 통제할 인공지능 여건도 눈여겨볼 만하다.


인공지능 윤리의 핵심 원칙인 투명성은 지금까지 구체적 실행방법보다 선언적 원칙으로만 다뤄져 왔었는데, 이 인공지능 여건은 구체적 실행방법으로 제시됐기 때문이다.


인류 최고 수준의 건강 유지를 목표로 하는 세계보건기구(WHO)는 유일하게 의료 인공지능 개발 및 사용을 위한 윤리원칙을 제시했다.


이 윤리원칙이 일반 인공지능 윤리원칙에서 크게 벗어나지 않더라도, 의료영역에서 인공지능시스템 통제 방안을 모색하려는 여러 기관/기업 및 국가가 고려할 원칙을 제시했다는 데 의의가 있다.


또 향후 인공지능 기술 복잡화와 서비스 다양화 등으로 의료영역만의 원칙과 규율이 더 필요해질

시점에 선행작업의 가치를 인정받을 것이다.


인공지능 신기술 도입 단계인 지금은 일반 인공지능 윤리원칙을 알고 이해하는 것이 우선일 수 있

다.


일반 인공지능 윤리원칙은 현 단계에서 인공지능이 어떤 방향으로 어떤 문제를 고려하여 개발되고 사용돼야 하는 지에 대한 원칙이며, 인공지능의 기술적 특수성과 현 사회제도의 한계를 고려한 과도기적 결과물이다.


발표된 윤리원칙 및 권고안은 지속적으로 수정, 보완되고 있고, 향후 인공지능 기술 발전과 범용화 수준에 따라 영역별 원칙이나 구체적 법률로 전환될 것이지만, 현 단계에서는 적합한 조치였다.


의료영역에서 의료인공지능시스템의 이해와 정보가 필요한 이해 관계자 범위에 개발/제조사 및 전문사용자 외에 환자, 인문사회학자, 돌봄자 등을 포함했다.


일반 인공지능 윤리원칙이 개발/제조사 및 전문사용자 중심인 것과 비교가 된다. 이는 여러 이해관계가 복합적인 의료서비스의 특수성 뿐만 아니라 전문의료영역과 일반건강관리영역의 경계가 모호해지는 기술 발전 경향도 반영한 결과로 본다.


"의료 AI 윤리 논의 및 이해에 폭넓은 이해관계자 참여 필요"


또 특정 영역별 윤리원칙이나 정책권고를 고려할 때, 대상자를 보다 구체화하고 복잡한 이해 관계를 고려할 수 있음을 시사한다.


우리나라의 경우 일반 ‘인공지능 윤리기준’(2020.12.)을 마련하고 이어 이해관계자가 참고할 ‘인공지능 윤리기준 실천을 위한 자율점검표’(과기정통부·KISDI, 2023)를 개발했다.


초 일반 인공지능 자율점검표로 개발된 이후 매년 수정·보완해 공유하는데, 이때 매년 특정 영역의 인공지능시스템에 대한 자율점검표를 추가하고 있다.


2022년에 작문 및 영상제작 영역을, 2023년에는 채용영역의 자율점검표를 개발 중이다. 개발자를 위한 개발안내서도 따로 제작, 배포되고있다.


지금까지 일반 분야뿐만 아니라 공공·사회 영역과 의료영역도 제작됐다. 이처럼 우리 정부의 대응 수준이 결코 다른 국가에 뒤지지 않는다.


물론 인공지능을 합리적이고 효율적으로 통제하기 위해 기 발표된 윤리기준과 후속 조치들은 지속적으로 수정, 보완돼야 한다.


향후에는 영역별 생태계에 일반 사용자를 포함하고 그에 따른 자율점검표나 그에 준하는 실천 수단을 마련해야 할 것이다.


의료영역에서는 기술공학자뿐만 아니라 규제 당국, 사회인문학 및 정책연구가, 환자 및 건강관리 영역 전문가 등과 다각적으로 논의하고 협력할 필요가 있다.


또한, 일반 윤리기준을 원형으로 하되 윤리적 인공지능 개발과 활용을 위해 특정 영역의 정책개발은 필요하다.


즉, 기 개발된 윤리기준에 기초해 의료 영역에서의 기회와 위험을 파악하고 필요한 정책 과제와 실행전략을 수행하는 것이다.


이 때 이해관계자의 입장과 의견을 충분히 고려하고, 광범위한 수준에서 그들의 합의를 이끌어내어 실효성을 높일 필요가 있다. 


※ 한국보건산업진흥원 발간 보건산업정책연구 PERSPECTIVE 기고 내용임



관련기사
댓글 0
답변 글쓰기
0 / 2000
메디라이프 + More
e-談