[메디파나뉴스 = 박으뜸 기자] '보건의료' 분야에서 '인공지능'은 점차 그 영역을 확대하고 있다.
인공지능의 보건의료 활용은 코로나19를 기점으로 더욱 가속화됐다.
국내에서는 2022년 8월 '한시적 비대면 진료 허용방안'이 개정되며 원격 의료 규제가 완화됨에 따라 AI 기술이 활용된 원격 진료 플랫폼, 환자 모니터링 제품 등의 성장을 촉진시켰다.
또한 보건복지부는 지난 2월 2023년도 보건의료 주요 과제로 진료 AI 도입, 디지털 전환 및 해외진출 지원, 공공의료 디지털 전면화 등을 세부 과제로 추진하는 방침에 대해 발표한 바 있다.
이에 따라 국내의 보건의료 환경의 빠른 디지털 전환이 예상된다.
그러나 기술의 파급 효과에 대한 사회적 고려가 부족한 상태에서, 인공지능이 빠른 속도로 진보하는 것에 대해 우려 섞인 시각도 존재한다.
한국보건산업진흥원의 보건산업정책연구 PERSPECTIVE '의료 인공지능 개발, 활용의 사회적 영향과 윤리'에 따르면, 인공지능은 의학 연구, 임상 진료, 공중보건, 의료 행정 등 전 분야에 걸쳐서 적용될 수 있다.
현재 인공지능은 의료 영상 진단에서부터 최적의 맞춤 치료를 결정하는 의사 결정의 모델에 이르기까지 다방면에서 의료인의 역할을 보조할 수 있다.
특히 데이터 분석을 통한 추론에 강점이 있는 인공지능은 영상의학, 병리학 등 특정 분야에서 두드러지는 경향이 있다.
영상을 자동으로 분류하고, 이상이 있는 부분을 특정해 내거나, 병이 진행된 정도를 보여주는 인공지능을 활용하면 더 많은 양의 환자 데이터를 빠른 시간에 파악할 수 있고 정확도를 높일 수 있다.
2022년 11월 기준으로 국내 식약처의 허가를 받은 인공지능은 총 149건이다. 아직 국내 건강보험에 등재된 것은 두 건에 불과하지만 상당히 많은 개발이 이뤄지고 있다.
다만 의료서비스는 수년에 걸친 학습과 수련을 통해 형성된 전문가의 지식과 경험을 필요로 한다.
이 과정에서 인공지능이 의료인의 역할을 대체하는 것이 바람직한지, 의료인의 의료행위에 대한 신뢰를 불필요하게 저해하는 것은 아닌지, 인공지능이 발전하더라도 인간만이 할 수 있는 고유한 가치가 무엇인지 의문이 제기되고 있다.
인공지능 윤리에 관한 문제에서 가장 큰 비중을 차지하는 것은 '데이터 프라이버시'다.
알고리즘을 개발하기 위해서는 학습용 데이터가 반드시 필요하지만 이러한 목적에 필요한 범위 내에서 최소한의 데이터만 수집·활용해야 하며, 정보 주체의 프라이버시를 보호하기 위한 조치가 이뤄져야 하다.
의료 인공지능 개발의 경우 상당한 양의 건강 관련 민감한 정보 처리가 포함될 수 있으므로 적법한 개인 정보 처리 근거를 확보하고 보안을 유지하는 것이 더욱 중요하다.
게다가 인공지능은 '편향적인 결과'를 만들어 낼 수도 있다.
인공지능에서 편향된 결과가 나오는 원인은 샘플 수집 방법이 편향된 경우, 데이터가 부족한 경우, 알고리즘 선정 및 모델이 편향된 경우도 있지만 사회적 편견이 개입돼 나타나는 경우도 있다.
각 사람마다 서로 다른 성별, 연령, 인종, 소득, 학력, 종교 등을 가지고 있고 그에 따라 경험하는 의료환경의 수준에도 크고 작은 차이가 발생할 수밖에 없다.
어떤 사람의 의료서비스 이용 횟수나 의료비 지출 수준이 낮은 경우 그것은 그 사람의 건강 상태가 좋다는 징표일 수도 있다. 반대로 그 환자가 생활하는 곳의 의료서비스가 부족하거나 그의 사회경제적 수준이 충분한 의료서비스를 받을 수 없을 정도로 낮기 때문일 수도 있다.
결국 인공지능이 학습하는 데이터는 사회에 이미 내재한 크고 작은 차이와 불균형을 얼마나 잘 걸러내고 보완을 하는가에 따라 알고리즘의 정확성과 효과성이 달라질 수 있다.
그리고 의료서비스의 제공 과정에서 환자에 대한 의료인의 무의식적인 주관이 개입할 수도 있다.
예를 들어 통증과 같이 다소 주관적인 증상에 대한 의료인의 평가는 그것을 호소하는 환자의 성별이나 연령으로부터 영향을 받을 수 있다.
인간의 인지 능력에는 한계가 있기 때문에 자신이 경험한 환경에 따라서 세상을 바라보는 시각도 달라질 수 있으며, 이와 같은 불균형이 사람의 인식에 작용하는 것을 근원적으로 차단하는 것은 불가능하다.
이러한 한계로 인해 의료인이 환자의 상태를 종합적으로 고려해 내린 진단과 인공지능이 도출한 결과가 다를 수 있다.
인공지능의 활용으로 인해 발생하는 문제에 대한 '책임 소재의 규명'도 어려운 과제 중 하나이다.
현재 우리나라의 의료 과오 관련 대법원 판례는 의료인이 의료행위를 할 당시의 임상의학 분야에서 실천되고 있는 의료행위의 수준, 즉 표준 치료에 부합하는지 여부를 기준으로 의료인이 최선의 주의 의무를 다했는지 여부를 판단한다.
지금의 법리만 그대로 적용할 경우 인공지능의 결론이 정확한지 여부가 아니라, 의료인의 선택이 표준 치료에 부합하는지 여부가 과실 판단의 주요 기준이 된다. 그러므로 의료인은 인공지능을 진료에 활용하는데 소극적인 태도를 보일 수 있다.
이처럼 법적 책임 기준에 대한 불확실성은 인공지능의 가치를 충분히 실현하는 데 방해가 될 수도 있다.
이에 전문가들은 인공지능의 개발과 활용 과정을 합리적으로 수행하기 위해 안전성 관리, 합리적인 법적·제도적 규제 방안의 마련을 촉구했다.
인공지능이 급속도로 발전하고 변하고 있기 때문에 그 위협을 예측하기도 어렵고, 보건 의료 분야는 생명을 다루는 만큼 더욱 철저한 윤리적 고려가 요구된다.
연세대학교 의과대학 인문사회의학교실 의료법윤리학과 이일학 부교수는 "의료 분야에 인공지능을 도입하는 이유는 기술의 활용을 통해 보다 나은 의료 서비스를 제공할 가능성을 기대하기 때문이다. 의료 인공지능의 윤리적 과제는 이러한 가능성과 상충하는 여러 문제를 파악하고 평가해 이익과 위험이 균형을 유지할 수 있도록 하는 것이다"고 설명했다.
이어 그는 "무엇보다도 민감 정보가 포함된 빅데이터를 활용하는 과정에서 개인의 프라이버시나 자율성에 대한 위험 발생 우려 및 각 국가마다 상이한 개인정보 법제로 인한 규제 리스크에 대한 주의가 필요하다. 아울러 인공지능의 투명성과 설명 가능성, 편향 가능성, 책임성, 신뢰, 안전성의 문제를 종합적으로 검토할 수 있는 규제와 거버넌스 체계가 마련돼야 할 것이다"라고 조언했다.
독자의견
작성자 비밀번호
0/200