AI 의료기기 상용화 후 사용자 피드백 분석 – 환자와 의사의 반응은
AI 기술이 의료 산업에 본격 도입되면서, 이제 병원 현장에서 상용화된 인공지능 의료기기를 사용하는 모습은 더 이상 낯선 풍경이 아닙니다. 초기에는 영상 판독이나 피부 진단 등 특정 영역에 국한되었지만, 지금은 병리, 안과, 심장내과, 응급의학, 심지어는 중환자실 모니터링과 재활 치료까지 다양한 분야에 걸쳐 AI 기반 기기들이 빠르게 확산되고 있습니다. 특히 의료기기 인허가를 담당하는 각국 규제기관—미국의 FDA, 한국의 식약처, 유럽의 CE 인증 기관—역시 AI를 장착한 기기의 심사체계를 정립함으로써, 상용화를 더욱 가속화하는 구조가 마련되고 있습니다.
그러나 기술의 도입만으로 혁신이 완성되는 것은 아닙니다. 실제 의료 현장에서 AI 의료기기를 사용하는 환자와 의사, 간호사, 임상병리사 등 다양한 이해관계자들의 반응은 상용화 이후 제품의 성능과 지속 가능성을 좌우하는 핵심 변수입니다. 본 글에서는 AI 의료기기를 상용화한 국내외 병원의 실제 사례를 바탕으로, 사용자 피드백이 어떤 양상으로 나타났으며, 어떤 문제와 개선점이 도출되었는지를 체계적으로 정리하고자 합니다.
우선 AI 의료기기의 대표적인 상용화 사례로는 서울아산병원이 도입한 루닛 인사이트(Lunit INSIGHT CXR)가 있습니다. 이 제품은 흉부 엑스레이 이미지를 분석해 결절, 폐렴, 결핵, 기흉 등 주요 폐 질환을 탐지하는 AI 솔루션입니다. 서울아산병원은 2021년 이 솔루션을 외래와 입원 진료 전체에 확대 적용했으며, 당시 연간 200만 건 이상의 흉부 엑스레이 판독에 AI가 개입했습니다. 도입 이후 진단 속도는 평균 2.3시간에서 0.6시간으로 단축되었고, 영상의학과 전문의의 반복 업무가 줄어든 효과도 나타났습니다.
그러나 의사들의 반응은 단일하지 않았습니다. 일부 의사는 AI 결과가 실제 임상 판단과 유사한 경우가 많아 신뢰할 수 있다고 평가한 반면, 다른 일부는 'AI가 놓친 병변을 내가 발견해야 한다는 이중 부담감'을 토로했습니다. 또한 AI가 의심 소견을 과도하게 출력할 경우, 불필요한 추가 검사로 이어지는 사례도 있어, 임상적 판단에서 AI의 알림 기능을 언제 수용하고 언제 배제할 것인지에 대한 기준이 부족하다는 피드백이 반복되었습니다.
환자들의 반응 역시 다층적으로 나타났습니다. AI 판독 결과를 직접 보는 환자들은 대부분 신기함과 기대감을 표현했지만, 동시에 '사람이 아닌 기계가 내 병을 판단한다는 것'에 대한 불신도 존재했습니다. 특히 고령 환자나 디지털 문해력이 낮은 환자일수록, AI 진단 결과에 대해 의사의 설명을 더욱 신뢰하며, AI가 제시한 정보는 '보조적인 것'으로 받아들이는 경향이 강했습니다. 또한 일부 환자는 AI가 제시한 결과와 의사의 설명이 다를 경우, 오히려 불안이 커진다고 응답해, 정보 제공의 방식과 순서가 매우 중요하다는 사실도 드러났습니다.
미국에서도 유사한 양상이 나타났습니다. 클리블랜드 클리닉에서는 IBM Watson for Oncology를 도입해 암환자 진료에 AI를 적용한 사례가 있으며, 초기에는 진단 알고리즘의 정합률이 약 70~80%로 보고됐습니다. 그러나 사용자 피드백 분석에서는 '정보는 풍부하지만, 그 정보가 실제 환자에게 어떻게 적용되는지에 대한 임상적 맥락이 부족하다'는 비판이 많았습니다. 특히 의사들은 Watson이 제시한 치료 옵션 중 일부는 미국 보험체계나 환자의 약물 내성 정보를 반영하지 못해 실용성이 떨어졌다고 지적했습니다. 결국 클리블랜드 클리닉은 해당 시스템을 2020년 이후 공식적으로 철회하였습니다.
국내 중소병원의 경우에는 상급종합병원에 비해 AI 의료기기 도입에 더 신중한 입장을 보이고 있습니다. 장비 가격, 사용 편의성, 의료법상 책임소재 모호성 등 다양한 장벽이 존재하기 때문입니다. 그러나 일부 병원에서는 AI 기반 심전도 분석기, 자동 채혈 분석기 등 비교적 단순하고 반복적인 영역에서부터 도입을 시작하고 있으며, 초반에는 오류율이 높다는 피드백이 많았지만, 지속적인 업그레이드와 현장 피드백 수렴을 통해 점차 개선되고 있다는 평도 나오고 있습니다.
사용자 피드백을 종합해 보면 다음과 같은 공통적인 문제점과 개선점이 도출됩니다:
- 문제점
- 알고리즘의 투명성 부족 (왜 그 판단을 내렸는지 설명 어려움)
- 결과의 과다 알림 → 불필요한 검사의 증가
- 의료진의 과실 책임소재에 대한 혼란
- 환자 대상 설명 방식의 표준 부재
- 개선점
- XAI(설명 가능한 AI) 기술 도입 확대
- 진단 신뢰도에 따른 AI 결과 출력 강도 조절 기능 탑재
- 의료진용 매뉴얼 및 환자설명 가이드 개발
- 환자 디지털 리터러시에 따른 UI/UX 맞춤화
이러한 개선은 단순히 제품 개선 수준에서 끝나는 것이 아니라, 병원 조직의 프로토콜, 진료 흐름, 책임구조까지 포괄하는 변화로 이어지고 있습니다. 예컨대 서울성모병원은 AI 판독 결과를 진료차트 내에 자동 삽입하지 않고, 별도 검토 후 수동 삽입하게 하는 규칙을 도입함으로써 의료진의 판단 개입 여지를 확보하고 있으며, 고려대학교병원은 AI 진단 결과를 환자에게 직접 출력해주는 대신, 진료실 내 설명 도구로만 사용하도록 하는 등 병원별 사용자 중심 전략이 다양하게 실험되고 있습니다.
또한 피드백 수렴을 통한 업그레이드도 활발히 이루어지고 있습니다. 루닛은 자사의 흉부 AI 솔루션에 '진단 확률 범위'를 수치화하여 표기하는 기능을 도입했고, 뷰노는 AI 영상판독의 신뢰도를 단계적으로 표시하며 의사의 판단을 보조하는 UX를 강화했습니다. 이는 단순히 'AI의 존재'가 아니라, '어떤 방식으로 진료에 녹아드는가'에 대한 고민이 제품 개선의 핵심이라는 것을 보여주는 지점입니다.
결론적으로 AI 의료기기의 상용화는 단순한 기술 도입이 아니라, 의료 생태계 전체의 변화와 연결되어 있습니다. 환자와 의료진은 각각의 시각에서 AI를 경험하고 있으며, 그들의 목소리는 다음 세대 의료기기 설계의 기준이 되어가고 있습니다. 정책적으로는 의료기관의 AI 피드백 수렴 체계 구축을 장려하고, 사용자 기반 평가 데이터의 공개와 공유가 이루어질 수 있도록 인프라를 마련하는 것이 중요합니다. 결국 좋은 의료 AI란, 알고리즘이 뛰어난 기술이 아니라 사용자와 소통하며 끊임없이 진화하는 기술입니다.
앞으로의 의료는 단지 AI가 진단을 '잘하느냐'가 아니라, 얼마나 의료진과 환자 모두에게 '납득 가능한 근거와 설명'을 제공하며, 진료 경험을 향상시키느냐에 따라 성공 여부가 갈릴 것입니다.