AI 진료와 인간 의사의 판단이 충돌할 때, 최종 결정은 누가 내려야 하는가?
AI가 병원 진료 현장에 본격 도입되면서 환자의 상태를 분석하고, 최적의 치료 방안을 제시하는 'AI 진료보조 시스템'이 점차 보편화되고 있습니다. 대표적으로는 암 진단, 영상 분석, 약물 추천 등의 분야에서 AI의 도움을 받는 경우가 늘고 있습니다. 하지만 이러한 진료 과정에서 AI의 판단이 인간 의사의 판단과 상충할 경우, 최종 결정권은 누구에게 있어야 하는가 하는 윤리적, 법적, 사회적 쟁점이 본격적으로 제기되고 있습니다.
이 글에서는 의료 현장에서 AI와 인간 의사의 판단 충돌이 발생할 수 있는 상황들을 짚어보고, 이러한 상황에서 어떤 원칙과 기준에 따라 최종 결정권을 설정해야 하는지, 국내외 사례와 함께 분석합니다.
1. 실제 진료현장에서의 충돌 사례
1-1. 영상진단 분야: AI는 암이라고 하지만, 의사는 아니라고 할 때
AI는 대규모 학습 데이터를 바탕으로 높은 정확도로 특정 질환을 판별해냅니다. 예를 들어 폐결절 영상에서 악성 여부를 판단하는 AI는 95% 이상의 정확도를 기록하기도 합니다. 그러나 이러한 판단은 통계 기반이기 때문에 개별 환자의 복합적인 임상 맥락을 놓칠 수 있습니다.
실제로, AI가 악성이라고 판단한 폐결절을 인간 의사가 양성으로 판단해 조직검사를 생략했지만, 몇 달 후 암이 발견되는 사례가 국내 대형병원에서 보고된 바 있습니다. 반대의 경우도 마찬가지입니다.
1-2. 약물처방 시스템: AI는 특정 약을 추천했지만, 의사는 부작용 우려로 거절할 때
AI는 환자의 과거 병력, 유전자 정보, 현재 복용 약물 등을 기반으로 최적의 약물 조합을 추천할 수 있습니다. 하지만 인간 의사는 환자의 심리적 반응, 복약 순응도, 보험 적용 범위 등 비정량적 요소를 고려해 다른 선택을 할 수 있습니다.
이런 경우 환자는 혼란스러울 수 있으며, 누가 옳은지를 판단하기 어려운 상황이 됩니다.
2. 최종 결정권은 누구에게? – 윤리적·법적 프레임
2-1. 의사의 판단이 최종이라는 기본 원칙
현행 의료법상, 진료에 대한 법적 책임은 전적으로 의사에게 있습니다. 이는 AI가 아무리 고도화되더라도 의사의 진단을 보조하는 역할에 머물러야 한다는 의미입니다.
즉, AI가 오진을 해도 그것을 따른 의사에게 책임이 있으며, 의사는 AI의 판단을 검토하고 최종 결정을 내려야 하는 존재로 간주됩니다.
2-2. 그러나 현실은 복잡하다: 책임 분산의 문제
- 의사가 AI를 무조건 무시할 수 있을까? AI가 제시한 판단을 무시하고 치료했을 때 나중에 의료사고가 발생하면, 반대로 AI의 판단을 무시한 것에 대한 책임이 문제 될 수 있습니다.
- AI를 맹신하면? AI가 내린 판단을 그대로 따르다 의료사고가 발생한 경우, '기계의 판단을 인간이 제대로 검토하지 않았다'는 이유로 과실이 성립할 수 있습니다.
이러한 딜레마 속에서 등장한 개념이 바로 "설명가능한 AI (Explainable AI, XAI)"입니다. 즉, AI가 왜 그런 결론을 내렸는지 명확하게 설명할 수 있어야 하고, 의사는 그 설명을 토대로 판단을 내려야 한다는 원칙입니다.
3. 해외 사례와 법적 기준
3-1. 미국: FDA의 AI 승인 기조
- 미국 FDA는 AI 기반 의료기기의 사용을 허용하면서도, **"최종 판단은 인간의사에게 있음"**을 명시하고 있습니다.
- 단, 반복 학습형 AI(continuous learning AI)에 대해서는 버전 관리, 수정 로그 보관 등으로 책임 추적 가능성을 제도화하고 있습니다.
3-2. 유럽: AI의 독립 판단 인정 논의 중
- EU는 AI Act를 통해 고위험군 AI 시스템(의료 포함)에 대해 사전 인증과 철저한 감사 체계를 구축하고 있습니다.
- 일부 의료 AI는 인간 개입 없이도 최종 결정 가능성을 허용하는 방향으로 논의되고 있으나, 강력한 사후 책임 추적 시스템을 병행하고 있습니다.
3-3. 일본 및 한국의 현재
- 일본은 "AI 의사결정 보조 도구"라는 개념을 명시하며, 인간의사가 최종 판단권을 가진다는 원칙을 유지하고 있습니다.
- 한국은 아직 명확한 가이드라인이 부족하지만, 대한의사협회는 일관되게 의사가 최종 책임을 져야 하며, AI는 도구에 불과하다는 입장을 내세우고 있습니다.
4. 현명한 활용을 위한 제언
4-1. AI의 판단은 반드시 "설명 가능"해야 한다
설명 없는 판단은 신뢰를 얻기 어렵습니다. AI가 "이 환자는 폐암일 가능성이 높습니다"라고 제안할 때, 왜 그렇게 판단했는지를 제시할 수 있어야만 의료진이 그 근거를 검토하고 수용 여부를 결정할 수 있습니다.
4-2. 의사는 AI의 의견을 반드시 검토하고 기록해야 한다
의료기록에는 "AI 진단 의견 참고, 환자 상태 및 가족력 감안하여 다른 판단함"처럼 의사의 임상적 판단 과정이 명시되어야 향후 책임 소재가 명확해집니다.
4-3. 환자에게는 충분한 설명과 동의를 제공해야 한다
환자는 "AI 진단 결과가 이러하나, 의료진은 다른 결정을 내렸고 그 이유는 이러하다"는 설명을 받을 권리가 있습니다. 이러한 의사소통 과정은 의료의 신뢰성 회복에 결정적인 역할을 하게 됩니다.
결론: 인간 의사와 AI, 대립이 아닌 협업을 위한 설계가 필요하다
AI는 미래 의료의 핵심 도구이지만, 모든 판단을 대체할 수는 없습니다. 의료는 통계와 데이터만으로 해결할 수 없는 개별 환자의 복합적 맥락과 정서, 가치 판단이 요구되는 분야이기 때문입니다.
결국 최종 결정권은 의사에게 있어야 하며, 의사는 AI를 "보조 도구"가 아닌 "전문 파트너"로 인정하고 협업하는 자세가 필요합니다.
또한 법과 제도는 이 협업을 뒷받침할 수 있도록, 설명 가능한 AI의 개발을 촉진하고, 의사의 판단을 존중하는 책임구조를 설계해야 할 것입니다.