— 기술보다 빠르게 커진 ‘책임의 공백’
1️⃣ 서론 — AI가 진단하는 시대, 법은 어디까지 따라왔는가
의료 현장은 지금 거대한 전환점에 서 있습니다.
영상 판독부터 진단 보조, 문진 자동화, 처방 추천까지 —
AI는 이미 ‘의사의 손끝’이 아니라 ‘의사의 두뇌 일부’로 작동하고 있습니다.
하지만 문제는 속도입니다.
AI가 실제 진단과 치료 판단에 영향을 주고 있음에도,
법과 제도는 여전히 이를 “의사 보조 도구” 정도로만 규정하고 있습니다.
“AI가 오진을 냈을 때, 책임은 누가 져야 할까?”
의사일까, AI를 개발한 기업일까, 아니면 아무도 아닐까?
이 질문은 단순한 법률적 논의가 아니라,
AI 의료시대의 신뢰와 안전의 근간을 결정짓는 문제입니다.
2️⃣ 의료 AI는 이제 ‘도우미’가 아니라 ‘결정자’에 가깝습니다
초기의 의료 AI는 진단을 돕는 보조도구(AI-assisted tool)였습니다.
예를 들어 X-ray나 CT 이미지를 판독하여
“암일 가능성이 있음” 정도를 표시하는 수준이었죠.
하지만 지금의 AI는 완전히 다릅니다.
Google의 Med-PaLM 2, OpenAI의 GPT-4-turbo 의료특화 모델,
DeepMind의 AlphaFold처럼,
AI가 질병을 ‘진단하고’, ‘치료 방향을 제시하며’, 심지어 ‘임상 기록을 요약’하는 단계에 와 있습니다.
AI의 판단이 의료진의 의사결정에 직접 영향을 주는,
즉 **‘공동 의사결정자(Co-decision maker)’**로 변한 것입니다.
그렇다면, 오류가 발생했을 때의 책임도 더 이상 한쪽에만 있지 않게 됩니다.
3️⃣ 오진이 발생했을 때 — 책임의 주체는 누구인가
의료 AI가 잘못된 결과를 내어 환자가 피해를 입었다면,
법적으로는 세 가지 주체가 문제의 대상이 됩니다.
(1) 의사 책임론 — 최종 진단의 주체는 여전히 인간
한국 의료법상 진단과 처방의 권한은 인간 의사에게만 있습니다.
따라서 AI가 오진을 냈더라도,
그 결과를 검토하지 않고 그대로 의무기록에 반영했다면
의사의 과실로 인정될 가능성이 높습니다.
그러나 최근처럼 AI가 고도화되어
‘추천 수준’을 넘어 ‘의사 수준의 결정을 제안’하는 경우에는
의사의 책임만으로 문제를 덮기 어렵습니다.
AI를 신뢰한 의사가 잘못일까,
아니면 불완전한 AI를 시장에 낸 기업이 잘못일까요?
(2) 개발사 책임론 — 제조물책임법의 한계
AI가 식품의약품안전처(MFDS)로부터
‘의료기기 소프트웨어(SaMD)’로 허가를 받았다면,
제품의 결함에 따른 손해에 대해 **제조물책임법(Product Liability Law)**이 적용될 수 있습니다.
하지만 이 법은 ‘예측 가능한 결함’을 전제로 합니다.
AI의 판단은 확률적이며, 동일한 입력에도 다른 결과가 나올 수 있습니다.
즉, 전통적인 의미의 ‘결함(defect)’을 입증하기 어렵습니다.
AI는 “고의로 틀린 것이 아니라”,
“예측 불가능하게 틀린 것”이기 때문입니다.
결국 기업의 과실 여부를 입증하기가 매우 어렵습니다.
(3) 병원 및 플랫폼 책임론 — 도입 주체의 관리 의무
AI 솔루션을 병원에 도입한 의료기관도
‘시스템 안전관리 의무’를 부담해야 합니다.
하지만 대부분의 병원은 “AI는 참고용에 불과하다”는 조항을 명시해
법적 책임을 회피하고 있습니다.
이로 인해 환자는 실제로 소송을 제기할 때
“누구를 상대로 해야 하는가?”조차 모호한 상황에 놓이게 됩니다.
4️⃣ 해외는 이미 법정에서 싸우고 있다
🇺🇸 미국 — 병원 책임 인정 사례
2023년 미국에서는 AI 영상 판독 시스템이 폐암을 놓쳐 환자가 사망한 사건이 있었습니다.
유족은 병원과 AI 개발사를 동시에 고소했지만,
법원은 “AI의 판단은 의사의 진료행위의 일부로 간주된다”며
병원 측 책임을 인정했습니다.
AI는 도구일 뿐, 의사의 통제 아래 있었다는 이유였습니다.
🇪🇺 유럽연합 — ‘AI 공동책임 체계’ 도입 중
EU는 2024년 「AI Act」에서 의료 AI를 **‘고위험 시스템(High-Risk System)’**으로 분류했습니다.
개발사는 오류율 보고 의무, 설명가능성(XAI) 확보, 데이터 편향성 관리를
법적으로 수행해야 합니다.
또한 오진 발생 시 의사·의료기관·개발사가 공동으로 책임을 분담하는 구조를 명문화했습니다.
🇰🇷 한국 — 제도 미비로 ‘의사 단독 책임’ 가능성
한국은 의료법 제2조에 따라
진단과 처방 권한을 인간 의사에게만 부여하고 있습니다.
AI는 ‘진료 보조 도구’로만 분류되어 있기 때문에,
오진이 발생하면 의사 개인의 과실로 귀결될 가능성이 큽니다.
결국 한국의 현실은 “AI는 의료기기가 아닌 참고도구”라는 회색지대에 머물러 있습니다.
5️⃣ 왜 ‘AI 책임’을 명확히 하기 어려운가
AI의 책임 논의가 복잡한 이유는 세 가지입니다.
1️⃣ 자율성의 문제 — 딥러닝 모델은 입력과 출력의 인과관계가 명확하지 않습니다.
법적으로 ‘예견 가능한 행위’가 아니므로 과실 판단이 어렵습니다.
2️⃣ 설명가능성(Explainability)의 부족 —
왜 그 판단이 나왔는지를 설명할 수 없다면, 책임 소재를 가릴 수 없습니다.
3️⃣ 공급망의 복잡성 —
AI는 개발사 → 병원 → 의료진 → 환자로 이어지는 다단 구조입니다.
각 단계의 책임이 명시되지 않으면, 피해자는 결국 아무도 책임을 묻지 못합니다.
6️⃣ 한국이 준비해야 할 세 가지 제도적 방향
(1) 공동책임모델(Joint Accountability Model) 도입
EU처럼 AI 오진의 경우
개발사·의료기관·의료인 모두 일정 비율의 책임을 지는 구조가 필요할 수 있습니다.
이렇게 해야 기술 발전과 환자 보호가 함께 이뤄집니다.
(2) 설명가능성(XAI) 기준을 인허가 단계에 포함
의료기기 인허가 시,
AI의 결정 과정과 오류율을 투명하게 공개하도록 의무화해야 합니다.
이는 단순한 기술 이슈가 아니라 법적 책임 판단의 전제 조건입니다.
(3) AI 리스크 보험 제도 도입
의료기관과 개발사가 공동으로 가입하는
‘AI 오진 배상보험’ 제도가 필요합니다.
미국 일부 주에서는 이미 AI Malpractice Insurance가 도입되어,
AI 관련 의료 사고에 대한 보상 구조를 마련하고 있습니다.
7️⃣ 결론 — 기술보다 윤리가 늦으면, 신뢰는 무너집니다
AI가 진단 정확도를 높이고 의료 효율을 극대화하고 있는 것은 사실입니다.
하지만 신뢰는 정확도보다 더 중요한 가치입니다.
의료 AI의 진짜 위협은 오진이 아닙니다.
“오진이 났을 때, 아무도 책임지지 않는 구조”
그것이 환자를 두 번 다치게 만듭니다.
의사·기업·정부가 모두 AI를 의료 동반자로 인정한다면,
그만큼의 법적·윤리적 책임 구조도 함께 구축해야 합니다.
AI는 의료의 미래를 바꿀 수 있지만,
책임 없는 AI는 의료의 신뢰를 무너뜨릴 수 있습니다.