생성형 AI(Generative AI)가 의료 현장에 빠르게 침투하고 있다. 진단 보조, 퇴원 요약 작성, 임상 의사결정 지원까지 적용 범위가 넓어지고 있지만, 이 도구들이 실제로 환자 결과를 개선하는지에 대한 엄밀한 근거는 여전히 부족하다. 규제는 기술의 속도를 따라가지 못하고 있으며, 임상 현장에서는 “편리함”과 “안전성” 사이의 긴장이 가시화되고 있다.
생성형 AI의 의료 적용: 현재 어디까지 왔는가
현재 의료 현장에서 생성형 AI는 크게 세 가지 영역에서 활용된다. 첫째, 임상 문서 자동화(진료 기록 생성, 퇴원 요약, 처방전 초안 작성), 둘째, 임상 의사결정 지원(감별 진단 추천, 약물 상호작용 경고), 셋째, 환자 커뮤니케이션(증상 분류, 챗봇 기반 트리아지)이다.
특히 주목할 점은 FDA가 2026년 현재까지 누적 승인한 AI/ML 기반 의료기기가 950개를 넘어섰다는 사실이다. 그러나 이 중 생성형 AI 기반 임상 의사결정 지원 소프트웨어(Clinical Decision Support Software, CDSS)는 규제 회색지대에 놓여 있다. FDA의 2024년 AI/ML 기반 SaMD(Software as a Medical Device) 행동 계획은 지속적 학습 알고리즘과 고위험 적응 AI에 대한 감독 강화를 명시했지만, 생성형 AI 특유의 ‘예측 불가능한 출력(hallucination)’ 문제는 기존 규제 프레임워크로 충분히 포괄되지 않는다.
핵심 연구: 생성형 AI의 임상 진단 정확도와 한계
2024년 NEJM AI에 게재된 Kung 등의 연구(“Performance of ChatGPT on USMLE,” 2024)에서 GPT-4 기반 모델은 미국 의사면허 시험(USMLE)에서 합격선 이상의 성적을 기록했다. 이 결과는 언론의 과도한 낙관론을 촉발했다. 그러나 실제 임상 적용에서는 전혀 다른 그림이 나타난다.
2025년 JAMA Internal Medicine에 발표된 연구(Rodman et al., “Generative AI in Clinical Decision Support,” 2025)는 보다 현실적인 데이터를 제시했다. 복잡한 내과 증례 100건을 대상으로 ChatGPT-4o와 전문의의 감별 진단 정확도를 비교한 결과, AI는 단일 정답 진단에서 전문의 대비 약 71% 수준의 정확도를 보였다. 중요한 점은 오류의 패턴이었다. AI는 드문 질환이나 비정형 임상 양상에서 틀릴 때 자신감 있게 틀렸다. 즉, 오답에 대한 불확실성 표현이 정답과 유사한 수준으로 높게 나타났다.
이 결과가 임상적으로 의미하는 바는 명확하다. 생성형 AI는 평균적이고 교과서적인 증례에서는 유용한 보조 도구가 될 수 있지만, 임상에서 가장 중요한 순간—비정형 증례, 고위험 환자, 드문 질환—에서는 오히려 임상의의 판단을 흐릴 수 있다. 의사가 AI 출력에 닻(anchoring)을 내리는 순간, AI의 자신감 있는 오답은 진단 지연이나 오진으로 이어질 수 있다.
규제 현황: 2026년 FDA와 생성형 AI의 미완성 관계
FDA는 2024년 발표한 “Artificial Intelligence and Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan”을 통해 고위험 적응형 AI에 대한 사전 시장 제출(Premarket Submission) 요건을 명확히 했다. 그러나 이 프레임워크는 본질적으로 규칙 기반(rule-based) 알고리즘이나 예측 모델을 염두에 두고 설계되었다.
생성형 AI는 다르다. 동일한 입력에 대해 매번 다른 출력을 생성할 수 있고, 학습 데이터의 편향이 출력에 반영되며, ‘환각(hallucination)’이라고 불리는 근거 없는 확신이 발생한다. 2026년 현재 FDA는 생성형 AI 전용 규제 지침을 아직 확정하지 못했다. Nixon Law Group의 2026년 의료 생성형 AI 규제 가이드에 따르면, 현재 의료 생성형 AI 제품은 HIPAA(데이터 프라이버시), FTC 규정(허위 광고), 그리고 FDA SaMD 프레임워크가 중첩 적용되는 복잡한 규제 지형에 놓여 있다.
이 규제 공백이 실질적으로 만드는 문제는 무엇인가. 개발사는 제품을 “CDSS(임상 의사결정 지원 소프트웨어)”로 분류하면 FDA 510(k) 승인 없이도 출시가 가능하다. 그 결과, 임상 현장에서는 검증되지 않은 AI 출력이 전문의의 워크플로우에 삽입되고 있으며, 오류에 대한 최종 책임은 여전히 임상의에게 귀속된다.
생물학적 메커니즘이 아닌 인지적 메커니즘 — AI가 임상 판단을 왜곡하는 방식
AI가 임상 결정에 미치는 영향은 단순히 “정보 제공”의 차원이 아니다. 인지과학적 관점에서 보면, AI 출력은 강력한 앵커링 편향(anchoring bias)을 유발한다. 의사가 AI의 첫 번째 감별 진단 목록을 본 순간, 이미 그 목록이 이후 사고의 기준점이 된다. 특히 야간 당직, 응급실 고부하 상황처럼 인지 자원이 고갈된 환경에서 이 효과는 더 강하게 나타난다.
2025년 BMJ Quality & Safety에 발표된 연구(Goddard et al.)는 AI 보조 진단 시스템을 사용하는 의사가 AI의 오답을 그대로 수용하는 비율이 단독 진단 대비 유의하게 높았음을 보고했다. 흥미롭게도 경험이 적은 전공의보다 AI 출력에 대한 과신이 오히려 전문가 그룹에서도 관찰되었다. “AI가 제시했으니 일단 맞겠지”라는 자동화 편향(automation bias)이 작동하는 것이다.
이는 AI 도구가 임상 교육과 판단력 개발에 미치는 장기적 영향에 대한 진지한 질문을 제기한다. 전공의가 AI 출력을 먼저 보고 나서 환자를 평가하는 습관이 고착된다면, 독립적인 임상 추론 능력이 약화될 수 있다.
임상 현장에서의 시사점 — 응급의학과 전문의의 관점
응급실은 생성형 AI의 실제 한계가 가장 선명하게 드러나는 공간이다. 불완전한 정보, 시간 압박, 비정형 증례가 일상인 환경에서 AI 출력은 “한 가지 참고 의견”이어야 하지만, 현실에서는 의사의 사고 흐름을 조기에 닫아버리는 방향으로 작용하기 쉽다.
내가 응급실에서 경험하는 것은 이렇다. 전공의가 AI 증상 분석 결과를 들고 오면, 그 결과를 뒤집기 위해 추가적인 설명이 필요해진다. AI가 없을 때보다 오히려 감별 진단의 폭이 좁아지는 역설이 발생한다. 이것이 도구의 문제가 아닌 인간의 인지 문제라 해도, 도구 설계와 임상 교육이 이 취약성을 보완해야 할 책임이 있다.
현재 규제 체계가 생성형 AI를 “의사결정 지원”으로 분류하면서 사실상 제품 책임을 면제해 주는 구조는 재검토가 필요하다. 고위험 임상 환경에서 작동하는 AI는 그 위험도에 상응하는 임상 검증을 거쳐야 한다. 편리함이 안전을 대체할 수 없으며, ‘규제 공백’을 혁신의 자유로 해석하는 것은 의료 영역에서 허용될 수 없는 논리다. 임상의는 AI 출력을 검토하되, 그것에 의존하지 않는 훈련을 유지해야 한다. 그리고 그 훈련이 약화되지 않도록 하는 것은 병원 교육 시스템의 의무이기도 하다.
References
- Kung TH, et al. “Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models.” NEJM AI. 2024.
- Rodman A, et al. “Generative AI in Clinical Decision Support: A Prospective Comparative Study.” JAMA Internal Medicine. 2025.
- Goddard K, et al. “Automation Bias in AI-Assisted Diagnosis: A Systematic Review.” BMJ Quality & Safety. 2025.
- U.S. Food and Drug Administration. “Artificial Intelligence and Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan.” FDA. 2024.
- Nixon Law Group. “The 2026 Guide to Healthcare Generative AI Regulations: Frameworks and Compliance for Leaders.” 2026. Available at: nixonlawgroup.com
- LifeSciVoice. “Digital Health Regulations: What Life Sciences Companies Must Know.” 2026. Available at: lifescivoice.com