ADVERTISEMENT

AI 상담 의사보다 낫다?…하버드 의대 교수의 경고 “시기상조”

중앙일보

입력

지난해 3월 23일 서울 강남구 삼성동 코엑스에서 열린 제38회 국제의료기기ㆍ병원설비전시회(KIMES 2023)에서 참관객들이 수술 로봇 등을 둘러보고 있다. 연합뉴스

지난해 3월 23일 서울 강남구 삼성동 코엑스에서 열린 제38회 국제의료기기ㆍ병원설비전시회(KIMES 2023)에서 참관객들이 수술 로봇 등을 둘러보고 있다. 연합뉴스

‘의사 도움 없이 전적으로 인공지능(AI) 진료에 의존할 수 있을까?’
빠른 속도로 진화하는 AI가 의료 영역에도 영향을 미치면서 최근 몇 년 새 의료종사자 사이에서 떠오른 최대 화두다.

미 오픈AI가 개발한 대화형 AI 챗봇인 챗GPT가 지난해 미국 의사면허시험(USMLE)에서 약 60%의 정답률을 기록하며 가뿐히 시험을 통과했다는 소식이 전해진 바 있다. 미국 의료 영역에 AI가 도입되면 연간 4조5000억 달러(약 6060조 원)에 달하는 전체 의료 지출에서 2000억~3000억 달러(약 270조~400조 원)를 절감할 수 있다는 예상도 나온다. AI는 병력 관리 등 의료 행정 간소화에 도움이 될 뿐만 아니라 의사 소견서 작성과 X레이ㆍMRI 판독, 심박수ㆍ산소수치과 같은 데이터 모니터링 등 이미 다양한 분야에 활용되고 있다.

하지만 미 하버드 의대 로버트 슈멀링 교수는 지난달 27일 ‘하버드 헬스 퍼블리싱’에 실은 글을 통해 “의료 전문가의 지도ㆍ감독 없이 AI 진료에 의존하는 것은 시기상조”라고 지적했다. 하버드 헬스 퍼블리싱의 수석 교수 편집자이기도 한 그는 지난해 챗GPT와 의사의 의료상담 내용을 전문가가 비교 평가한 결과 답변의 품질과 공감도 측면에서 챗GPT가 훨씬 우수한 것으로 나타났다는 연구 결과를 정면으로 반박하면서 이렇게 주장했다.

지난해 미 샌디에이고 캘리포니아대(UCSD) 퀄컴연구소 연구팀은 온라인 커뮤니티 레딧의 ‘애스크 닥스(Ask Docs)’ 게시판에 올라온 의료 질문과 답변 195개를 선택한 뒤 같은 질문을 챗GPT에 제시해 답변을 받았다. 애스크 닥스는 커뮤니티 회원이 의료 관련 질문을 올리면 의사 면허를 가진 이들이 답변을 다는 온라인 카페로, 연구팀은 양쪽 답변을 세 명의 의료 전문가 패널에게 블라인드 형식으로 보여주고 답변의 품질과 공감도 등을 평가하게 했다.

한국기계연구원은 2020년 6월 의사가 환자와 접촉하지 않고 진료에 필요한 검체를 채취할 수 있는 로봇 기술을 개발했다. 사진은 원격 검체 채취 로봇을 작동하는 모습. 뉴스1

한국기계연구원은 2020년 6월 의사가 환자와 접촉하지 않고 진료에 필요한 검체를 채취할 수 있는 로봇 기술을 개발했다. 사진은 원격 검체 채취 로봇을 작동하는 모습. 뉴스1

실험 결과는 챗GPT의 완승이었다. 전문가 패널은 78.6%의 비율로 의사 답변보다 챗GPT 답변이 낫다고 했다. 제공된 정보의 품질도 챗GPT가 ‘매우 우수’하거나 ‘우수’하다는 비율이 의사보다 3.6배 높았다. 또 환자 질문에 대해 ‘매우 공감적’ 또는 ‘공감적’이라고 평가한 비율도 챗GPT는 45.1%에 달한 반면 의사는 4.6%에 그쳤다. 실험 결과를 국제학술지 ‘JAMA 내과학’에 올린 논문 공저자 제시카 켈리는 “챗GPT는 정확한 정보를 바탕으로 응답했고 의사의 답변보다 다양한 측면에서 대응하는 경우가 많았다”고 했다.

슈멀링 교수 “답변 정확성 평가 빠져” 

하지만 슈멀링 교수는 “조사 방법에 심각한 한계가 있다”고 지적했다. 그는 답변 품질 및 공감도에 대한 전문가 패널의 평가가 주관적 기준을 적용한 점을 문제 삼으며 “가장 중요한 것은 답변의 실제 정확성인데 이에 대한 평가가 빠져 있다”고 비판했다. 또 “챗GPT의 답변에 평균 211단어가 들어간 반면 의사 답변에 평균 52단어가 들어가 훨씬 짧았다”며 “환자 질문에 대한 공감도 평가는 진정한 공감보다는 답변 길이에 더 영향을 받았을 수 있다”고 지적했다.

슈멀링 교수가 내린 결론은 “정확성에 대한 확실한 검증과 의료 전문가 감독 없이 환자들이 AI 답변에 의존하는 것은 시기상조”라는 것이다. 그는 “챗GPT도 여기에 동의한다. 의학 질문에 의사보다 더 잘 대답할 수 있는지 물어봤더니 ‘아니오’란 답이 돌아왔다”고 했다.

로버트 슈멀링 미국 하버드 의대 교수. 사진 하버드 의대 홈페이지

로버트 슈멀링 미국 하버드 의대 교수. 사진 하버드 의대 홈페이지

다만 슈멀링 교수는 AI 진료 시대가 멀지 않았다는 점을 부인하지 않았다. 그는 “AI 지니(마술램프 요정)가 환자 질문에 자유롭게 답변할 수 있는 시기가 언제인지 알기 위해서는 더 많은 연구가 필요하다”며 “그 시점에 아직 도달하지 못했을 수 있지만 점점 가까워지고 있다”고 했다.

이코노미스트 “AI가 결국 진료하겠지만…” 

주간지 이코노미스트도 지난달 27일 ‘결국 AI 의사가 여러분을 진료할 것’이라는 제목의 글에서 “AI는 의료 분야에서 큰 가능성을 갖고 있지만 거대한 장벽에도 직면해 있다”며 AI 진료 시대 앞에 놓인 몇 가지 난관을 꼽았다.

우선 의료 빅데이터 확보의 안전성과 관련된 문제다. AI 답변의 정확도를 높이기 위해서는 환자의 다양성을 반영한 대규모 데이터 학습이 필요한데, 현재 의료 데이터는 파편화돼 있고 엄격한 규제에 따라 통제된다. 이코노미스트는 “의료 데이터가 자유롭게 이동할 수 있는 안전한 방법을 찾는 것이 도움이 될 것”이라고 지적했다.

인공지능(AI) 로봇 이미지. 사진 셔터스톡

인공지능(AI) 로봇 이미지. 사진 셔터스톡

AI 혁신의 빠른 속도를 따라잡지 못하는 정부 규제 당국의 역량도 개선이 필요한 대목으로 꼽혔다. 새로운 AI 도구를 평가하고 부작용을 지속적으로 감시할 수 있는 전문적 역량을 갖춰야 한다는 지적이다. 이코노미스트는 “각국이 서로 협력해 노하우를 공유하고 최소한의 글로벌 표준을 만드는 것이 해결책이 될 수 있다”고 했다.

또 비용 절감보다는 의료 서비스 개선에 초점이 맞춰진 현 의료 시스템에 새로운 AI 시스템이 도입될 경우 비용과 복잡성이 증가하면서 환자와 의료진의 저항에 부딪힐 가능성이 높다는 점도 고려해야 할 이슈라고 매체는 지적했다. 이코노미스트는 “이처럼 엄청난 장애물이 있지만 의료 분야에서 AI를 사용할 경우 얻을 수 있는 방대한 이점이 있기 때문에 이를 극복해야 할 필요성은 분명하다”고 강조했다.

국내외 상당수 의료인들은 챗GPT에서 제시되는 진단을 과신해서는 안 된다고 경고한다. 논문이나 보고서 등에서 발췌한 내용을 적당히 짜깁기해서 내놓는 결과에 의료 전문지식이 없는 사람들이 현혹되면 위험해질 수 있다는 것이다.

ADVERTISEMENT
ADVERTISEMENT