헬스케어 딥러닝

엄청난 데이터+딥러닝 기술 한국, 의료영상 진단의 성지 될 수 있다

186호 (2015년 10월 Issue 1)

Article at a Glance

의료 영상 장비를 쓰는 의사는 최소한의 방사선량으로 최대한의 진단 정보를 알아내야 한다. 하지만 방사선량이 적은 X-Ray 장비는 MRI CT보다 덜 위험하지만 그만큼 정보량이 적다. 또 의사의 컨디션이나 숙련도에 따라 판독 결과가 달라진다. 컴퓨터를 이용한 보조 진단(CAD) 기술이 나오기도 했지만 정확도에 문제가 있었다. 그런데 2012년부터딥 러닝기술이 급속하게 발전하기 시작하며 진단의학계의 판도가 달라지고 있다. 사람의 얼굴을 사람보다 더 잘 구별해내는 인공지능 알고리즘이 개발되면서 이를 진단의학에 사용하려는 움직임이 국내외에서 활발해지고 있다. 특히 디지털 의료 데이터가 풍부한 한국은 딥러닝 영상 진단 분야에서 유리한 입지를 차지할 수 있을 것이다. 

 

최근 IBM이 의료 영상 처리 전문 기업인 Merge Healthcare 10억 달러에 인수했다. 자연어 처리 능력을 이용한 텍스트 의료 데이터 분석에 특화됐던 자사의 왓슨(Watson) 헬스 플랫폼 위에 딥러닝이라는 인공지능 기술에 기반한 의료 영상 분석 기능을 추가하겠다는 강한 의지를 보여주는 사례다. 2015 7월 권위 있는 인공지능 학회인 ICML(International Conference on Machine Learning)의 딥러닝 워크숍에서는 의료 영상 분야가 딥러닝의 유망한 응용 분야라는 예측도 제기됐다. 딥러닝 기술로 의료 영상 분석을 혁신하겠다는 목표로 지난 2014 9월에 설립된 미국의 Enlitic사는 1년 만에 500만 달러의 투자금을 유치하기도 했다.

 

누구나 알 만한 거대 기업부터 학계, 스타트업에 이르기까지 이런 일관적인 움직임을 보인다는 것에는 분명 그럴 만한 이유가 있을 것이다. 언뜻 보면 서로 관련이 없을 것 같은 인공지능 기술과 영상의학이지만 그 속을 들여다보면 굉장히 깊은 연관성이 있으며 지난 1∼2년 사이에 비약적인 발전을 보인 딥러닝 기술 덕분에 영상의학은 새로운 도약을 눈앞에 두게 됐다. 본 글에서는 이런 혁신에 대한 이해를 돕기 위해 영상의학과 딥러닝에 대해 설명하고, 이 두 분야가 만나서 이뤄지는 영상의학의 혁신 포인트, 그리고 최근 사례들을 소개하도록 하겠다.

 

영상의학의 목표

 

빌헬름 뢴트겐이 X-Ray를 발견하면서 시작된 영상의학은 현재 의료 진단 및 치료에서 매우 중요한 역할을 담당하고 있다. 초기에는 골절과 같은 비교적 간단한 진단에만 이용됐으나 촬영 장비의 눈부신 발전으로 인해 다양한 질병의 진단이 가능해졌으며 특히 각종 암의 조기 진단에 활발하게 이용된다.

 

영상의학의 목표는 최소한의 방사선량으로 최대한의 진단 정보를 알아내는 것이다. 방사선 조사량이 많을수록 더 좋은 품질의 영상을 얻을 수 있지만 그만큼 방사선으로 인한 위험성도 커지기 때문에 조기 진단에서는 방사선량이 가장 적은 X-Ray나 초음파가 많이 쓰인다. 이런 영상들에서 이상 소견이 나타나면 더 자세한 정보를 얻을 수 있는 CT MRI를 사용하게 된다. 하지만 정보량이 부족한 X-Ray에서 빈틈 없이 완벽한 진단을 하는 것은 아직 어렵고 의사의 컨디션이나 숙련도에 따라 판독 결과가 달라지는 문제가 있어 이를 해결하고자 하는 여러 노력들이 이뤄지고 있다. 이 주제를 조금 더 구체적으로 설명하기 위해 현재 미국에서 가장 많이 발생하는 여성 암인 유방암을 예로 들어 설명하도록 하겠다.

 

유방암의 경우 특화된 X-Ray 영상인 유방촬영술(Mammography)을 이용해 조기 진단을 수행한다. 유방촬영술은 1980년대부터 활용되기 시작했는데 초기에는 의사마다 판독 기준 및 결과 작성 방법이 제각각이었다. 그러다 1986 BI-RADS(Breast Imaging Reporting and Data System)라 불리는 표준이 미국에서 제정된다. 이 표준은 2013년에 개정된 5판까지 발전하면서 객관적인 유방암 조기진단을 달성하는 데 큰 기여를 했다.

 

 

하지만 이런 노력에도 아직 유방촬영술을 통한 유방암의 조기 진단은 완벽하지 않다. 미국 BCSC(Breast Cancer Surveillance Consortium) 자료에 따르면 유방촬영술은 실제 암을 찾아내는 비율인 민감도(Sensitivity) 84.4%에 그치고 있다. 그렇다고 해서 더 비싸거나 방사선 노출이 많은 MRI, CT를 조기 검진용으로 쓰는 것은 현실적으로 어렵고 위험하다. 결국 추가적인 방사선 노출 없이 현재 얻어지고 있는 영상에서 더 많은 암의 흔적을 찾아내는 방법이 고안돼야 한다.

 

 

컴퓨터 비전:

인간의 시각 인지 능력을 따라잡기 위한 노력

 

의료 영상은 인체의 내부를 시각화한 데이터이고, 영상의학은 다양한 임상 경험을 바탕으로 이 데이터에서 질병과 상관 관계가 높은 특징들을 정리하는 것이다. 유방암의 경우 종괴, 미세석회화, 구조 왜곡, 그리고 비대칭 음영 등의 특징들이 BI-RADS 표준에 정의돼 있다. 일반 사진과는 다르게 의미 있는 특징을 정의하는 것이 매우 어려운 의료 영상에서 이렇게 체계적인 판독 체계를 수립한 것은 더 나은 의료 진단을 위해 밤낮으로 연구한 의사들의 빛나는 결과물이다. 굉장히 다양한 모습으로 나타나는 암의 그림자를 수없이 관찰하고 병리 진단과 대조해 일반화된 지식의 형태로 가공하는 과정을 통해 비로소 영상의학이라는 학문이 완성돼 가는 것이다.

 

 

하지만 영상의학은 인간의 시각적 인지능력을 통해 이뤄져 왔기 때문에 특히 정보량이 부족한 조기 검진 분야에서는 한계에 부딪히게 된다. 대단히 섬세한 시각적 인지 과정에 대한 지식을 제한된 수의 예시 영상과 글로 전달해야 함은 물론 의사 개개인의 경험과 소질, 그리고 날마다 다를 수 있는 컨디션에 따른 인지 능력의 편차가 존재하기 때문이다. 따라서 완벽에 가까운 의료 영상 진단을 위해 인간의 시각적 인지능력을 보조할 수 있는 도구를 개발하려는 노력은 매우 자연스러운 흐름이라고 할 수 있다.

 

인간의 시각적 인지능력을 모사하기 위한 연구는 컴퓨터 비전이라는 분야에서 이뤄져 왔다. 전자공학과 컴퓨터과학이 주도해온 이 분야는 1999년 브리티시컬럼비아대의 데이비드 로위(David G. Lowe) 교수가 Scale Invariant Feature Transform(SIFT)라고 이름 지은 시각적 특징 표현 방법이 제안되면서 급격하게 발전하기 시작했다. 이 방법을 이용하면 영상 안의 물체의 크기에 상관없이 일관된 특징을 표현할 수 있어 Support Vector Machine(SVM) 같은 분류기를 통해 쉽게 물체의 종류를 인식할 수 있다. 이후에도 Histograms of Oriented Gradients(HOG) 등의 표현 방법들이 제안됐으나 SIFT 2010년대까지 컴퓨터 비전 분야에서 가장 보편적인 특징 표현 방법으로 인기를 끌었다.

 

 

이렇게 컴퓨터 비전 기술이 발달하면서 자연스럽게 영상의학에도 영향을 미치기 시작했다. 미국 캘리포니아에 위치한 R2 Technology사는 이런 컴퓨터 비전 기술을 유방촬영술 판독 분야에 적용한 ImageChecker라는 제품을 출시해 세계 최초로 컴퓨터 보조 진단(Computer-Aided Detection/Diagnosis, CAD) 시장을 개척했다. 급기야 2002년에는 CAD를 보조 판독 용도로 사용하는 것에 대한 보험 코드를 받는 데 성공함으로써 CAD가 미국 전역에 빠르게 보급됐다. 이런 성공에 힘입어 R2 Technology사는 2006 HOLOGIC사에 220만 달러에 인수됐고 현재도 많은 의료 현장에서 사용되고 있다. 그 외에도 iCAD, VuCOMP, Riverrain Technologies와 같이 다른 영상의학 분야를 위한 CAD를 개발하는 훌륭한 회사들이 계속해서 나타났고, CAD는 영상의학에서 하나의 세부 분야로 자리잡으며 승승장구하는 듯했다.

 

 

 

 

하지만 2007년에 저명한 의학저널인 에 게재된 유방촬영술 CAD가 판독 결과에 주는 영향을 분석한 논문이 등장하면서 분위기가 반전되기 시작했다. CAD를 사용한 경우가 사용하지 않은 경우보다 오히려 더 낮은 판독 정확도를 보였다는 충격적인 연구 결과였기 때문이다. 정확도가 떨어졌던 가장 큰 이유는 의심되는 영역을 하나라도 놓치지 않게 하기 위해서 과도하게 많은 마커를 표시했기 때문이다. 유방 촬영술용 CAD는 조기 진단이라는 목적에 맞게 설계돼 정확도를 희생하더라도 암을 찾을 확률을 극대화하는 방향으로 동작하는데, 이는 오히려 CAD가 영상의학계에서 부정적인 이미지를 가지게 되는 원인이 돼버렸다.

 

 

이런 이유들로 인해 CAD의 입지가 좁아졌다. 하지만 2010년대 초반 CAD 기술의 가장 기초가 되는 컴퓨터 비전 기술의 수준이 퀀텀 점프를 하게 된 사건이 발생하면서 컴퓨터는 영상의학에서 다시 한번 중요한 기회를 맞이하게 된다. 바로 딥러닝의 등장이다.

 

딥러닝을 통한 컴퓨터의 비약적인

시각 인지 능력 향상

 

딥러닝은 기술적 용어라기보다는 마케팅 용어에 가깝다. 조금 더 기술적인 표현으로는 딥 뉴럴 네트워크(Deep Neural Network)라고 하며 이미 오래 전부터 연구돼 왔던 인공신경망(Artificial Neural Network)을 다층구조로 확장한 것이다. 인간의 뇌가 뉴런과 시냅스로 구성돼 있다는 점에 착안해 만들어진 기계학습 기술인데, 학습에 필요한 빅데이터와 이를 현실적인 시간에 처리할 수 있게 도와주는 고성능 컴퓨팅 시스템을 만나 다층구조의 인공신경망을 구현하는 데 성공했다. 그 결과 기존 방법들을 훨씬 뛰어넘는 놀라운 인지 능력을 보여주고 있다.

 

딥러닝이 앞서 설명한 SIFT와 같은 방식보다 얼마나 높은 성능을 보이는지 입증한 유명한 사건이 있다. 2010년부터 시작된 Imagenet Large-Scale Visual Recognition Challenge(ILSVRC)라는 이미지 인식 대회가 있는데 1000가지 물체 종류 중에서 주어진 이미지 안에 있는 물체가 어디에 속하는지 맞춰야 하는 굉장히 어려운 문제를 풀어야 한다. 대회 2년 차인 2011년까지는 앞서 설명한 SIFT에 기반한 방식들이 주를 이뤘고, 정확도는 74% 수준에 머무르고 있었다. 사실 그 당시에는 이 정도의 정확도도 대단한 것이었다.

 

하지만 바로 다음 해인 2012년에 엄청난 사건이 벌어졌다. 캐나다 토론토대 Geoffrey Hinton 교수와 그의 제자인Alex Krizhevsky의 팀인 Super Vision이 완전히 새로운 방식인 Deep Neural Network을 이용해 전년도 기록을 10%나 뛰어넘은 84%의 정확도를 달성해 버린 것이다. 게다가 이 팀은 바로 다음 해에 DNN Research라는 회사를 설립해 구글에 인수됐다. 이렇게 놀라운 성능은 딥러닝이 가지는 특징 학습(Feature Learning)이라는 능력에 기인한다. SIFT와 같이 인간이 직접 설계한 특징 표현 방법은 예측 가능한 시나리오에서는 잘 동작할 수 있지만 처음 보는 패턴을 적절한 특징으로 표현하는 데 있어서는 한계점을 보일 수밖에 없다. 하지만 딥러닝은 대량의 학습 데이터로부터 가장 최적의 특징 표현을 스스로 학습해 내기 때문에 일반화 능력이 굉장히 좋으며 이를 통해 높은 성능을 보일 수 있게 된 것이다. 1∼2%의 정확도로 경쟁하던 분야에서 갑자기 10%의 성능 향상을 보인 게임체인저가 나타나자 컴퓨터 비전을 연구하는 사람들은 너도나도 이 새로운 기술에 달려들기 시작했다. 2013년 대회에서는 상위 10등 안의 모든 참가팀이 딥러닝 기술을 이용했으며 매년 최고 기록이 경신돼 2015년에는 구글이 비공식 대회 기록으로 95.2%를 달성, 인간의 정확도로 알려졌던 95%를 넘어서기에 이른다.

 

 

2015년에 구글이 보여준 이미지 인식 성능은 단순히 95%를 넘는 정확도를 보였다는 사실을 넘어 이제 인간이 자신보다 뛰어난 시각적 인지능력을 가진 기계를 설계할 수 있게 됐다는 상징적인 의미를 가진다.

 

 

이런 사례는 얼굴 인식 분야에서도 찾아볼 수 있다. 얼굴 사진을 통해 누구인지 알아내는 문제는 ILSVRC의 물체 인식 문제에 못지 않게 난이도가 높은 문제에 속했다. 하지만 딥러닝 기술의 잠재력이 알려지면서 여러 연구진이 이를 얼굴 인식에도 접목하기 시작했고, 첫 의미 있는 성과인 DeepFace가 페이스북에서 발표됐다. 13323장의 사진을 5749명의 사람 중에서 정확히 인식해야 하는 어려운 작업에서 무려 97.35%에 달하는 인식률을 달성했다. 동일한 작업을 인간이 할 경우의 정확도는 97.53%, 페이스북의 얼굴 인식 엔진인 DeepFace와 거의 동일한 수준이었다. 그리고 몇 개월 후 구글은 동일한 작업을 99.63%의 정확도로 수행하는 FaceNet을 발표, 인간의 수준을 가볍게 넘어버린다. 이렇게 인간을 절대 넘을 수 없을 것 같았던 컴퓨터의 시각적 인지능력이 단 2년 만에 딥러닝 기술에 의해 폭발적으로 성장하게 됐다.

 

 

딥러닝이 영상의학에서 보여줄 잠재력

 

앞서 말했듯이 영상의학은 다년간 의료영상을 관찰하면서 알게 된 병변의 특징들을 일반화해서 정리한 학문이다. 그동안은 컴퓨터의 인지 능력이 인간의 수준을 넘지 못해 한계점을 보였다면 이제는 인간보다 더 뛰어난 일반화 능력을 가지는 딥러닝이라는 기술이 나타났기 때문에 영상의학과 컴퓨터의 관계는 새로운 국면에 접어들게 됐다. 단순히 인간이 할 수 있는 작업을 돕는 보조기구를 넘어서 인간보다 더 잘 볼 수 있는 눈을 가진 새로운 도구로써의 역할을 하게 되는 것이다.

 

이와 관련해, 영상의학은 아니지만 병리 조직검사 분야에서 딥러닝이 가능성을 보여준 사례가 있다. 2012 International Conference on Pattern Recognition(ICPR)에서 개최된 유사분열세포 검출 대회에서 딥러닝을 이용한 스위스의 IDSIA 연구팀이 78.2%의 정확(F-Score)도로 우승을 차지한 것이다. 유사분열세포의 수를 세는 작업은 병리 조직검사 과정에서 빈번하게 일어나는 일이지만 매우 노동집약적인 작업이고 의사마다 판단이 다를 수 있어 객관성 향상이 요구되고 있는 상황이다. 이 연구팀은 대회 우승 이후에도 관련 연구를 계속해 사전 지식이 없는 동등한 상황에서 인간보다 딥러닝 알고리즘이 분류 기준을 더 잘 학습할 수 있음을 보이기도 했다.

 

 

영상의학 시장은 연 35조 원에 달할 만큼 큰 시장이다. 이 분야를 혁신할 수 있는 새로운 기술, 딥러닝이 등장했기 때문에 사업적으로도 매력적인 기회가 열렸다고 볼 수 있다. 스타트업들도 이런 기회를 잡기 위해 분투하고 있다. 필자가 운영하는 딥러닝 스타트업 루닛은 유방촬영술과 유방 병리 조직검사 프로세스에 딥러닝 기술을 적용한 Scope라는 제품을 개발하고 있다. 유방촬영술을 위한 Scope R, 유방 병리 조직검사용 제품인 Scope P가 있으며 특히 Scope P는 스마트폰 카메라로 촬영한 현미경 영상을 딥러닝으로 분석하는 간편한 시스템으로 진단 보조 제품이 보편화되지 않은 병리과에서 좋은 반응을 보이고 있다. 그 외에도 딥러닝 기술로 폐 영상을 분석하는 뷰노코리아도 탄탄한 기술력으로 시장 진입을 노리고 있다.

 

 

미국에서는 2013∼2014년에 창업한 Enlitic, MetaMind, Butterfly Network, 그리고 SemanticMD와 같은 스타트업들이 딥러닝과 의료 영상 분석에 적용하기 위해 사업을 전개하고 있다. Enlitic MetaMind, SemanticMD는 방사선 이미지들을 주력으로 다루고 있고 Butterfly Network 사는 독특하게 자체 개발한 휴대용 초음파 기기에서 얻어진 영상을 딥러닝으로 분석하려고 하고 있다.

 

이렇게 여러 회사들이 이 시장에 뛰어들고 있지만 아직 제품이 나오고 수익을 창출하고 있는 회사는 없는 상태다. 이런 소프트웨어들도 결국 의료기기에 해당하기 때문에 철저한 임상실험, 까다로운 FDA 승인 절차 등의 과정을 거치게 되며 이로 인해 실제로 병원에서 이런 제품들이 정식으로 사용되기까지는 오랜 시간이 걸릴 것이다.

 

 

 

스타트업뿐만 아니라 대기업들도 이런 기회를 선점하기 위해 빠르게 움직이고 있다. IBM은 왓슨 플랫폼을 영상의학에도 적용하기 위해 Merge Healthcare사를 거액에 인수했고, 구글과 마이크로소프트는 오랫동안 내부적으로 영상의학에 대한 연구를 지속해 왔기 때문에 딥러닝을 접목한 여러 가지 실험들을 꾸준히 계속하고 있다.

 

이런 치열한 경쟁에서 살아남기 위해서는 더 많은 의료 영상 데이터를 확보하고 이를 이용해서 고객이 실제로 원하는 좋은 제품을 만드는 것에 집중해야 한다. 이 점에서 한국이 가지는 강점이 있다. 바로 딥러닝의 핵심인 데이터가 풍부하다는 것이다. 국내 대형 병원은 일찍이 의료 영상을 디지털 형태로 보관해 왔고 환자들이 미국 대비 훨씬 적은 비용으로 의료 서비스를 받을 수 있어 병원에 대량의 임상 정보가 보관돼 있다. 이런 장점을 최대한 활용하면 새롭게 태동하는 이 시장에서 한국이 선제적인 위치를 차지할 수 있는 차별화 포인트가 될 것이다.

 

백승욱 루닛(Lunit) 대표 apaek@lunit.io

 

필자는 카이스트에서 전자공학을 전공했고 동 대학원에서 박사 학위를 취득했다. 현재는 딥러닝을 이용한 의료 영상 분석 기술을 개발하는 루닛의 대표를 맡고 있다.

동아비즈니스리뷰 337호 ESG 2.0 and beyond 2022년 01월 Issue 2 목차보기