DGIST 박상현 교수 연구팀, 서울아산병원 남수정·고현정 교수 연구팀과 공동연구 성과적은 정보만으로도 암 부위 정확하게 탐지하는 딥러닝 기술 개발
  • ▲ (왼쪽부터) DGIST 로봇및기계전자공학과 박상현 교수, 정재훈 석박사통합과정생, 필립치콘테 박사과정생.ⓒDGIST
    ▲ (왼쪽부터) DGIST 로봇및기계전자공학과 박상현 교수, 정재훈 석박사통합과정생, 필립치콘테 박사과정생.ⓒDGIST

    DGIST(총장 국양) 로봇및기계전자공학과 박상현 교수(인공지능전공 겸직) 연구팀은 암이 존재한다는 데이터만으로 병리영상에서 암의 존재와 부위까지 정확하게 보여줄 수 있는 약지도학습(Weakly supervision) 딥러닝 모델을 개발했다고 13일 밝혔다.

    기존 딥러닝 모델에서는 암 부위를 특정하기 위해서는 암의 위치가 정확하게 그려진 데이터셋 구축을 필요로 했지만, 이번 연구로 개발된 딥러닝 모델로 효율성이 향상되어 해당 연구 분야에 획기적으로 기여할 것으로 전망된다.

    일반적으로 암의 위치정보를 나타내는 영역화 문제를 해결하기 위해서는 암 부위가 위치한 곳을 정확하게 표시해주는 작업을 진행해야하기에 오랜 시간이 소요되고, 그에 따라 비용이 증가하게 된다.

    이러한 문제를 해결하기 위해 ‘영상 속 암의 존재 유무’와 같은 대략적인 정답만으로도 암 부위를 영역화하는 약지도학습(Weakly supervision)모델이 활발하게 연구되고 있지만, 영상 하나의 크기가 기가바이트에 이르는 거대한 병리영상 데이터셋에 기존의 약지도학습 모델을 적용하면 성능이 크게 저하되는 문제가 발생한다.

    이 문제를 해결하기 위해 병리영상을 패치들로 분할해서 활용하는 방안으로 성능을 높이려고 하지만, 분할된 패치들은 위치정보와 각 분할자료 간 상관관계를 잃어버리게 되어 모든 정보를 활용할 수 없다는 한계를 갖게 된다.

    이에 박상현 교수 연구팀은 슬라이드 단위의 암 유무 표시를 가진 학습데이터만으로 암 위치까지 정확히 분할해낼 수 있는 기법을 발견했다.

    먼저 비지도 대조 학습(Unsupervised contrastive learning)을 통해 패치들로부터 유의미한 특징들을 효과적으로 추출하도록 네트워크를 학습시키고, 이를 이용해 각 위치정보를 유지하면서 주요 특징들을 검출하게 해 패치들 간 상관관계를 유지한 채 영상의 크기를 줄이는 병리영상 압축 기술을 개발했다.

    이후 압축된 병리영상으로부터 클래스 활성 지도(Class activation map)를 활용하여 암일 확률이 높은 부위를 찾아내고, 픽셀 상관관계 모듈(Pixel correlation module, PCM)을 이용해 전체 병리영상 내에서 암일 확률이 높은 부분들을 모두 영역화해낼 수 있는 모델을 개발했다.

    박상현 교수는 “이번 연구를 통해 개발한 모델은 병리영상의 약지도학습 영역화 성능을 크게 개선시켰으며 이를 통해 병리영상 분석이 필요한 다양한 연구들의 효율성 향상에 기여할 수 있을 것으로 기대된다”며 “향후 관련 기술을 좀 더 개선한다면 다양한 의료영상 영역화 문제에도 범용적으로 활용될 수 있을 것”이라고 말했다.

    한편, 이번 연구 결과는 그 우수성을 인정받아 의료영상 분석 관련 분야 최상위 국제학술저널인 MedIA (Medical Image Analysis Journal)’에 게재됐다.