type:text
近年, 日本では社会の高齢化に伴い, 癌の罹患数・死亡数はともに増加傾向にある一方で, 診断を行う病理医の数は慢性的に不足している。そのため, コンピュータによる診断支援システムの開発が求められている。本研究では, 大腸がん, 胃がん, 子宮頸がんに対応した診断支援システムについて研究を行った。大腸がんと胃癌については, 畳み込みニューラルネットワーク(Convolutional Neural Network, CNN)を用いて患部の悪性度を判別する手法について検討を行った。データ解析の結果, 病理組織画像全体が均一に一つの悪性度特徴をもつことはなかったので, 画像を正方形小領域に分割し, 畳み込みニューラルネットワークの中でも評価の高いAlexNetを用いて, 各分割画像単位で悪性度判別を行った。しかし, 小領域に分割しても, 小領域内に複数の悪性度特徴が含まれる場合があり, それらの領域を訓練データの中に含めると学習結果に影響を及ぼすことが確認できた。訓練データとして, 一つの分割画像中に1種類の悪性度特徴のみをもつような学習データを集める必要がある。本研究では, そのようなデータを集めるためにも, AlexNetを用いることにした。まず, 使用する全分割画像データに対してAlexNetを利用して悪性度判別を行い, その段階で正しく判別した画像だけを訓練データとして利用することを試みた。ここで得られた訓練データは, 各悪性度Groupの典型的な症例画像であると考えることができる。次に, この訓練データを用いてAlexNetを再学習させた。AlexNetの学習方法, 学習率, dropout導入層の探索を行い, 最適なネットワーク構築について検討を行った。その結果, 学習方法としてfine-tuning, 学習率は10-4, dropoutとしてfc7層の条件の時, 悪性度の正判別率が最も高くなった。各Groupの感度および陽性検出率から算出されるF値はGroup1で94.4%, Group3が92.2%, Group5が96.2%となった。このように, すべてのGroupにおいて90%を超える分類精度を達成し, 分割画像単位で腫瘍と非腫瘍を判別することが可能となった。
Recently, the number of cancer patients in Japan has increased, leading to an aging society. However, the number of pathologists has not increased and remains insufficient for the increased number of patients. Therefore, a computer-aided diagnosis system for cancer is required by pathologists. This study investigated the diagnosis support systems for colon, gastric, and uterine cervical cancers. A convolutional neural network was used as the discriminant method for medical images of colon and uterine cervical cancers. In the data analysis results, because the whole pathological images have predominantly plural features at different malignant levels, the images were divided into numerous small square images that were used for classification of cancer malignancy, using a neural network such as AlexNet. Although these small regions were used for classification, they sometimes had plural features of malignancy. When these were used as training data for AlexNet, the classification results were influenced by the imperfect features. In this research, AlexNet was first used to extract high quality data from all of the divided medical images. In the classification, the correctly classified images were selected as the training data in the next step. The selected images seem to have the typical features of the training data. Next, AlexNet was trained by these selected data one more time. The learning method, learning rate, and searching of dropout introduced layers were assessed, and the optimal network structure was discussed. In the results, when fine-tuning was selected as the learning method, the learning rate was 10-4 and the fc7 layer was selected as the dropout ; the classification ratio of malignancy was rated as the most efficient. In each malignancy group, the F-measure was 94.4%, 92.2%, and 96.2% for group 1 (normal tissue), group 3 (benign tumor), and group 5 (cancer), respectively. As described, all of the groups had a classification ratio of over 90%, and non-cancer could be selected for the small divided images.