並列タイトル等Studies on Optimum Design method for multilayr Neural Net works with Minimum Network Sige
タイトル(掲載誌)平成9(1997)年度 科学研究費補助金 基盤研究(C) 研究成果報告書 = 1997 Fiscal Year Final Research Report
一般注記1.階層形NNによるパターン分類能力の評価周波数成分に基づく信号検出において、測定サンプル数が制限されている場合は線形処理によるスペクトル分析では十分な検出が行えない。階層形NNでは、ニューロンの非線形特性により信号空間での領域形成の自由度が高く,不規則に分布する信号の分類能力が高いことを確認した。具体的には、ダイヤルトーンなどの応用例においてその有効性を確認した。2.凡化能力を保証する最小学習データの選択方法パターン分類を対象として、未学習パターンに対しても高い分類(凡化)能力を有する階層形NNを実現するための最小学習データの選択方法を提案した。ユークリッド距離に基づいて分類境界面に対峙する各クラスのデータを抽出するものである。データの組み合わせに基づく方法と、学習中の出力誤差に基づく方法について、収束性と学習時間の関係について検討した。また、データが逐次与えられる問題において、常に、最少の学習データを保持できることをシミュレーションにより確認した。3.オンライン学習における最少学習データの選択方法未学習パターンに対しても高い分類(汎化)能力を保証する最少データ選択法について、更に、オンライン学習における方法を提案した。種々のパターン分類問題に適用し、有効性を確認した。4.階層形NNにおけるニューロンの活性化関数の最適化最適な活性化関数はNNを適用する問題によって様々である。また、活性化関数を最適化することにより、回路規模を大幅に低減できる。本研究では、結合荷重の学習と同時に活性化関数自身を学習する方法を提案した。8ビットパリテイ問題等、難しい問題が最小の回路規模で実現できることを確認した。
1. Pattern Classification by Multilayr Ne0ural NetworksIn the signal detection based on frequency components, when the number of the signal samples is limited, accurate detection by linear methods is difficult. The multilayr neural networks can provide high classification performance. The vectors of the signals, which have a small number samples or low SNR,are usually distributed randomly in the N dimensional space. Therefore, the boundary, which separate these vectors becomes very complicated. This can be done by using the nonlinearity of the neurons in the multilayr NNs.2. Selection of Minimum Training Data for GeneralizationA data selection method has been proposed, by which the data belong to the different classes and across over the boundary are selected. These data can guarantee generalization, that is the data, which were not used in the training can be effectively separated.3. Selection of Minimum Training Data for On-Line TrainingThe data are successively applied to the neural networks in the on-line applications. A method, which can select the useful data and hold the minimum number of the training data, has been proposed. Through several kinds of examples, the proposed method was confirmed to be useful.4.Optimization of Activation FunctionsThe network size required for some applications is highly dependent on the activation functions, that is nonlinear functions. A simultaneous learning method for both connection weights and activation functons has been proposed. The parity check problem, which is a difficult task for the multilayr neural networks, can be effectively solved using the minimum number of the hidden units.
研究課題/領域番号:07650422, 研究期間(年度):1995-1997
出典:「階層形ニューラルネットワークの最小構成のための最適設計法の研究」研究成果報告書 課題番号07650422(KAKEN:科学研究費助成事業データベース(国立情報学研究所)) 本文データは著者版報告書より作成
一次資料へのリンクURLhttps://kanazawa-u.repo.nii.ac.jp/?action=repository_action_common_download&item_id=50123&item_no=1&attribute_id=26&file_no=1
関連情報https://kaken.nii.ac.jp/search/?qm=00207945
https://kaken.nii.ac.jp/grant/KAKENHI-PROJECT-07650422/
https://kaken.nii.ac.jp/report/KAKENHI-PROJECT-07650422/076504221997kenkyu_seika_hokoku_gaiyo/
連携機関・データベース国立情報学研究所 : 学術機関リポジトリデータベース(IRDB)(機関リポジトリ)