查詢結果分析
相關文獻
- Training Time of Grid Gaussian Networks Increases at Power Order of Input Dimension
- Neural Network Procedures for Taguchi's Dynamic Problems
- A Fast and Efficient Competitive Learning Design Algorithm Based on Weight Vector Training in Transform Domain
- 專家系統振動訊號圖型判別之研究
- 反傳遞模糊類神經網路於流量推估之應用
- 類神經網路(Neural Networks)的種類及其在影像處理上的應用
- C++Fuzzy類神經網路物件導向發展系統之建立
- 臺灣汽保費率之估計--對數線性費率模式與類神經網路之比較
- 運用類神經網路於股價指數之套利--以日經225指數為例
- 使用類神經網路預估碳化鎢材料放電加工性能
頁籤選單縮合
題名 | Training Time of Grid Gaussian Networks Increases at Power Order of Input Dimension=格狀高斯網路之訓練時間隨輸入的維數以指數遞增 |
---|---|
作者 | 林茂信; 陳福川; Lin, Mao-hsing; Chen, Fu-chuang; |
期刊 | Journal of the Chinese Institute of Electrical Engineering |
出版日期 | 19980500 |
卷期 | 5:2 1998.05[民87.05] |
頁次 | 頁113-124 |
分類號 | 312.2 |
語文 | eng |
關鍵詞 | 類神經網路; 高斯網路; 梯度學習法則; Neural network; Gaussian network; Gradient learning rule; |
中文摘要 | 本論文所探討的問題是有關於訓練格狀高斯網路去近似(approximate)定義於n維 立體空間的非線性函數。我們首先證明了在梯度法則下,這是一個收歛性的學習過程。我們 並且提出選取學習速率的實用方法。接下來,本論文利用正式的數學分析以說明,在梯度學 習法則下,訓練格狀高斯網路的時間隨輸入的維數 n 以指數遞增。 電腦模擬並提供充分的 證據。 |
英文摘要 | We study the problem of training Gaussian grid radial basis function networks to approximate nonlinear mapping over an n-dimensional cube. It is shown that the training process converges under a gradient learning rule. A practical method for selecting the learning rate in the gradient rule is proposed. Then formal analysis is provided to demonstrate that under the gradient rule the training time (in terms of iteration) needed for achieving certain accuracy would increase at a power order of the dimensino, even when suitable parallel computing hardware is available. Computer simulations are given to verify this point. |
本系統之摘要資訊系依該期刊論文摘要之資訊為主。