查詢結果分析
來源資料
相關文獻
- 結合正則化特徵工程與集成堆疊式學習準確率之研究
- Division of Air Basins Utilizing Principal Component Analysis Over Taiwan
- 集水區水質變遷特性之獨立成分分析
- 海大、海專及海事高職航海相關科系畢業生上船工作意願差異之研究
- Comparison of Principal Components Analysis and Minimum Noise Fraction Transformation for Reducing the Dimensionality of Hyperspectral Imagery
- 資料挖掘技術使用在離子植入機製程之配方分類系統研究
- 金融預警系統之動態模式
- 主成分分析在土壤環境科學上應用
- 臺灣市售包裝茶飲料物理化學特性與官能品質之探討
- 大崙山地區土地利用及地貌變遷之研究
頁籤選單縮合
| 題 名 | 結合正則化特徵工程與集成堆疊式學習準確率之研究=Improving Model Efficiency by Combining Feature Engineering and Ensemble Stacking Learning |
|---|---|
| 作 者 | 邱紹豐; 盧亭瑄; 陳楷智; | 書刊名 | 科學與工程技術期刊 |
| 卷 期 | 21:1 2025.03[民114.03] |
| 頁 次 | 頁27-36 |
| 分類號 | 312.831 |
| 關鍵詞 | 集成式學習; 特徵工程; 多樣性架構; 主成分分析; Ensemble learning; Feature engineering; Diversity structure; Principal component; |
| 語 文 | 中文(Chinese) |
| 中文摘要 | 機器學習技術在各個領域的應用和成就,充分展示了其巨大的潛力和廣泛的應用前景。 其中集成 式 學習 是一種 分階段應用不同機器學習演算法 來訓練模型的 技術 透過不同演算法 間彼此校正誤差,可以 降低模型的偏見 並提高模型預測的準確率。集成學習中各個機器學習 演算法獨自以資料集訓練資料,因此訓練模型的計算成本常常會較其他機器學習的方法高。 如果能夠降低訓練資料 量,且不會影響資料集中各特徵的代表性,就可以在不影響模型品質 的前提之下,有效降低訓練的成本。而在機器學習領域中常用的特徵工程技術,則藉由原始 數據中提取出對模型有意義的特徵,且不會降低整體資料的完整性。特徵工程應用在模型訓 練的資料前處理中,可以提高模型的泛化能力、降低過擬合風險,並且有效降低模型訓練時 間。 本研究 以 特徵工程 中特徵擷取法的三種方法 ,過濾法、包裝法、以及嵌入法等 ,以訓練 資料比較彼此之間的準確率,作為集成式學習資料前處理的方法。 實驗中也與特徵擷取常用 的主成分分析方法比較,以驗證本研究 所選擇的特徵工程方法具較高的 優勢 。在 集 成學習 則 採用集成堆疊式的學習方法,藉由其分階段整合不同學習器的預測結果,提升模型的品質。 此外,為避免模型偏見過高的問題, 本研究中 以多樣性的觀點 作 為設計 的 重點, 也就是提高 學習器間的異質性,更提高模型的預測能力。 為驗證 所 提出的架構,本研究採用 UCI資料庫 的威斯康辛乳癌資料集進行實驗, 整合特徵工程 與集成堆疊學習演算法作為訓練的方法,並 與其他集成學習的方法在精確率、召回率、 F1成績、與準確率比較,結果均顯示以本研究所 設計的多樣性集成堆疊方法有較佳的成績,提供一種 具備更高預測率的學習架構。 |
| 英文摘要 | Despite their potential, machine learning models are susceptible to overfitting and are expensive to train, and ensemble learning and feature engineering can be used to improve generalizability and reduce training costs. Ensemble learning, where various models are independently trained on a dataset, improves accuracy but increases computational cost. Feature engineering, where meaningful features are extracted from the training data, can be used to reduce the data volume and thus training costs for ensemble models without compromising model quality. In this study, several feature engineering methods, namely filter methods, wrapper methods, and embedded methods, were evaluated for their effectiveness as preprocessing methods for ensemble learning. These methods were evaluated against commonly used feature extraction methods, such as principal component analysis. The best-performing ensemble learning method that was then adopted in the proposed method was ensemble stacking learning, in which the predictions of each learner are integrated in stages to improve model quality. To reduce model bias, heterogeneity among learners was emphasized to further improve predictive capability. The proposed framework was validated experimentally on the Wisconsin Breast Cancer Dataset. The proposed diverse ensemble stacking method outperformed its state-of-the-art counterparts in precision, recall, F1 score, and accuracy. |
本系統中英文摘要資訊取自各篇刊載內容。