查詢結果分析
來源資料
相關文獻
- 基於注意力模型神經網路之行為辨識
- 應用注意力機制於深度學習之行為辨識
- 基於多尺度注意力模型之物件偵測
- 使用深度學習之大白鼠梳理行為辨識
- Neural Network Procedures for Taguchi's Dynamic Problems
- A Fast and Efficient Competitive Learning Design Algorithm Based on Weight Vector Training in Transform Domain
- 專家系統振動訊號圖型判別之研究
- 反傳遞模糊類神經網路於流量推估之應用
- 類神經網路(Neural Networks)的種類及其在影像處理上的應用
- C++Fuzzy類神經網路物件導向發展系統之建立
頁籤選單縮合
題 名 | 基於注意力模型神經網路之行為辨識=Using Attention Models on Neural Networks for Human Activity Recognition |
---|---|
作 者 | 鄭又銘; 陳文輝; | 書刊名 | 宜蘭大學工程學刊 |
卷 期 | 13 2019.12[民108.12] |
頁 次 | 頁50-65 |
分類號 | 312.13 |
關鍵詞 | 注意力模型; 神經網路; 行為辨識; Attention model; Neural network; Human activity recognition; |
語 文 | 中文(Chinese) |
中文摘要 | 近年來各種行動感測器的應用蓬勃發展,尤其是在生活紀錄、健身追蹤及健康監測等領域。這些應用功能有賴於智慧型裝置中的嵌入式行動感測器來辨識人們的行為,雖然最近的研究有很大的進展,但因為人類活動行為廣泛以及變化性高,所以行為辨識仍然是一項具有挑戰性的任務,如何明確區分行為的功能就變得非常重要。在行為辨識領域,傳統上使用人工定義特徵的方式來解決問題,近期的研究使用深度卷積神經網路來提取特徵,但是人類行為是由複雜的時間序列組成,若能提取這種時間動態特徵,更能夠讓行為辨識的準確率提高,本研究應用注意力模型導入至行為辨識的研究當中,藉由最新的行為辨識深度學習模型(DeepConvLSTM)的架構中加入注意力機制(Transformer Encoder),並使用公開的數據集PAMAP2來評估此模型,研究結果顯示,比較其他現行的方法,辨識準確率可以提升至84.1%。 |
英文摘要 | The application of motion sensor is flourishing in recent years, especially in the fields of life recording, fitness tracking and health monitoring. These applications depend on embedded motion sensors in smart phone to record human behavior. Although recent research has made great progress, human activity recognition (HAR) is still a challenging task because of the high variability. Artificial feature is the traditional way to solve the recognition problems. Recent researches have used deep convolutional neural networks to extract features, but human activity is composed of complex time series. It is better to extract temporal dynamic feature that can improve the accuracy of recognition. This paper introduces the attention model for the human activity recognition. We use attention model(Transformer Encoder) to the state-of-the-art deep learning HAR model (DeepConvLSTM) and evaluate the model on benchmark datasets. The research results show that compared with other state-of-the-art methods, the recognition accuracy can be improved to 84.7%. |
本系統中英文摘要資訊取自各篇刊載內容。