• Tidak ada hasil yang ditemukan

딥 러닝 및 서포트 벡터 머신기반 실시간 센서 고장 검출 기법에 관한 연구

N/A
N/A
Protected

Academic year: 2023

Membagikan "딥 러닝 및 서포트 벡터 머신기반 실시간 센서 고장 검출 기법에 관한 연구"

Copied!
80
0
0

Teks penuh

이를 방지하기 위해서는 센서 고장을 실시간으로 감지하는 시스템이 필수적이다. 키워드: 센서 결함 진단, 컨볼루션 신경망, 자동 인코더, 서포트 벡터 머신, 시간 영역 통계 기능, 변형 변형 자동 인코더, 유전자 알고리즘, 실시간 모니터링.

서 론

CNN 기반 센서 장애 분류의 분류 성능이 향상되었습니다. Jing과 GA를 사용하여 특징 선택을 기반으로 SVM 센서 오류의 분류를 설명합니다.

연구의 이론적 배경

모델 성능 테스트 및 검증

데이터가 훈련 데이터와 테스트 데이터로 나누어져 있음을 보여줍니다. 에포크당 검증 데이터를 사용하여 최적화가 얼마나 잘 진행되었는지입니다.

그림  2.3.  모델  평가를  위한  데이터  분배 Fig  2.3.  Data  distribution  for  model  evaluation
그림 2.3. 모델 평가를 위한 데이터 분배 Fig 2.3. Data distribution for model evaluation

서포트 벡터 머신(Support Vector Machine)

클래스를 결정하는 함수는 SVM에서 다음과 같이 정의됩니다. 커널함수를 이용하여 표현한 결정함수식은 다음과 같이 표현된다.

그림  2.6.  커널  함수를  이용한  SVM  분류
그림 2.6. 커널 함수를 이용한 SVM 분류

인공신경망(Artificial Neural Network)

그러나 기존 퍼셉트론의 한계를 극복한 다층 퍼셉트론(MLP)이 등장하면서 인공신경망이 다시 주목을 받기 시작했다. 기존 다층 퍼셉트론 문제 해결 방식으로 인해, 층을 늘려 더 깊은 구조를 만들어 복잡한 문제를 해결할 수 있을 것으로 기대됐다.

그러나 이 역전파 알고리즘 역시 신경망 구조에서 레이어 수가 증가할수록 역전파가 제대로 작동하지 않는 그래디언트 소멸 문제(Vanishing Gradient Problem)를 안고 있다.

그림  2.7에서는  단층  퍼셉트론(Single-layer  perceptron)  모델  구조를  보여주고  있다.
그림 2.7에서는 단층 퍼셉트론(Single-layer perceptron) 모델 구조를 보여주고 있다.

오토인코더(Auto-Encoder)

복원 과정을 거쳐 입력 데이터와 동일한 값을 반환합니다. 그런 다음 디코더 재설정 데이터의 출력 값과 입력 데이터 간의 차이를 줄여 오토인코더를 학습시킵니다. 이러한 구조로 인해 입력 데이터가 낮은 차원으로 압축되는 효과가 있습니다.

본 논문에서는 센서 데이터의 특징 추출을 위해 오토인코더를 사용한다.

변분 오토인코더(Variational Auto-Encoder)

그러나 단순히 동일한 입력 및 출력 데이터의 결과를 원하는 오토인코더와 달리 VAE는 데이터 자체의 확률 분포를 학습합니다. 결과적으로, 입력 데이터의 분포와 오토인코더에서 발견되지 않았던 잠재변수 사이의 상관관계를 높이는 것이 가능하다. VAE 인코더를 통해 고차원 입력 데이터는 데이터의 분포를 출력으로 표현하는 잠재변수의 평균과 표준편차를 얻을 수 있다.

실제 표현식은 교차 엔트로피를 사용하여 입력 데이터와 출력 데이터 간의 오류를 줄입니다.

컨볼루션 신경망(Convolution Neural Network)

컨볼루션 연산을 적용한 결과를 특징 맵이라고 하는데, 특징 맵의 크기가 8×8에서 6×6으로 줄어든 것을 확인할 수 있습니다. 즉, 단계에 적용되는 필터의 크기에 따라 달라집니다. 이러한 과정을 통해 특징 맵의 크기가 줄어들고 해당 정보량이 손실된다고 할 수 있으나, 서브 샘플링을 통해 특징 맵으로부터 대표 특징값을 추출하는 것이 가능하다.

CNN을 통해 원하는 값을 얻으려면 위에서 언급한 필터 크기, 필터 수,

그림  2.13.  컨볼루션층  동작과정
그림 2.13. 컨볼루션층 동작과정

유전 알고리즘

  • 유전 알고리즘 기본개념 및 연산과정
  • 적합도 함수(Fitness Function)
  • 선택연산(Selection)
  • 교차연산(Crossover)
  • 변이연산(Mutation)
  • 대치연산(Replacement)

적합도 추정에서는 수식으로 표현된 적합도 함수를 통해 유전정보에 따라 각 염색체에 적합도 점수를 부여한다. 따라서 유전알고리즘에서는 적합함수를 적절하게 설계하는 것이 더욱 중요하다. 적합함수는 다음과 같이 표현될 수 있다.

유전 알고리즘에서는 단순히 개인의 적합도를 목적함수로 평가하면 적합도 점수가 매우 높은 개인이 다음 세대로 전달됩니다.

그림  2.15.  유전  알고리즘  구현
그림 2.15. 유전 알고리즘 구현
  • 시간 영역 통계적 특징
  • 오토인코더 이상치 기반 통계적 특징
  • 변분 오토인코더 잠재변수 기반 특징

훈련 데이터로는 정상 상태 신호만 사용되었습니다. UAE에서 복구한 센서 데이터는 2차원 데이터로 표현됩니다. 본 논문에서 구현한 UAE에서 추출한 센서 데이터의 잠재변수는 그림 4.8과 같이 나타낼 수 있다.

VAE에서 추출된 센서 데이터의 잠재변수.

그림  4.1.  시간  영역  통계적  특징  추출과  SVM을  사용한  센서  고장진단  흐름도 Fig  4.1.  Flowchart  of  sensor  fault  diagnosis  using  time-domain  statistical  feature
그림 4.1. 시간 영역 통계적 특징 추출과 SVM을 사용한 센서 고장진단 흐름도 Fig 4.1. Flowchart of sensor fault diagnosis using time-domain statistical feature

유전 알고리즘 기반의 특징 선택

선정 과정에서는 선정된 솔루션에 대한 적합도 함수 추정에 따라 부모 개체를 선정하기 위해 보다 확률적으로 적합도 함수가 높은 개체를 선택하는 룰렛휠 방식을 사용하였다. 그래프에서 볼 수 있듯이 대부분의 클래스에서 평균 체력 점수가 증가하지만 100회 이상 반복 후에는 어느 정도 수렴됩니다. Hard Failure 유형의 경우 유전자 알고리즘을 30번 실행하여 30번에서 최적이 되었다.

유전자 알고리즘에서 선택된 특징입니다.

그림  4.9.  해의  평균  적합도  점수  변화
그림 4.9. 해의 평균 적합도 점수 변화

One-versus-rest 방법은 데이터의 총 클래스 수가 N일 때 분류합니다. 본 논문에서 센서 결함 진단에 사용된 SVM 분류기는 MATLAB의 fitcsvm을 통해 구현되었습니다. 센서 결함 감지 및 분류는 각각 SVM을 사용하여 수행되었습니다.

반면, 유전자 알고리즘을 적용하여 선별된 특징을 이용한 SVM 분류기의 정확도는 다항식 커널 함수에서 97.87%로 가장 높은 평균 정확도를 보여줍니다.

그림  4.11.  One-versus-rest  방법 Fig  4.11.  One-versus-rest  method
그림 4.11. One-versus-rest 방법 Fig 4.11. One-versus-rest method

본 논문에서는 CNN 학습에서 각 유형별로 30개의 데이터 샘플로 훈련한다고 가정합니다. 각 epoch마다 10개의 검증 데이터를 사용하여 비용과 오류율을 모니터링하고 모델을 구축했습니다. 테스트 데이터로는 각 고장 등급별로 60개의 데이터 샘플이 사용되었습니다.

감소할수록 검증 데이터도 감소합니다.

그림  5.2는  매  epoch마다  학습과  검증  데이터에  대해  cost와  에러율을  기록한  것을
그림 5.2는 매 epoch마다 학습과 검증 데이터에 대해 cost와 에러율을 기록한 것을

이 과정에서 학습이 완료되면 인코더의 연결이 끊어지고 학습을 위해 완전히 연결됩니다. 학습 설정은 섹션 5.1에서 구현된 CNN과 동일합니다. 그림과 표에서 SVM과 CNN은 4.3절의 다중 계층 SVM과 5.2절에서 구현된 CNN을 나타냅니다.

정확도가 높은 것을 확인할 수 있으며, 드리프트형, 정맥형, 스턱형에서 정확도의 큰 차이가 발생함을 알 수 있다.

그림  5.5.  학습  및  검증  손실  모니터링  Fig  5.5.  Monitoring  train  and  validation  cost
그림 5.5. 학습 및 검증 손실 모니터링 Fig 5.5. Monitoring train and validation cost

CNN 기반 센서 상태 모니터링

결 론

18] Jae-Wan Yang, Young-Doo Lee, In-Soo Koo, "Sensor Fault Detection Scheme Based on Deep Learning and Support Vector Machine", Journal of the Institute of Internet, Broadcasting and Communication, Vol. 34; A Korean LSTM RNN-Based Speech Recognition System Using CTC", Journal of Digital Contents Society, vol. 21] Dong-wook, Ha, Ki-tae Kang, and Yeonseung Ryu, "Detecting Insider Threat Based on Machine Learning: Anomaly Detection Using RNN Autoencoder", Journal of the Korea Institute of Information Security and Cryptology, vol.

24] Hyun-Suk Kang, Young-Seok Lee, “Supporting vector machine-based classification of video file fragments,” Journal of the.

Gambar

그림  2.1.  학습목표에  따른  머신러닝  기법  분류
그림  2.2.  머신러닝과  딥  러닝  학습  과정
그림  2.3.  모델  평가를  위한  데이터  분배 Fig  2.3.  Data  distribution  for  model  evaluation
그림  2.5.  SVM  선형  분류 Fig  2.5.  SVM  linear  classification
+7

Referensi

Dokumen terkait

The best classification method using lexicon feature extraction or word embedding shows that SVM and Random forest are classifiers with the best accuracy. Using both