센서 융접합

Sensor fusion
유로파이터 센서 퓨전

센서 융합센서 데이터나 서로 다른 소스에서 파생된 데이터를 결합하는 과정으로, 결과 정보가 이러한 소스를 개별적으로 사용할 때보다 불확실성을 덜 갖게 된다. 예를 들어, 비디오 카메라와 WiFi 지역화 신호와 같은 여러 데이터 소스를 결합하여 실내 물체의 보다 정확한 위치 추정치를 얻을 수 있다. 이 경우 불확실성 감소라는 용어는 더 정확하고, 더 완전하거나, 더 신뢰할 수 있는 것을 의미하거나, 입체 시각(약간 다른 관점에서 두 카메라의 2차원 영상을 결합하여 깊이 정보를 계산하는 것)과 같은 새로운 관점의 결과를 나타낼 수 있다.[1][2]

퓨전 프로세스의 데이터 소스는 동일한 센서에서 발생하도록 지정되지 않는다. 전자의 두 출력의 직접적인 융합, 간접적인 융합, 융합을 구별할 수 있다. 다이렉트 퓨전(direct fusion)은 이기종 또는 동종 센서 집합의 센서 데이터, 소프트 센서, 센서 데이터의 이력 값 등을 융합한 것으로, 간접 융복합은 환경과 인간의 입력에 대한 선험적 지식처럼 정보원을 이용한다.

센서 융합은 (다중 센서) 데이터 융합이라고도 하며 정보 융합의 하위 집합체다.

센서의 예

알고리즘

센서 융합(Sensor fusion)은 다음을 포함한 여러 가지 방법과 알고리즘을 포괄하는 용어다.

계산 예제

두 가지 예시 센서 융접 계산이 아래에 설명되어 있다.

}:{1}:{2 분산이 있는 두 센서 측정값 }} 을 표시하십시오. 복합 측정 x 을 얻는 한 가지 방법은 역분산 가중치를 적용하는 것인데, 이 가중치는 Fraser-Potter 고정 인터벌(fixed interval) 내에서도 사용된다.

,

여기서 3 = ( - 2+ - )- 1 \scriptstyle \}-1}^{-1는 결합된 추정치의 분산이다. 퓨전된 결과는 단순히 각각의 소음 분산에 의해 가중된 두 측정치의 선형 조합임을 알 수 있다.

두 가지 측정을 융합하는 또 다른 방법은 최적의 칼만 필터를 사용하는 것이다. 가 1차 주문 시스템에 의해 생성된다고 가정하고 k {\가 필터의 Riccati 방정식의 솔루션을 나타내도록 한다. 이득 계산 내에서 Cramer의 규칙을 적용하면 필터 이득이 다음과 같이 주어지는 것을 알 수 있다.[citation needed]

검사 결과, 첫 번째 측정값이 노이즈가 없을 경우 필터는 두 번째 측정을 무시하며 그 반대의 경우도 마찬가지 입니다. 즉, 결합된 추정치는 측정 품질에 의해 가중된다.

중앙 집중식 대 분산형

센서 융합에서 중앙집중식 대 분산형이란 데이터의 융합이 일어나는 곳을 말한다. 중앙집중식 융합에서 고객은 모든 데이터를 중앙 위치에 전달하기만 하면 되고, 중앙 위치에 있는 일부 실체는 데이터의 상관관계와 결합을 담당한다. 분산형에서, 고객들은 데이터 통합에 대한 모든 책임을 진다. 이 경우 모든 센서나 플랫폼은 의사결정에 어느 정도 자율성이 있는 지능형 자산으로 볼 수 있다.[7]

중앙집중식 시스템과 분산형 시스템의 여러 조합이 존재한다.

센서 구성의 또 다른 분류는 센서들 간의 정보 흐름의 조정을 말한다.[8][9] 이러한 메커니즘은 충돌이나 불일치를 해결하고 동적 감지 전략의 개발을 가능하게 하는 방법을 제공한다. 각 노드가 동일한 속성의 독립적 조치를 제공하는 경우 센서는 중복(또는 경쟁적) 구성에 있다. 이 구성은 여러 노드의 정보를 비교할 때 오류 수정에 사용할 수 있다. 중복 전략은 투표 절차에서 높은 수준의 속임수로 종종 사용된다.[10][11] 보완적 구성은 여러 정보원이 동일한 특징에 대해 서로 다른 정보를 제공할 때 발생한다. 이 전략은 의사결정 알고리즘 내에서 원시 데이터 수준에서 정보를 융합하는 데 사용된다. 보완적 특징은 일반적으로 Neural network, [12][13]Hidden Markov model, [14][15]Support-vector machine,[16] 클러스터링 방법 및 기타 기법을 사용한 동작 인식 작업에 적용된다.[16][15] 협동 센서 융합은 여러 개의 독립 센서에서 추출한 정보를 사용하여 단일 센서에서 사용할 수 없는 정보를 제공한다. 예를 들어, 신체 세그먼트에 연결된 센서는 그들 사이의 각도를 감지하는 데 사용된다. 공동 센서 전략은 단일 노드로부터 정보를 얻을 수 없게 한다. 협동 정보 융합은 동작 인식,[17] 걸음걸이 분석, 동작 분석 등에 사용될 수 있다.[18][19][20]

레벨

센서 융합에는 일반적으로 사용되는 몇 가지 범주 또는 레벨이 있다.* [21] [22] [23] [24] [25] [26]

  • 레벨 0 – 데이터 정렬
  • 레벨 1 – 기업 평가(예: 신호/특징/객체)
    • 추적 및 객체 감지/인식/식별
  • 레벨 2 – 상황 평가
  • 레벨 3 – 영향 평가
  • 레벨 4 – 프로세스 정교화(즉, 센서 관리)
  • 레벨 5 – 사용자 개선

또한 센서 융접 수준은 융접 알고리즘을 공급하는데 사용되는 정보의 종류에 기초하여 정의될 수 있다.[27] 보다 정확히 말하면 센서 융합은 다른 소스에서 나오는 원시 데이터, 추론된 기능 또는 단일 노드에 의한 결정까지 융합하여 수행할 수 있다.

  • 데이터 레벨 - 데이터 레벨(또는 초기) 융합은 여러 소스의 원시 데이터를 융합하고 가장 낮은 추상화 수준에서 융합 기법을 나타낸다. 여러 응용 분야에서 가장 보편적인 센서 융합 기술이다. 데이터 수준 융합 알고리즘은 일반적으로 여러 동종의 감각 데이터 소스를 결합하여 보다 정확하고 합성적인 판독을 달성하는 것을 목표로 한다.[28] 휴대용 장치를 사용할 때 데이터 압축은 중요한 요소를 나타내며, 여러 출처에서 원시 정보를 수집하면 휴대용 시스템의 메모리 또는 통신 대역폭 측면에서 문제를 정의할 수 있는 거대한 정보 공간이 생성되기 때문이다. 데이터 수준 정보 융합은 큰 입력 공간을 생성하여 의사결정 절차를 지연시키는 경향이 있다. 또한 데이터 수준 융합은 불완전한 측정을 처리할 수 없는 경우가 많다. 오작동, 고장 또는 기타 이유로 인해 하나의 센서 모달리티가 무용지물이 될 경우 전체 시스템이 모호한 결과로 발생할 수 있다.
  • 피쳐 레벨 - 피쳐는 각 감지 노드에 의해 기내에서 계산된 정보를 나타낸다. 그런 다음 이러한 기능은 퓨전 노드로 전송되어 퓨전 알고리즘을 공급한다.[29] 이 절차는 데이터 수준 융합과 관련하여 더 작은 정보 공간을 생성하며, 이는 계산 부하 측면에서 더 좋다. 분명히 분류 절차를 정의할 형상을 적절하게 선택하는 것이 중요하다: 가장 효율적인 형상을 선택하는 것이 방법 설계의 주요 측면이 되어야 한다. 상관된 특징과 하위 세트를 적절히 감지하는 기능 선택 알고리즘을 사용하면 인식 정확도가 향상되지만, 일반적으로 가장 중요한 기능 하위 세트를 찾기 위해서는 대형 훈련 세트가 필요하다.[27]
  • 의사결정 수준 - 의사결정 수준(또는 늦은) 융합은 여러 노드의 개별(일반적으로 약한) 의사결정에 의해 생성된 일련의 가설에서 가설을 선택하는 절차다.[30] 그것은 가장 높은 수준의 추상화로서 예비 데이터 또는 형상 수준 처리를 통해 이미 정교하게 다듬어진 정보를 사용한다. 의사결정 융합의 주요 목표는 노드의 데이터가 그것들로부터 피쳐를 추출하여 사전 처리되는 동안 메타 레벨 분류기를 사용하는 것이다.[31] 일반적으로 의사결정 수준 센서 융합은 인식 활동의 분류에 사용되며, 가장 일반적인 두 가지 접근방식은 다수결과 순진-베이즈다.[citation needed] 의사결정 수준 융합에서 얻을 수 있는 이점은 통신 대역폭과 개선된 의사결정 정확성을 포함한다. 이질적인 센서의 조합도 가능하게 한다.[29]

적용들

센서 융합의 한 가지 응용은 GPS/INS로, 확장 Kalman 필터와 같은 다양한 방법을 사용하여 위성 위치 확인 시스템관성 항법 시스템 데이터를 융합한다. 예를 들어, 이것은 저비용 센서를 사용하는 항공기의 자세를 결정하는 데 유용하다.[32] 다른 예는 데이터 융접 접근방식을 사용하여 도로 측면에서 수집된 음향, 이미지 및 센서 데이터를 사용하여 트래픽 상태(저교통량, 교통 정체, 중간 흐름)를 결정하는 것이다.[33] 자율주행 센서 융합 분야에서는 환경을 보다 정확하고 신뢰성 있게 표현하기 위해 보완 센서의 중복 정보를 결합하는 데 사용된다.[34]

기술적으로는 전용 센서 융합 방법이 아니지만, 현대의 콘볼루션 신경 네트워크 기반 방법은 매우 많은 센서 데이터 채널(예: 수백 개의 밴드를 가진 초경량 영상)을 동시에 처리하고 관련 정보를 융합하여 분류 결과를 산출할 수 있다.

참고 항목

참조

  1. ^ Elmenreich, W. (2002). Sensor Fusion in Time-Triggered Systems, PhD Thesis (PDF). Vienna, Austria: Vienna University of Technology. p. 173.
  2. ^ Haghighat, Mohammad Bagher Akbari; Aghagolzadeh, Ali; Seyedarabi, Hadi (2011). "Multi-focus image fusion for visual sensor networks in DCT domain". Computers & Electrical Engineering. 37 (5): 789–797. doi:10.1016/j.compeleceng.2011.04.016.
  3. ^ Li, Wangyan; Wang, Zidong; Wei, Guoliang; Ma, Lifeng; Hu, Jun; Ding, Derui (2015). "A Survey on Multisensor Fusion and Consensus Filtering for Sensor Networks". Discrete Dynamics in Nature and Society. 2015: 1–12. doi:10.1155/2015/683701. ISSN 1026-0226.
  4. ^ Badeli, Vahid; Ranftl, Sascha; Melito, Gian Marco; Reinbacher-Köstinger, Alice; Von Der Linden, Wolfgang; Ellermann, Katrin; Biro, Oszkar (2021-01-01). "Bayesian inference of multi-sensors impedance cardiography for detection of aortic dissection". COMPEL - The international journal for computation and mathematics in electrical and electronic engineering. ahead-of-print (ahead-of-print). doi:10.1108/COMPEL-03-2021-0072. ISSN 0332-1649.
  5. ^ Ranftl, Sascha; Melito, Gian Marco; Badeli, Vahid; Reinbacher-Köstinger, Alice; Ellermann, Katrin; von der Linden, Wolfgang (2019-12-31). "Bayesian Uncertainty Quantification with Multi-Fidelity Data and Gaussian Processes for Impedance Cardiography of Aortic Dissection". Entropy. 22 (1): 58. doi:10.3390/e22010058. ISSN 1099-4300.
  6. ^ Maybeck, S. (1982). Stochastic Models, Estimating, and Control. River Edge, NJ: Academic Press.
  7. ^ N. Xiong; P. Svensson (2002). "Multi-sensor management for information fusion: issues and approaches". Information Fusion. p. 3(2):163–186.
  8. ^ Durrant-Whyte, Hugh F. (2016). "Sensor Models and Multisensor Integration". The International Journal of Robotics Research. 7 (6): 97–113. doi:10.1177/027836498800700608. ISSN 0278-3649. S2CID 35656213.
  9. ^ Galar, Diego; Kumar, Uday (2017). eMaintenance: Essential Electronic Tools for Efficiency. Academic Press. p. 26. ISBN 9780128111543.
  10. ^ Li, Wenfeng; Bao, Junrong; Fu, Xiuwen; Fortino, Giancarlo; Galzarano, Stefano (2012). "Human Postures Recognition Based on D-S Evidence Theory and Multi-sensor Data Fusion". 2012 12th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (ccgrid 2012). pp. 912–917. doi:10.1109/CCGrid.2012.144. ISBN 978-1-4673-1395-7. S2CID 1571720.
  11. ^ Fortino, Giancarlo; Gravina, Raffaele (2015). "Fall-MobileGuard: a Smart Real-Time Fall Detection System". Proceedings of the 10th EAI International Conference on Body Area Networks. doi:10.4108/eai.28-9-2015.2261462. ISBN 978-1-63190-084-6. S2CID 38913107.
  12. ^ Tao, Shuai; Zhang, Xiaowei; Cai, Huaying; Lv, Zeping; Hu, Caiyou; Xie, Haiqun (2018). "Gait based biometric personal authentication by using MEMS inertial sensors". Journal of Ambient Intelligence and Humanized Computing. 9 (5): 1705–1712. doi:10.1007/s12652-018-0880-6. ISSN 1868-5137. S2CID 52304214.
  13. ^ Dehzangi, Omid; Taherisadr, Mojtaba; ChangalVala, Raghvendar (2017). "IMU-Based Gait Recognition Using Convolutional Neural Networks and Multi-Sensor Fusion". Sensors. 17 (12): 2735. Bibcode:2017Senso..17.2735D. doi:10.3390/s17122735. ISSN 1424-8220. PMC 5750784. PMID 29186887.
  14. ^ Guenterberg, E.; Yang, A.Y.; Ghasemzadeh, H.; Jafari, R.; Bajcsy, R.; Sastry, S.S. (2009). "A Method for Extracting Temporal Parameters Based on Hidden Markov Models in Body Sensor Networks With Inertial Sensors" (PDF). IEEE Transactions on Information Technology in Biomedicine. 13 (6): 1019–1030. doi:10.1109/TITB.2009.2028421. ISSN 1089-7771. PMID 19726268. S2CID 1829011.
  15. ^ a b Parisi, Federico; Ferrari, Gianluigi; Giuberti, Matteo; Contin, Laura; Cimolin, Veronica; Azzaro, Corrado; Albani, Giovanni; Mauro, Alessandro (2016). "Inertial BSN-Based Characterization and Automatic UPDRS Evaluation of the Gait Task of Parkinsonians". IEEE Transactions on Affective Computing. 7 (3): 258–271. doi:10.1109/TAFFC.2016.2549533. ISSN 1949-3045. S2CID 16866555.
  16. ^ a b Gao, Lei; Bourke, A.K.; Nelson, John (2014). "Evaluation of accelerometer based multi-sensor versus single-sensor activity recognition systems". Medical Engineering & Physics. 36 (6): 779–785. doi:10.1016/j.medengphy.2014.02.012. ISSN 1350-4533. PMID 24636448.
  17. ^ Xu, James Y.; Wang, Yan; Barrett, Mick; Dobkin, Bruce; Pottie, Greg J.; Kaiser, William J. (2016). "Personalized Multilayer Daily Life Profiling Through Context Enabled Activity Classification and Motion Reconstruction: An Integrated System Approach". IEEE Journal of Biomedical and Health Informatics. 20 (1): 177–188. doi:10.1109/JBHI.2014.2385694. ISSN 2168-2194. PMID 25546868. S2CID 16785375.
  18. ^ Chia Bejarano, Noelia; Ambrosini, Emilia; Pedrocchi, Alessandra; Ferrigno, Giancarlo; Monticone, Marco; Ferrante, Simona (2015). "A Novel Adaptive, Real-Time Algorithm to Detect Gait Events From Wearable Sensors". IEEE Transactions on Neural Systems and Rehabilitation Engineering. 23 (3): 413–422. doi:10.1109/TNSRE.2014.2337914. ISSN 1534-4320. PMID 25069118. S2CID 25828466.
  19. ^ Wang, Zhelong; Qiu, Sen; Cao, Zhongkai; Jiang, Ming (2013). "Quantitative assessment of dual gait analysis based on inertial sensors with body sensor network". Sensor Review. 33 (1): 48–56. doi:10.1108/02602281311294342. ISSN 0260-2288.
  20. ^ Kong, Weisheng; Wanning, Lauren; Sessa, Salvatore; Zecca, Massimiliano; Magistro, Daniele; Takeuchi, Hikaru; Kawashima, Ryuta; Takanishi, Atsuo (2017). "Step Sequence and Direction Detection of Four Square Step Test" (PDF). IEEE Robotics and Automation Letters. 2 (4): 2194–2200. doi:10.1109/LRA.2017.2723929. ISSN 2377-3766. S2CID 23410874.
  21. ^ JDL 데이터 퓨전 수준 재고
  22. ^ Blasch, E, Plano, S.(2003) "Level 5: Fusion 프로세스를 지원하기 위한 사용자 정제", SPIE의 Procedures, Vol. 5099.
  23. ^ J. Llinas; C. Bowman; G. Rogova; A. Steinberg; E. Waltz; F. White (2004). Revisiting the JDL data fusion model II. International Conference on Information Fusion. CiteSeerX 10.1.1.58.2996.
  24. ^ Blasch, E. (2006) "센서, 사용자, 미션(SUM) 자원 관리 수준 2/3 퓨전과의[permanent dead link] 상호작용" 정보 퓨전 국제회의.
  25. ^ "Harnessing the full power of sensor fusion -".
  26. ^ Blasch, E, Steinberg, A, Das, S, Lliinas, J, Chong, C.-Y, Kessler, O, Walts, E, White, F.(2013) "정보 이용에 대한 JDL 모델 재방문" 정보 융합 국제회의.
  27. ^ a b Gravina, Raffaele; Alinia, Parastoo; Ghasemzadeh, Hassan; Fortino, Giancarlo (2017). "Multi-sensor fusion in body sensor networks: State-of-the-art and research challenges". Information Fusion. 35: 68–80. doi:10.1016/j.inffus.2016.09.005. ISSN 1566-2535.
  28. ^ Gao, Teng; Song, Jin-Yan; Zou, Ji-Yan; Ding, Jin-Hua; Wang, De-Quan; Jin, Ren-Cheng (2015). "An overview of performance trade-off mechanisms in routing protocol for green wireless sensor networks". Wireless Networks. 22 (1): 135–157. doi:10.1007/s11276-015-0960-x. ISSN 1022-0038. S2CID 34505498.
  29. ^ a b Chen, Chen; Jafari, Roozbeh; Kehtarnavaz, Nasser (2015). "A survey of depth and inertial sensor fusion for human action recognition". Multimedia Tools and Applications. 76 (3): 4405–4425. doi:10.1007/s11042-015-3177-1. ISSN 1380-7501. S2CID 18112361.
  30. ^ Banovic, Nikola; Buzali, Tofi; Chevalier, Fanny; Mankoff, Jennifer; Dey, Anind K. (2016). "Modeling and Understanding Human Routine Behavior". Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems - CHI '16. pp. 248–260. doi:10.1145/2858036.2858557. ISBN 9781450333627. S2CID 872756.
  31. ^ Maria, Aileni Raluca; Sever, Pasca; Carlos, Valderrama (2015). "Biomedical sensors data fusion algorithm for enhancing the efficiency of fault-tolerant systems in case of wearable electronics device". 2015 Conference Grid, Cloud & High Performance Computing in Science (ROLCG). pp. 1–4. doi:10.1109/ROLCG.2015.7367228. ISBN 978-6-0673-7040-9. S2CID 18782930.
  32. ^ Gross, Jason; Yu Gu; Matthew Rhudy; Srikanth Gururajan; Marcello Napolitano (July 2012). "Flight Test Evaluation of Sensor Fusion Algorithms for Attitude Estimation". IEEE Transactions on Aerospace and Electronic Systems. 48 (3): 2128–2139. Bibcode:2012ITAES..48.2128G. doi:10.1109/TAES.2012.6237583. S2CID 393165.
  33. ^ Joshi, V., Rajamani, N., Takayuki, K., Prathapaneni, N., Subramaniam, L. V. (2013). Information Fusion Based Learning for Frugal Traffic State Sensing. Proceedings of the Twenty-Third International Joint Conference on Artificial Intelligence.{{cite conference}}: CS1 maint : 복수이름 : 작성자 목록(링크)
  34. ^ Mircea Paul, Muresan; Ion, Giosan; Sergiu, Nedevschi (2020-02-18). "Stabilization and Validation of 3D Object Position Using Multimodal Sensor Fusion and Semantic Segmentation". Sensors. 20 (4): 1110. Bibcode:2020Senso..20.1110M. doi:10.3390/s20041110. PMC 7070899. PMID 32085608.
  35. ^ Ran, Lingyan; Zhang, Yanning; Wei, Wei; Zhang, Qilin (2017-10-23). "A Hyperspectral Image Classification Framework with Spatial Pixel Pair Features". Sensors. 17 (10): 2421. Bibcode:2017Senso..17.2421R. doi:10.3390/s17102421. PMC 5677443. PMID 29065535.

외부 링크

  1. ^ Haghighat, Mohammad; Abdel-Mottaleb, Mohamed; Alhalabi, Wadee (2016). "Discriminant Correlation Analysis: Real-Time Feature Level Fusion for Multimodal Biometric Recognition". IEEE Transactions on Information Forensics and Security. 11 (9): 1984–1996. doi:10.1109/TIFS.2016.2569061. S2CID 15624506.