센서 융합
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
센서 융합은 여러 센서에서 수집된 데이터를 결합하여 단일 센서로는 얻을 수 없는 정보를 제공하는 기술이다. 센서 융합은 중앙 집중형, 분산형, 중복, 보완, 협력 등의 다양한 방식으로 분류할 수 있으며, 데이터, 특징, 결정 레벨과 같은 정보 추상화 수준에 따라 융합을 수행할 수 있다. 센서 융합 알고리즘에는 칼만 필터, 베이즈 네트워크 등이 있으며, 가속도계, 라이다, GPS 등 다양한 센서가 융합에 사용된다. 센서 융합은 GPS/INS, 교통 상태 파악, 자율 주행, 초분광 영상 처리 등 다양한 분야에 활용된다.
더 읽어볼만한 페이지
- 컴퓨터 데이터 - 헤더 (컴퓨팅)
헤더는 전자 통신, 네트워킹, 파일 형식, 프로그래밍 등 다양한 분야에서 데이터의 전송 및 처리에 필요한 정보를 제공하는 정보의 집합이다. - 컴퓨터 데이터 - 데이터 손실
데이터 손실은 절차적 요인, 인적 행위, 시스템 실패, 자연 재해, 범죄 등 다양한 원인으로 발생하며, 금전적 손실과 평판 손상 등 심각한 결과를 초래하므로 강력한 암호, 이중 인증, 정기적인 백업 등의 예방 조치가 중요하다. - 센서 - 서미스터
서미스터는 온도에 따라 저항이 변하는 반도체 소자로, 온도-저항 특성에 따라 NTC, PTC, CTR 서미스터로 나뉘며 온도 센서, 과전류 방지 등 다양한 용도로 사용되고, 저항-온도 관계는 B 상수 방정식이나 슈타인하르트-하트 방정식으로 표현되어 여러 분야에 적용된다. - 센서 - 기압계
기압계는 대기압을 측정하는 기구로, 17세기 중반 토리첼리에 의해 최초의 수은 기압계가 발명되었으며, 일기 예보, 고도 측정 등 다양한 분야에서 활용되고, 수은, 아네로이드, 전기식 등 여러 종류가 현대에 개발되어 사용된다.
센서 융합 | |
---|---|
센서 융합 개요 | |
정의 | 다양한 센서로부터 정보를 획득하고, 이를 결합하여 더 정확하고 신뢰성 있는 정보를 생성하는 과정 |
목표 | 중복성 감소 및 정확도 향상 불확실성 감소 정보 완성도 향상 실시간성 확보 비용 절감 |
활용 분야 | 로봇 공학 자율 주행 의료 항공우주 환경 모니터링 국방 스마트 홈 |
센서 융합 방법 | |
데이터 융합 수준 | 저수준 융합 (데이터 레벨) 중간 수준 융합 (특징 레벨) 고수준 융합 (의사 결정 레벨) |
융합 기술 | 칼만 필터 베이즈 추론 퍼지 논리 인공 신경망 D-S 증거 이론 합의 이론 확률론적 로직 필터 |
센서 융합 시스템 설계 고려 사항 | |
센서 선택 | 시스템 요구 사항 및 환경 조건에 적합한 센서 선택 |
데이터 전처리 | 센서 데이터의 노이즈 제거 및 보정 |
융합 알고리즘 선택 | 목표 성능 및 시스템 복잡도 고려 |
시스템 통합 | 센서, 프로세서, 통신 시스템 간의 효율적인 통합 |
성능 평가 | 정확도, 신뢰성, 실시간성 등 성능 지표 평가 |
센서 융합 관련 문제점 및 해결 방안 | |
문제점 | 데이터 불일치 센서 오류 계산 복잡도 실시간 처리의 어려움 |
해결 방안 | 데이터 정규화 및 동기화 오류 감지 및 복구 메커니즘 효율적인 융합 알고리즘 개발 병렬 처리 및 하드웨어 가속 |
2. 센서 융합의 종류
2. 1. 중앙 집중형 vs 분산형
센서 융합에서 중앙 집중형과 분산형은 데이터 융합이 발생하는 위치를 의미한다. 중앙 집중형 융합에서는 클라이언트가 모든 데이터를 중앙 위치로 전송하고, 중앙 위치의 어떤 개체가 데이터를 상관시키고 융합하는 역할을 한다. 분산형 융합에서는 클라이언트가 데이터 융합에 대한 모든 책임을 진다. "이 경우, 모든 센서 또는 플랫폼은 의사 결정에서 어느 정도 자율성을 가진 지능형 자산으로 간주될 수 있다."[8]중앙 집중형 및 분산형 시스템의 여러 조합이 존재한다.
센서 구성의 또 다른 분류는 센서 간의 정보 흐름의 조정과 관련이 있다.[9][10] 이러한 메커니즘은 갈등이나 의견 불일치를 해결하고 동적 감지 전략을 개발할 수 있는 방법을 제공한다. 각 노드가 동일한 속성에 대한 독립적인 측정을 제공하는 경우 센서는 중복(또는 경쟁) 구성에 있다. 이 구성은 여러 노드의 정보를 비교할 때 오류 수정에 사용할 수 있다. 중복 전략은 투표 절차에서 높은 수준의 융합과 함께 자주 사용된다.[11][12] 보완적 구성은 여러 정보 소스가 동일한 기능에 대해 서로 다른 정보를 제공할 때 발생한다. 이 전략은 의사 결정 알고리즘 내에서 원시 데이터 수준에서 정보를 융합하는 데 사용된다. 보완적 기능은 일반적으로 신경망,[13][14] 은닉 마르코프 모델,[15][16] 서포트 벡터 머신,[17] 클러스터링 방법 및 기타 기술을 사용한 동작 인식 작업에 적용된다.[17][16] 협력 센서 융합은 여러 독립 센서에서 추출한 정보를 사용하여 단일 센서에서는 사용할 수 없는 정보를 제공한다. 예를 들어, 신체 분절에 연결된 센서는 분절 간의 각도를 감지하는 데 사용된다. 협력 센서 전략은 단일 노드에서는 얻을 수 없는 정보를 제공한다. 협력 정보 융합은 동작 인식,[18] 보행 분석, 동작 분석,[19][20]에 사용할 수 있다.[21]
2. 2. 정보 흐름 조정 방식
2. 3. 정보 추상화 수준
2. 4. 융합 레벨
센서 융합은 일반적으로 사용되는 여러 범주 또는 수준이 있다.[22][23][24][25][26][27]- 레벨 0 – 데이터 정렬
- 레벨 1 – 개체 평가 (예: 신호/특징/객체). 추적 및 객체 감지/인식/식별
- 레벨 2 – 상황 평가
- 레벨 3 – 영향 평가
- 레벨 4 – 프로세스 개선 (즉, 센서 관리)
- 레벨 5 – 사용자 개선
센서 융합 수준은 융합 알고리즘에 사용되는 정보의 종류에 따라 정의할 수도 있다.[28] 센서 융합은 다양한 소스에서 제공되는 원시 데이터, 외삽된 특징, 또는 개별 노드에서 내린 결정까지 융합하여 수행할 수 있다.
- 데이터 레벨 – 데이터 레벨(또는 초기) 융합은 여러 소스의 원시 데이터를 융합하고 가장 낮은 추상화 수준에서 융합 기술을 나타내는 것을 목표로 한다. 이는 많은 응용 분야에서 가장 일반적인 센서 융합 기술이다. 데이터 레벨 융합 알고리즘은 일반적으로 보다 정확하고 종합적인 판독을 달성하기 위해 여러 동종 센서 데이터를 결합하는 것을 목표로 한다.[29] 데이터 레벨 정보 융합은 의사 결정 절차를 늦추는 큰 입력 공간을 생성하는 경향이 있으며, 불완전한 측정을 처리할 수 없는 경우가 있다.
- 특징 레벨 – 특징 레벨에서는 각 감지 노드에서 온보드로 계산된 정보를 융합 알고리즘에 활용한다.[30] 이 절차는 데이터 레벨 융합에 비해 더 작은 정보 공간을 생성하며, 계산 부하 측면에서 유리하다. 가장 효율적인 특징 세트를 선택하는 것이 방법 설계의 주요 측면이 되어야 한다.
- 결정 레벨 – 결정 레벨(또는 후기) 융합은 여러 노드의 개별적인 결정에 의해 생성된 일련의 가설에서 가설을 선택하는 절차이다.[31] 이는 가장 높은 추상화 수준이며, 예비 데이터 또는 특징 레벨 처리를 통해 이미 정교화된 정보를 사용한다. 결정 융합의 주요 목표는 노드의 데이터가 특징을 추출하여 사전 처리되는 동안 메타 레벨 분류기를 사용하는 것이다.[32] 통신 대역폭 및 향상된 결정 정확도 확보와 이기종 센서 결합이 가능하다.[30]
3. 센서 융합 알고리즘
센서 융합은 칼만 필터[3], 베이즈 네트워크, Dempster-Shafer 이론, 합성곱 신경망, 가우시안 과정[4][5] 등 다양한 방법과 알고리즘을 포함하는 용어이다.
4. 센서 예시
센서 융합에 사용되는 센서의 예시는 다음과 같다.
- 가속도계
- 플래시 라이다
- GPS
- 자기계
- MEMS
- 위상배열
- 레이더
- 초장기선 간섭 관측법 (평방킬로미터 간섭계 등)
- 지진계
- 소나
- 소노부이
- 프로페셔널 비디오 카메라
- 전자 지원 측정 (ESM)
- 적외선/열화상 카메라
- 스캐닝 LIDAR
센서 목록에서 더 많은 센서를 확인할 수 있다.
5. 센서 융합 응용 분야
센서 융합의 한 가지 응용 분야는 GPS/INS로, 여기서 위성 항법 시스템 및 관성 항법 시스템 데이터는 다양한 방법을 사용하여 융합된다.[33] 예를 들어 확장 칼만 필터가 사용되는데, 이는 저가형 센서를 사용하여 항공기의 자세를 결정하는 데 유용하다.[33] 데이터 융합 접근 방식을 사용하여 도로변에서 수집된 음향, 이미지 및 센서 데이터를 통해 교통 상태(저속 교통, 교통 체증, 중간 흐름)를 결정하는 것도 센서 융합의 또 다른 예이다.[34] 자율 주행 분야에서는 센서 융합을 사용하여 보완적인 센서의 중복 정보를 결합하여 환경에 대한 보다 정확하고 신뢰할 수 있는 표현을 얻는다.[35]
엄밀히 말해 전용 센서 융합 방식은 아니지만, 현대의 합성곱 신경망 기반 방식은 여러 채널의 센서 데이터(수백 개의 밴드를 가진 초분광 영상 등[36])를 동시에 처리하고 관련 정보를 융합하여 분류 결과를 생성할 수 있다.
6. 관련 계산 예시
두 개의 독립적인 센서 측정으로부터 얻은 두 개의 추정치를 각각 x1 및 x2로 표시하고, 잡음의 분산을 각각 σ12 및 σ22로 표시한다. 결합된 추정치 x3을 얻는 한 가지 방법은 역분산 가중을 적용하는 것이다. 이는 프레이저-포터 고정 간격 평활기 내에서도 사용된다.[6]
: x3 = σ32 (σ1-2x1 + σ2-2x2) ,
여기서 σ32 = (σ1-2 + σ2-2)-1는 결합된 추정치의 분산이다. 융합된 결과는 단순히 각 측정값의 정보량에 의해 가중된 두 측정값의 선형 결합임을 알 수 있다.
x가 확률 변수인 경우를 주목할 필요가 있다. 추정치 x1과 x2는 공통적인 공정 잡음을 통해 상관 관계가 있을 것이며, 이는 추정치 x3가 보수성을 잃게 할 것이다.[7]
두 개의 측정을 융합하는 또 다른 (동등한) 방법은 최적 칼만 필터를 사용하는 것이다. 데이터가 1차 시스템에 의해 생성된다고 가정하고, Pk가 필터의 리카티 방정식의 해를 나타낸다고 가정한다. 이득 계산 내에서 크라머 공식을 적용하여 필터 이득이 다음과 같이 주어진다는 것을 알 수 있다.
: Lk = [ (σ22Pk) / (σ22Pk + σ12Pk + σ12σ22) , (σ12Pk) / (σ22Pk + σ12Pk + σ12σ22) ].
검토 결과, 첫 번째 측정이 잡음이 없는 경우 필터는 두 번째 측정을 무시하고 그 반대의 경우도 마찬가지이다. 즉, 결합된 추정치는 측정 품질에 따라 가중된다.
참조
[1]
서적
Sensor Fusion in Time-Triggered Systems, PhD Thesis
https://mobile.aau.a[...]
Vienna University of Technology
[2]
논문
Multi-focus image fusion for visual sensor networks in DCT domain
[3]
논문
A Survey on Multisensor Fusion and Consensus Filtering for Sensor Networks
2015
[4]
논문
Bayesian inference of multi-sensors impedance cardiography for detection of aortic dissection
https://doi.org/10.1[...]
2021-01-01
[5]
논문
Bayesian Uncertainty Quantification with Multi-Fidelity Data and Gaussian Processes for Impedance Cardiography of Aortic Dissection
2019-12-31
[6]
서적
Stochastic Models, Estimating, and Control
Academic Press
[7]
서적
The Dark Side of Decentralized Target Tracking : Unknown Correlations and Communication Constraints
https://urn.kb.se/re[...]
Linköping University Electronic Press
2023-12-15
[8]
웹사이트
Multi-sensor management for information fusion: issues and approaches
http://www.elsevier.[...]
Information Fusion
[9]
논문
Sensor Models and Multisensor Integration
[10]
서적
eMaintenance: Essential Electronic Tools for Efficiency
Academic Press
[11]
서적
2012 12th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (ccgrid 2012)
[12]
서적
Proceedings of the 10th EAI International Conference on Body Area Networks
[13]
논문
Gait based biometric personal authentication by using MEMS inertial sensors
[14]
논문
IMU-Based Gait Recognition Using Convolutional Neural Networks and Multi-Sensor Fusion
[15]
논문
A Method for Extracting Temporal Parameters Based on Hidden Markov Models in Body Sensor Networks With Inertial Sensors
http://www.eecs.berk[...]
[16]
논문
Inertial BSN-Based Characterization and Automatic UPDRS Evaluation of the Gait Task of Parkinsonians
[17]
논문
Evaluation of accelerometer based multi-sensor versus single-sensor activity recognition systems
[18]
논문
Personalized Multilayer Daily Life Profiling Through Context Enabled Activity Classification and Motion Reconstruction: An Integrated System Approach
[19]
논문
A Novel Adaptive, Real-Time Algorithm to Detect Gait Events From Wearable Sensors
[20]
논문
Quantitative assessment of dual gait analysis based on inertial sensors with body sensor network
[21]
논문
Step Sequence and Direction Detection of Four Square Step Test
http://irep.ntu.ac.u[...]
[22]
문서
Rethinking JDL Data Fusion Levels
http://www.infofusio[...]
[23]
문서
Level 5: User Refinement to aid the Fusion Process
Proceedings of the SPIE, Vol. 5099.
2003
[24]
간행물
Revisiting the JDL data fusion model II
[25]
간행물
Sensor, user, mission (SUM) resource management and their interaction with level 2/3 fusion
http://www.iut-amien[...]
2006
[26]
웹사이트
Harnessing the full power of sensor fusion -
http://defensesystem[...]
2024-04-03
[27]
간행물
Revisiting the JDL model for information Exploitation
2013
[28]
논문
Multi-sensor fusion in body sensor networks: State-of-the-art and research challenges
[29]
논문
An overview of performance trade-off mechanisms in routing protocol for green wireless sensor networks
[30]
논문
A survey of depth and inertial sensor fusion for human action recognition
[31]
서적
Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems - CHI '16
[32]
서적
2015 Conference Grid, Cloud & High Performance Computing in Science (ROLCG)
[33]
논문
Flight Test Evaluation of Sensor Fusion Algorithms for Attitude Estimation
2012-07
[34]
간행물
Information Fusion Based Learning for Frugal Traffic State Sensing
[35]
논문
Stabilization and Validation of 3D Object Position Using Multimodal Sensor Fusion and Semantic Segmentation
2020-02-18
[36]
논문
A Hyperspectral Image Classification Framework with Spatial Pixel Pair Features
2017-10-23
[37]
논문
Discriminant Correlation Analysis: Real-Time Feature Level Fusion for Multimodal Biometric Recognition
https://zenodo.org/r[...]
[38]
논문
Discriminant Correlation Analysis: Real-Time Feature Level Fusion for Multimodal Biometric Recognition
https://zenodo.org/r[...]
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com