맨위로가기

특징 선택

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

특징 선택은 기계 학습에서 사용되는 중요한 기술로, 모델의 성능을 향상시키고 과적합을 방지하기 위해 관련성이 높은 특징들을 선택하는 방법이다. 특징 선택 알고리즘은 래퍼, 필터, 임베디드 방식으로 분류되며, 각각 특정 모델을 사용하거나 통계적 관계를 기반으로 하거나 모델 학습 과정에 통합되어 특징을 선택한다. 최적성 기준, 정보 이론, 정규화, 메타휴리스틱 방법 등이 특징 선택에 활용되며, 구조 학습과 같은 다른 기법과의 연관성도 존재한다.

2. 역사적 배경

특징 선택은 데이터 분석 초기 단계부터 중요한 문제였다. 1970년대부터 Stepwise regression영어와 같은 통계적 기법들이 사용되었으며, 이후 기계 학습의 발전과 함께 다양한 알고리즘들이 개발되었다.

2. 1. 통계적 방법

초기에는 주로 통계적 가설 검정, 상관 계수 분석 등이 활용되었다. Stepwise regression영어는 가장 널리 사용된 통계적 특징 선택 방법 중 하나이다. 이 기법은 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 기계 학습에서는 교차 검증에 의해 특징의 좋고 나쁨을 평가하는 경우가 많고, 통계학에서는 어떤 규준을 최적화하는 경우가 많다. 이 방식에는 중첩된 특징량에 관한 문제가 내재되어 있기 때문에, 분기 한정법이나 구분 선형 네트워크 등, 보다 강건한 기법이 연구되고 있다.

2. 2. 기계 학습의 발전

기계 학습 알고리즘이 발전하면서 특징 선택은 더욱 중요한 문제가 되었다. 단순한 특징 선택 알고리즘은 즉흥적이지만, 보다 체계적인 접근 방식도 존재한다. 이론적으로는 지도 학습 문제에서 최적의 특징 선택을 수행하려면 선택된 크기의 모든 부분 집합을 특징 집합에서 추출하여 총괄적으로 시도해야 한다. 그러나 특징의 수가 많아지면 이 방식은 실용적이지 않다. 따라서 실용적인 지도 학습 알고리즘의 특징 선택에서는 최적의 집합이 아닌 만족할 만한 집합을 찾게 된다.

특징 선택 알고리즘은 일반적으로 특징 랭킹과 부분 집합 선택 두 가지로 분류된다.

  • 특징 랭킹: 어떤 지표에 의해 특징을 순위화하고, 일정 점수에 도달하지 못한 특징을 제거한다.
  • 부분 집합 선택: 최적의 부분 집합을 목표로 특징의 조합을 탐색한다.


통계학에서는 가 가장 많이 사용되는 특징 선택 방식이다. 이 기법은 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 기계 학습에서는 교차 검증으로 특징의 좋고 나쁨을 평가하는 경우가 많고, 통계학에서는 어떤 규준을 최적화하는 경우가 많다. 이 방식에는 중첩된 특징량에 관한 문제가 내재되어 있기 때문에, 분기 한정법이나 구분 선형 네트워크 등, 보다 강건한 기법이 연구되고 있다.

3. 주요 특징 선택 방법

특징 선택 알고리즘은 새로운 특징 부분 집합을 제안하는 탐색 기술과, 서로 다른 특징 부분 집합에 점수를 매기는 평가 척도의 조합으로 볼 수 있다. 가장 간단한 알고리즘은 가능한 모든 특징 부분 집합을 테스트하여 오류율을 최소화하는 것을 찾는 것이지만, 이는 계산상 어려움이 있다. 평가 척도의 선택은 알고리즘에 큰 영향을 미치며, 특징 선택 알고리즘은 평가 척도에 따라 크게 래퍼, 필터, 임베디드 방법으로 분류할 수 있다.[19]


  • 래퍼 (Wrapper) 방법: 예측 모델을 사용하여 특징 부분 집합에 점수를 매긴다. 각 부분 집합으로 모델을 훈련하고 테스트하여 오류율을 계산, 해당 부분 집합의 점수로 사용한다.
  • 필터 (Filter) 방법: 오류율 대신 상호 정보, 점별 상호 정보, 피어슨 곱 모멘트 상관 계수 등 프록시 측정을 사용하여 특징 부분 집합에 점수를 매긴다.
  • 임베디드 (Embedded) 방법: 모델 구성 과정의 일부로 특징 선택을 수행한다. LASSO 방법이 대표적인 예시이다.


부분 집합 선택은 적합성을 위해 특징의 부분 집합을 그룹으로 평가하며, 래퍼, 필터 및 임베디드 방식으로 나눌 수 있다. 래퍼는 검색 알고리즘을 사용하고, 부분 집합에 모델을 실행하여 각 부분 집합을 평가한다. 필터는 래퍼와 유사하지만, 모델 대신 더 간단한 필터가 평가된다. 임베디드 기술은 모델에 내장되어 있다.

많은 인기 있는 검색 방식은 탐욕 알고리즘 오르막 오르기를 사용하며, 특징의 후보 부분 집합을 반복적으로 평가한다.

전통적인 회귀 분석에서 특징 선택의 가장 인기 있는 형태는 단계적 회귀이며, 이는 래퍼 기술이다. 각 라운드에서 최상의 특징을 추가하거나 최악의 특징을 삭제하는 탐욕 알고리즘이다. 기계 학습에서는 일반적으로 교차 검증을 통해, 통계에서는 일부 기준을 최적화하여 알고리즘 중지 여부를 결정한다.

분류 문제에 대한 두 가지 인기 있는 필터 메트릭은 상관 관계와 상호 정보이지만, 둘 다 수학적 의미에서 진정한 메트릭은 아니다.

3. 1. 래퍼 (Wrapper) 방법

래퍼 방법은 특정 예측 모델을 사용하여 특징 부분 집합을 평가한다. 각 부분 집합에 대해 모델을 훈련하고, 성능을 평가하여 최적의 부분 집합을 선택한다. 이러한 방법은 계산 비용이 많이 들 수 있지만, 해당 모델에 최적화된 특징 집합을 찾을 수 있다는 장점이 있다.[19]

특징 선택을 위한 래퍼 방법


래퍼 방식은 변수 간의 가능한 상호 작용을 감지할 수 있다는 장점이 있지만,[48] 다음과 같은 두 가지 주요 단점이 있다.

  • 관측치 수가 충분하지 않을 때 과적합 위험이 증가한다.
  • 변수 수가 많을 때 상당한 계산 시간이 소요된다.


실용적인 지도 학습 알고리즘의 특징 선택에서는 최적의 집합이 아닌 만족할 만한 집합을 찾게 된다.

대표적인 래퍼 방법에는 단계적 회귀, 유전 알고리즘 등이 있다.[20] 통계학에서 가장 많이 사용되는 특징 선택 형태는 단계적 회귀인데, 이는 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다.

검색 방식에는 다음이 포함된다.

3. 2. 필터 (Filter) 방법

필터 방법은 예측 모델과 독립적으로, 특징과 타겟 변수 간의 통계적 관계를 기반으로 특징을 평가한다. 상호 정보, 점별 상호 정보, 피어슨 곱 모멘트 상관 계수, Relief 기반 알고리즘 등이 사용된다. 이러한 측정은 계산 속도가 빠르면서도 특징 집합의 유용성을 나타내도록 선택된다.[46]

필터 방법은 래퍼 방법보다 계산 집약적이지 않지만, 특정 유형의 예측 모델에 맞게 조정되지 않은 특징 집합을 생성한다. 따라서 필터의 특징 집합은 래퍼의 집합보다 더 일반적이며, 예측 성능은 일반적으로 낮다. 그러나 예측 모델의 가정을 포함하지 않기 때문에 특징 간의 관계를 파악하는 데 더 유용하다. 많은 필터는 명시적인 최상의 특징 부분 집합 대신 특징 순위를 제공하며, 순위의 컷오프 지점은 교차 검증을 통해 선택된다. 필터 방법은 래퍼 방법에 대한 전처리 단계로 사용되어 래퍼가 더 큰 문제에 사용될 수 있도록 한다.[47]

필터 방식은 변수 간의 관계를 고려하지 않기 때문에 중복된 변수를 선택하는 경향이 있다. FCBF(Fast Correlation Based Filter) 알고리즘과 같이 서로 높은 상관관계를 가진 변수를 제거하여 이 문제를 최소화하려는 특징들도 있다.

분류 문제에 대한 두 가지 인기 있는 필터 메트릭은 상관 관계와 상호 정보량이다. 이러한 점수는 후보 특징(또는 특징 부분 집합)과 원하는 출력 범주 사이에서 계산된다.

다른 필터 메트릭은 다음과 같다.

  • 클래스 분리 가능성
  • 오류 확률
  • 클래스 간 거리
  • 확률적 거리
  • 엔트로피
  • 일관성 기반 특징 선택
  • 상관 관계 기반 특징 선택


특징 선택을 위한 필터 방법

3. 3. 임베디드 (Embedded) 방법

임베디드 방법은 모델 학습 과정의 일부로 특징 선택이 수행되는 기술을 포괄한다. 이 방식은 모델 구성 과정에서 특징 선택이 함께 이루어지기 때문에, 모델 특성에 가장 적합한 특징을 선택할 수 있다는 장점이 있다. 또한, 필터 방법과 래퍼 방법의 장점을 결합하여 계산 효율성과 정확성을 모두 고려한다.

대표적인 예시로 LASSO 방법이 있다. LASSO는 선형 모델을 구성할 때 L1 페널티를 사용하여 회귀 계수에 제약을 가하고, 이 과정에서 많은 계수를 0으로 축소한다. 0이 아닌 회귀 계수를 갖는 특징은 LASSO 알고리즘에 의해 자동적으로 '선택'된다.

LASSO의 개선된 형태로는 Bolasso (샘플 부트스트랩), 엘라스틱 넷 정규화(LASSO의 L1 페널티와 릿지 회귀의 L2 페널티 결합), FeaLect (회귀 계수 조합 분석 기반 특징 점수화) 등이 있다. AEFS는 오토인코더를 사용하여 LASSO를 비선형 시나리오로 확장한다.

임베디드 방법은 계산 복잡성 측면에서 필터와 래퍼 방법의 중간 정도에 위치하는 경향을 보인다.

특징 선택을 위한 임베디드 방법


몇몇 학습 알고리즘은 자체적으로 특징 선택을 수행하기도 한다. 이러한 알고리즘의 예시는 다음과 같다:

알고리즘 종류구체적인 예시
l1-정규화 기법희소 회귀, LASSO, l1-SVM
정규화된 트리[44]RRF 패키지에 구현된 정규화된 랜덤 포레스트[45]
의사 결정 트리[71]
밈 알고리즘
랜덤 다항 로짓 (RMNL)
병목 계층이 있는 오토 인코딩 네트워크
부분 모듈러 특징 선택[72][73][74]
로컬 학습 기반 특징 선택[75](휴리스틱 검색 불필요, 다중 클래스 문제 처리 용이, 선형/비선형 문제 적용 가능, 강력한 이론적 기반)
특징 선택 기반 추천 시스템[76]


4. 특징 선택 알고리즘의 종류

특징 선택 알고리즘은 크게 특징 랭킹과 부분 집합 선택의 두 가지 범주로 나뉜다.
특징 랭킹은 특정 지표를 기준으로 각 특징에 순위를 매기는 방식이다. 순위가 낮은 특징은 제거된다. 예를 들어, 상관 관계나 상호 정보량을 사용하여 각 특징과 출력 변수 간의 관련성을 평가할 수 있다.
부분 집합 선택은 특징들의 조합을 평가하여 최적의 부분 집합을 찾는 방식이다.

통계학에서 가장 널리 사용되는 특징 선택 방법은 단계적 회귀이다. 이는 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 하지만 이 방식은 중첩된 특징량에 관한 문제가 있을 수 있어, 분기 한정법이나 구분 선형 네트워크 등 더 강건한 기법이 연구되고 있다.

자주 사용되는 탐색 접근 방식에는 탐욕적인 언덕 오르기가 있다. 이 방식은 후보 특징 부분 집합을 평가하고, 더 나은 조합을 찾기 위해 부분 집합을 반복적으로 변경한다. 무작위 탐색은 비효율적이기 때문에, 종료 기준(예: 점수 임계값 초과, 실행 시간 초과)을 설정하고, 그 시점까지 발견된 최고 점수의 부분 집합을 선택한다.

4. 1. 부분 집합 선택 (Subset Selection)

부분 집합 선택은 주어진 특징 집합에서 최적의 특징 부분 집합을 찾는 방법이다.[19] 이 방법은 크게 세 가지로 나뉜다.

  • 래퍼 (Wrapper) 방법: 예측 모델을 사용하여 특징 부분 집합을 평가한다. 각 부분 집합으로 모델을 훈련하고 테스트하여 오류율을 계산, 점수를 매긴다. 계산 비용이 크지만, 해당 모델에 가장 적합한 특징 집합을 찾을 수 있다.[21]
  • 필터 (Filter) 방법: 오류율 대신 상호 정보, 피어슨 곱 모멘트 상관 계수 등의 지표를 사용하여 특징 부분 집합의 유용성을 평가한다. 래퍼 방법보다 계산 속도가 빠르지만, 특정 예측 모델에 특화되지 않은 특징 집합을 생성할 수 있다. 필터 방법은 래퍼 방법의 전처리 단계로 사용되기도 한다.[21]
  • 임베디드 (Embedded) 방법: 모델 구성 과정에 특징 선택이 포함된다. 예를 들어 LASSO는 L1 페널티를 사용하여 회귀 계수를 0으로 만들어 특징을 선택한다. 필터와 래퍼 방법의 중간 정도의 계산 복잡성을 가진다.


전통적인 회귀 분석에서는 단계적 회귀가 래퍼 기술의 일종으로 사용된다. 이는 각 단계에서 최상의 특징을 추가하거나 최악의 특징을 제거하는 탐욕 알고리즘이다.

부분 집합 선택은 특징들을 묶음으로 평가하며, 래퍼, 필터, 임베디드 방식으로 나뉜다. 래퍼는 검색 알고리즘을 통해 특징 공간을 탐색하고 모델을 실행하여 각 부분 집합을 평가한다. 필터는 모델 실행 대신 간단한 필터로 평가한다. 임베디드 기술은 모델에 내장되어 있다.

탐색 방식에는 다음이 포함된다.[19]

분류 문제에서 필터 기준으로 상관 관계와 상호 정보가 자주 사용된다.

다른 필터 기준은 다음과 같다.

  • 클래스 분리성
  • * 오류 확률
  • * 클래스 간 거리
  • * 확률적 거리
  • * 엔트로피
  • 일관성 기반 특징 선택
  • 상관 관계 기반 특징 선택

4. 2. 특징 랭킹 (Feature Ranking)

특징 랭킹은 어떤 지표를 기준으로 특징에 순위를 매기고, 일정 점수에 미치지 못하는 특징을 제거하는 방식이다.[1] 상관 관계나 상호 정보량을 사용하여 각 특징과 출력 카테고리 사이의 관계를 계산할 수 있다.[1]

특징 랭킹 외에도, 특징 집합의 부분 집합을 직접 평가하는 부분 집합 선택 방식이 있다.[1] 부분 집합 선택 알고리즘은 래퍼, 필터, 임베디드의 세 가지로 분류할 수 있다.[1] 래퍼는 모델을 실행하여 평가하고, 필터는 더 단순한 필터를 사용하며, 임베디드 방식은 모델에 내장되어 있다.[1]

탐색 ( 조합 최적화 ) 접근 방식은 다음과 같다.[1]

  • 무작위 탐색
  • 최선 우선 탐색
  • 시뮬레이티드 어닐링
  • 유전 알고리즘
  • 탐욕 전진 선택
  • 탐욕 후진 선택


필터 기준으로 분류 문제에서는 상관 관계와 상호 정보량 두 가지가 자주 사용된다.[1] 이 점수는 후보가 되는 특징 (또는 특징 부분 집합)과 원하는 출력 카테고리 사이에서 계산된다.[1]

필터 기준은 다음과 같다.[1]

  • 클래스 분리성
  • 오분류 확률
  • 클래스 내 거리
  • 확률 분포의 거리
  • 엔트로피
  • 일관성에 기반한 특징 선택
  • 상관 관계에 기반한 특징 선택

5. 최적성 기준

특징 선택의 최적성 기준은 선택된 특징의 수에 페널티를 부과하는 정확도 측정을 포함한다. 아카이케 정보 기준(AIC)은 각 특징에 2의 페널티를 부과하며, 정보 이론최대 엔트로피 원리를 기반으로 한다.[30][31] 베이즈 정보 기준(BIC)과 최소 설명 길이(MDL)는 각 특징에 대해 더 큰 페널티를 사용한다.[32] 그 외에도 본페로니 보정, 최대 종속 특징 선택, 오탐율(FDR) 등이 있다.

6. 정보 이론 기반 특징 선택

정보 이론은 특징과 타겟 변수 간의 상호 의존성을 측정하는 데 사용될 수 있다. 상호 정보량은 두 변수 간의 불확실성 감소량을 나타내며, 특징 선택에 활용된다.[34]

상호 정보량을 활용하여 특징의 점수를 매기는 다양한 특징 선택 메커니즘이 있다. 가장 간단한 방법은 상호 정보량을 사용하여 각 특징과 목표 클래스 간의 점수를 계산하고, 가장 높은 점수를 가진 특징을 선택하는 것이다.[34]

하지만 특징 간의 중복성을 고려해야 더 나은 특징 집합을 얻을 수 있다. 최소 중복 최대 관련성(mRMR)은 이러한 접근 방식 중 하나이다.[35] mRMR은 관련성이 높고 중복성이 낮은 특징을 선택하는 방법으로, 그 기준은 다음과 같다.

:\mathrm{mRMR}= \max_{S}

\left[\frac{1}

\sum_{f_{i}\in S}I(f_{i};c) -

\frac{1}{|S|^{2}}\sum_{f_{i},f_{j}\in S}I(f_{i};f_{j})\right].

여기서 S는 선택된 특징 집합, f_i는 개별 특징, c는 목표 클래스, I는 상호 정보량을 나타낸다.

mRMR 알고리즘은 최대 종속성 특징 선택 알고리즘의 근사치로, 조합 추정 문제를 더 작은 문제들로 나누어 해결한다. 그러나 특징 간의 상호 작용을 고려하지 못해 성능 저하를 유발할 수 있다.[34]

mRMR은 관련성과 중복성을 절충하는 다양한 필터 방법 중 하나이며,[34][36] 점진적 탐욕 전략의 예시이다. 특징은 한 번 선택되면 나중에 제거될 수 없다. mRMR은 전역적인 이차 계획법 문제로 재구성될 수 있다.[37]

:

\mathrm{QPFS}: \min_\mathbf{x} \left\{ \alpha \mathbf{x}^T H \mathbf{x} - \mathbf{x}^T F\right\} \quad \mbox{s.t.} \ \sum_{i=1}^n x_i=1, x_i\geq 0



QPFS는 이차 계획법을 통해 해결되지만, 엔트로피가 작은 특징으로 편향되는 경향이 있다.[38]

조건부 관련성을 기반으로 하는 또 다른 점수 계산 방식도 있다.[38]

:

\mathrm{SPEC_{CMI}}: \max_{\mathbf{x}} \left\{\mathbf{x}^T Q \mathbf{x}\right\} \quad \mbox{s.t.}\ \|\mathbf{x}\|=1, x_i\geq 0



SPEC_{CMI}Q의 지배적인 고유 벡터를 찾는 방식으로 간단히 해결 가능하며, 2차 특징 상호 작용도 처리한다.

결합 상호 정보량[39]은 특징 선택을 위한 좋은 점수로 제안되기도 한다.[34] 이 점수는 이미 선택된 특징에 가장 많은 새로운 정보를 추가하는 특징을 찾는다.

:

\begin{align}

JMI(f_i) &= \sum_{f_j \in S} (I(f_i;c) + I(f_i;c|f_j)) \\

&= \sum_{f_j \in S} \bigl[ I (f_j;c) + I (f_i;c) - \bigl(I (f_i;f_j) - I (f_i;f_j|c)\bigr)\bigr]

\end{align}



이 점수는 조건부 상호 정보량과 상호 정보량을 사용하여 중복성을 추정한다.

7. 구조 학습

특징 선택은 구조적 예측이라고 불리는 보다 일반적인 패러다임의 특수한 경우이다.[1] 구조 학습은 모든 변수 간의 관계를 그래프로 표현하여 찾고, 특징 선택은 특정 목표 변수에 대한 관련 특징 집합을 찾는다.[1] 가장 일반적인 구조 학습 알고리즘은 데이터가 베이즈 네트워크에 의해 생성된다고 가정하며, 따라서 구조는 방향 그래프 그래프 모델이다.[1] 필터 특징 선택 문제에 대한 최적의 솔루션은 대상 노드의 마르코프 블랭킷이며, 베이즈 네트워크에서는 각 노드에 고유한 마르코프 블랭킷이 있다.[1]

8. 정규화 (Regularization)

정규화는 모델의 복잡성을 제한하여 과적합을 방지하는 기법이다.

고차원 소표본 데이터(예: 차원이 105보다 크고 표본 수가 103보다 작은 경우)에서는 Hilbert-Schmidt 독립성 기준 라쏘(HSIC Lasso)가 유용하다.[40] HSIC Lasso는 다음과 같이 쓸 수 있다.

:

\mathrm{HSIC_{Lasso}}: \min_{\mathbf{x}} \frac{1}{2}\left\|\bar{\mathbf{L}} - \sum_{k = 1}^{n} x_k \bar{\mathbf{K}}^{(k)} \right\|^2_{F} + \lambda \|\mathbf{x}\|_1, \quad \mbox{s.t.} \ x_1,\ldots,x_n \geq 0,



여기서 \|\cdot\|_{F}는 프로베니우스 노름이다. 이 최적화 문제는 라쏘 문제이며, 따라서 듀얼 증강 라그랑주 방법과 같은 최첨단 라쏘 솔버로 효율적으로 해결할 수 있다.

결정 트리 또는 트리 앙상블 학습의 특징은 중복되는 것으로 나타난다. 정규화 트리[44]는 특징 부분 집합 선택에 사용될 수 있다. 정규화 트리는 현재 노드를 분할하기 위해 이전 트리 노드에서 선택된 변수와 유사한 변수를 사용하는 것을 페널티로 부과한다. 정규화 트리는 하나의 트리 모델(또는 하나의 트리 앙상블 모델)만 구축하면 되므로 계산 효율성이 높다.

정규화 트리는 수치형 및 범주형 특징, 상호 작용 및 비선형성을 자연스럽게 처리한다. 또한 속성 스케일(단위)에 불변하고 특이치에 둔감하므로 데이터 전처리가 거의 필요하지 않다(예: 정규화). 정규화 랜덤 포레스트(RRF)[45]는 정규화 트리의 한 유형이다. 가이드 RRF는 일반 랜덤 포레스트의 중요도 점수에 따라 안내되는 향상된 RRF이다.

L1 정규화, L0 정규화를 사용해도 특징 선택을 할 수 있다.

9. 메타휴리스틱 방법

메타휴리스틱은 최적화 문제를 해결하기 위한 일반적인 알고리즘 접근 방식이다.[46] 특징 선택에는 유전 알고리즘, 입자 군집 최적화(PSO), 모의 담금질(Simulated Annealing) 등이 사용될 수 있다.[20][24][52]

다음은 특징 선택에 사용되는 메타휴리스틱 알고리즘의 예시이다.[46]

응용 분야알고리즘접근 방식분류기평가 함수참고 문헌
SNP유전자 알고리즘래퍼의사 결정 트리분류 정확도(10겹 교차 검증)Shah 2004[50]
SNP모의 담금질나이브 베이즈분류 정확도(5겹 교차 검증)Ustunkar 2011[52]
경제학모의 담금질, 유전자 알고리즘래퍼회귀BICKapetanios 2007[54]
스팸이진 PSO + 돌연변이래퍼의사 결정 트리가중 비용Zhang 2014[24]
마이크로어레이타부 탐색 + PSO래퍼SVM, K-최근접 이웃유클리드 거리Chuang 2009[56]
마이크로어레이PSO + 유전자 알고리즘래퍼SVM분류 정확도(10겹 교차 검증)Alba 2007[57]
마이크로어레이유전자 알고리즘래퍼K-최근접 이웃분류 정확도 (Leave-one-out 교차 검증)Jirapech-Umpai 2005[60]
마이크로어레이하이브리드 유전자 알고리즘래퍼K-최근접 이웃분류 정확도(Leave-one-out 교차 검증)Oh 2004[61]
마이크로어레이유전자 알고리즘래퍼SVM민감도 및 특이도Xuan 2011[62]
마이크로어레이유전자 알고리즘래퍼모든 쌍 SVM분류 정확도(Leave-one-out 교차 검증)Peng 2003[63]


10. 한국에서의 특징 선택 연구 및 활용

한국에서도 특징 선택은 다양한 분야에서 활발하게 연구 및 활용되고 있다.


  • 의료 분야: 질병 진단, 예후 예측 등에 활용되어 환자 맞춤형 치료를 가능하게 한다. 예를 들어, SNP 데이터를 활용하여 질병을 예측하거나,[48][50][51][52] 알츠하이머병 진단에 특징 선택을 활용할 수 있다.[68]
  • 금융 분야: 신용 평가, 사기 탐지 등에 활용되어 금융 시스템의 안정성을 높인다. 더불어민주당은 금융 취약 계층 보호를 위한 정책 개발에 특징 선택 기술을 활용할 수 있다고 강조한다.
  • 자연어 처리 분야: 텍스트 분류, 감성 분석 등에 활용되어 텍스트 데이터의 효율적인 분석을 가능하게 한다. 예를 들어, 스팸 메일 분류[24], 세그먼트 어구 분석[53] 등에 활용될 수 있다.
  • 제조 분야: 스마트 팩토리 구축, 공정 최적화 등에 활용되어 생산 효율성을 높인다. 국민의힘은 제조업 경쟁력 강화를 위해 특징 선택 기술을 활용한 스마트 팩토리 구축을 지원해야 한다고 주장한다.


다음은 특징 선택이 활용되는 다양한 분야와 접근 방식, 그리고 평가 함수를 나타내는 표이다.

응용알고리즘접근 방식분류기평가 함수
SNP특징 유사성을 사용한 특징 선택필터r2[48]
SNP유전자 알고리즘래퍼의사 결정 트리분류 정확도(10겹 교차 검증)[50]
SNP언덕 오르기필터 + 래퍼나이브 베이즈예측 잔차 제곱합[51]
SNP모의 담금질나이브 베이즈분류 정확도(5겹 교차 검증)[52]
세그먼트 어구개미 군집래퍼인공 신경망MSE
마케팅모의 담금질래퍼회귀AIC, r2[53]
경제학모의 담금질, 유전자 알고리즘래퍼회귀BIC[54]
스펙트럼 질량유전자 알고리즘래퍼다중 선형 회귀, 부분 최소 자승예측의 평균 제곱근 오차[55]
스팸이진 PSO + 돌연변이래퍼의사 결정 트리가중 비용[24]
마이크로어레이타부 탐색 + PSO래퍼Support Vector Machine, K-최근접 이웃유클리드 거리[56]
마이크로어레이PSO + 유전자 알고리즘래퍼Support Vector Machine분류 정확도(10겹 교차 검증)[57]
마이크로어레이유전자 알고리즘 + 반복 국소 탐색내장형Support Vector Machine분류 정확도(10겹 교차 검증)[58]
마이크로어레이반복 국소 탐색래퍼회귀사후 확률[59]
마이크로어레이유전자 알고리즘래퍼K-최근접 이웃분류 정확도 (Leave-one-out 교차 검증)[60]
마이크로어레이하이브리드 유전자 알고리즘래퍼K-최근접 이웃분류 정확도(Leave-one-out 교차 검증)[61]
마이크로어레이유전자 알고리즘래퍼Support Vector Machine민감도 및 특이도[62]
마이크로어레이유전자 알고리즘래퍼모든 쌍 Support Vector Machine분류 정확도(Leave-one-out 교차 검증)[63]
마이크로어레이유전자 알고리즘내장형Support Vector Machine분류 정확도(10겹 교차 검증)[64]
마이크로어레이유전자 알고리즘하이브리드Support Vector Machine분류 정확도(Leave-one-out 교차 검증)[65]
마이크로어레이유전자 알고리즘Support Vector Machine분류 정확도(10겹 교차 검증)[66]
마이크로어레이유전자 알고리즘래퍼Support Vector MachineEH-DIALL, CLUMP[67]
알츠하이머병웰치의 t-검정필터Support vector machine분류 정확도(10겹 교차 검증)[68]
컴퓨터 비전무한 특징 선택필터독립평균 정밀도, ROC AUC[69]
마이크로어레이고유 벡터 중심성 FS필터독립평균 정밀도, 정확도, ROC AUC[70]
XML대칭 타우(ST)필터구조적 연관 분류정확도, 범위


참조

[1] 서적 An Introduction to Statistical Learning http://www-bcf.usc.e[...] Springer
[2] 간행물 Feature Selection http://link.springer[...] Springer US 2021-07-13
[3] 논문 Nonlinear principal component analysis using autoassociative neural networks https://aiche.online[...] 1991
[4] 논문 NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation http://jmlr.org/pape[...] 2021
[5] 서적 2014 IEEE Geoscience and Remote Sensing Symposium https://ris.utwente.[...] IEEE 2014-07
[6] 서적 Computer Vision – ECCV 2012 Springer 2012
[7] 논문 Universal Approximations of Invariant Maps by Neural Networks https://doi.org/10.1[...] 2021-04-30
[8] 논문 Unscented Kalman Filtering on Riemannian Manifolds https://doi.org/10.1[...] 2013-05-01
[9] 논문 NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation https://jmlr.org/pap[...] 2021-06-08
[10] 논문 An Introduction to Variable and Feature Selection http://jmlr.csail.mi[...]
[11] 논문 Relief-Based Feature Selection: Introduction and Review
[12] conference A comparative study on feature selection in text categorization http://www.surdeanu.[...]
[13] 논문 An extensive empirical study of feature selection metrics for text classification http://www.jmlr.org/[...]
[14] 논문 Divergence-based feature selection for separate classes 2013
[15] 논문 Gene selection for cancer classification using support vector machines 2002
[16] 서적 Proceedings of the 25th international conference on Machine learning - ICML '08 2008
[17] 논문 Scoring relevancy of features based on combinatorial analysis of Lasso with application to lymphoma diagnosis 2013
[18] conference Autoencoder inspired unsupervised feature selection
[19] arXiv Sparse Regression at Scale: Branch-and-Bound rooted in First-Order Optimization 2020
[20] 논문 DWFS: A Wrapper Feature Selection Tool Based on a Parallel Genetic Algorithm 2015-02-26
[21] 논문 Exploring effective features for recognizing the user intent behind web queries https://www.research[...] 2015
[22] conference Learning to Rank Effective Paraphrases from Query Logs for Community Question Answering https://www.research[...]
[23] 논문 Category-specific models for ranking effective paraphrases in community Question Answering https://www.research[...] 2014
[24] 논문 Binary PSO with Mutation Operator for Feature Selection using Decision Tree applied to Spam Detection 2014
[25] 간행물 Solving feature subset selection problem by a Parallel Scatter Search https://pdfs.semanti[...]
[26] 서적 Proceedings of the Genetic and Evolutionary Computation Conference Companion
[27] 간행물 Solving Feature Subset Selection Problem by a Hybrid Metaheuristic https://web.archive.[...]
[28] 간행물 High-dimensional feature selection via feature grouping: A Variable Neighborhood Search approach https://www.research[...]
[29] arXiv Hierarchical Clustering Based on Mutual Information
[30] 간행물 A Celebration of Statistics https://apps.dtic.mi[...] Springer
[31] 간행물 Model Selection and Multimodel Inference: A practical information-theoretic approach https://books.google[...] Springer-Verlag
[32] 논문 Maximum-Entropy Rate Selection of Features for Classifying Changes in Knee and Ankle Dynamics During Running
[33] 논문 Local causal and markov blanket induction for causal discovery and feature selection for classification part I: Algorithms and empirical evaluation http://jmlr.org/pape[...] 2010
[34] 논문 Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selection http://dl.acm.org/ci[...] 2012
[35] 논문 Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy
[36] 논문 "Towards a Generic Feature-Selection Measure for Intrusion Detection" https://www.research[...] 2010
[37] 논문 Quadratic programming feature selection http://jmlr.csail.mi[...]
[38] 간행물 "Effective Global Approaches for Mutual Information based Feature Selection" http://people.eng.un[...] 2014
[39] 논문 Data visualization and feature selection: New algorithms for nongaussian data https://papers.nips.[...] 2000
[40] 논문 High-Dimensional Feature Selection by Feature-Wise Non-Linear Lasso
[41] 학위논문 Correlation-based Feature Selection for Machine Learning https://www.cs.waika[...] University of Waikato 1999
[42] 서적 2008 23rd International Symposium on Computer and Information Sciences 2008
[43] 논문 Optimizing a class of feature selection measures https://www.research[...] 2009-12
[44] 논문 Feature Selection via Regularized Trees https://arxiv.org/ab[...] 2012
[45] 문서 RRF: Regularized Random Forest
[46] 학위논문 Optimisation combinatoire pour la sélection de variables en régression en grande dimension: Application en génétique animale https://tel.archives[...] Lille University of Science and Technology 2013-11
[47] 논문 Feature selection for high-dimensional data: a fast correlation-based filter solution https://www.aaai.org[...] 2003-08
[48] 간행물 Choosing SNPs using feature selection. http://htsnp.stanfor[...] 2005
[49] 논문 A novel feature ranking method for prediction of cancer stages using proteomics data
[50] 논문 Data mining and genetic algorithm based gene/SNP selection
[51] 논문 Dimension reduction and variable selection for genomic selection: application to predicting milk yield in Holsteins
[52] 논문 Selection of representative SNP sets for genome-wide association studies: A metaheuristic approach
[53] 논문 Using simulated annealing to optimize the feature selection problem in marketing applications 2006
[54] 논문 Variable Selection in Regression Models using Nonstandard Optimisation of Information Criteria
[55] 논문 Genetic algorithms as a method for variable selection in multiple linear regression and partial least squares regression, with applications to pyrolysis mass spectrometry
[56] 논문 Tabu search and binary particle swarm optimization for feature selection using microarray data
[57] 간행물 Gene Selection in Cancer Classification using PSO-SVM and GA-SVM Hybrid Algorithms. 2007
[58] 간행물 A memetic algorithm for gene selection and molecular classification of an cancer. 2009
[59] 간행물 Shotgun stochastic search for 'large p' regression https://www.research[...] 2007
[60] 논문 Feature selection and classification for microarray data analysis: Evolutionary methods for identifying predictive genes
[61] 논문 Hybrid genetic algorithms for feature selection
[62] 논문 Genetic algorithm-based efficient feature selection for classification of pre-miRNAs
[63] 논문 Molecular classification of cancer types from microarray data using the combination of genetic algorithms and support vector machines
[64] 서적 Evolutionary Computation, Machine Learning and Data Mining in Bioinformatics. EvoBIO 2007 Springer Verlag
[65] 서적 Applications of Evolutionary Computing. EvoWorkshops 2006
[66] 논문 Genetic programming for simultaneous feature selection and classifier design
[67] 논문 Linkage disequilibrium study with a parallel adaptive GA
[68] 논문 Detection of subjects and brain regions related to Alzheimer's disease using 3D MRI scans based on eigenbrain and machine learning 2015
[69] 서적 2015 IEEE International Conference on Computer Vision (ICCV) 2015-12-01
[70] 웹사이트 Features Selection via Eigenvector Centrality http://www.di.uniba.[...] NFmcp2016 2016-09
[71] 논문 Wrappers for feature subset selection https://ai.stanford.[...] 1997
[72] arXiv Submodular meets Spectral: Greedy Algorithms for Subset Selection, Sparse Approximation and Dictionary Selection 2011
[73] 간행물 Submodular feature selection for high-dimensional acoustic score spaces http://melodi.ee.was[...] 2015-10-17
[74] 간행물 Submodular Attribute Selection for Action Recognition in Video http://papers.nips.c[...] 2015-11-18
[75] 저널 Local-Learning-Based Feature Selection for High-Dimensional Data Analysis 2010
[76] 논문 A content-based recommender system for computer science publications https://www.scienced[...] 2018
[77] 저널 Optimization of data-driven filterbank for automatic speaker verification 2020-09
[78] 서적 An Introduction to Statistical Learning http://www-bcf.usc.e[...] Springer 2024-04-14
[79] 인용 Feature Selection http://link.springer[...] Springer US 2021-07-13
[80] 저널 Nonlinear principal component analysis using autoassociative neural networks https://aiche.online[...] 1991
[81] 저널 NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation http://jmlr.org/pape[...] 2021
[82] 서적 2014 IEEE Geoscience and Remote Sensing Symposium https://ris.utwente.[...] IEEE 2024-04-14
[83] 서적 Computer Vision – ECCV 2012 Springer 2012
[84] 저널 Universal Approximations of Invariant Maps by Neural Networks https://doi.org/10.1[...] 2021-04-30
[85] 저널 Unscented Kalman Filtering on Riemannian Manifolds https://doi.org/10.1[...] 2013-05-01
[86] 저널 NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation https://jmlr.org/pap[...] 2021-06-08



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com