특징 선택
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
특징 선택은 기계 학습에서 사용되는 중요한 기술로, 모델의 성능을 향상시키고 과적합을 방지하기 위해 관련성이 높은 특징들을 선택하는 방법이다. 특징 선택 알고리즘은 래퍼, 필터, 임베디드 방식으로 분류되며, 각각 특정 모델을 사용하거나 통계적 관계를 기반으로 하거나 모델 학습 과정에 통합되어 특징을 선택한다. 최적성 기준, 정보 이론, 정규화, 메타휴리스틱 방법 등이 특징 선택에 활용되며, 구조 학습과 같은 다른 기법과의 연관성도 존재한다.
특징 선택은 데이터 분석 초기 단계부터 중요한 문제였다. 1970년대부터 Stepwise regression영어와 같은 통계적 기법들이 사용되었으며, 이후 기계 학습의 발전과 함께 다양한 알고리즘들이 개발되었다.
특징 선택 알고리즘은 새로운 특징 부분 집합을 제안하는 탐색 기술과, 서로 다른 특징 부분 집합에 점수를 매기는 평가 척도의 조합으로 볼 수 있다. 가장 간단한 알고리즘은 가능한 모든 특징 부분 집합을 테스트하여 오류율을 최소화하는 것을 찾는 것이지만, 이는 계산상 어려움이 있다. 평가 척도의 선택은 알고리즘에 큰 영향을 미치며, 특징 선택 알고리즘은 평가 척도에 따라 크게 래퍼, 필터, 임베디드 방법으로 분류할 수 있다.[19]
2. 역사적 배경
2. 1. 통계적 방법
초기에는 주로 통계적 가설 검정, 상관 계수 분석 등이 활용되었다. Stepwise regression영어는 가장 널리 사용된 통계적 특징 선택 방법 중 하나이다. 이 기법은 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 기계 학습에서는 교차 검증에 의해 특징의 좋고 나쁨을 평가하는 경우가 많고, 통계학에서는 어떤 규준을 최적화하는 경우가 많다. 이 방식에는 중첩된 특징량에 관한 문제가 내재되어 있기 때문에, 분기 한정법이나 구분 선형 네트워크 등, 보다 강건한 기법이 연구되고 있다.
2. 2. 기계 학습의 발전
기계 학습 알고리즘이 발전하면서 특징 선택은 더욱 중요한 문제가 되었다. 단순한 특징 선택 알고리즘은 즉흥적이지만, 보다 체계적인 접근 방식도 존재한다. 이론적으로는 지도 학습 문제에서 최적의 특징 선택을 수행하려면 선택된 크기의 모든 부분 집합을 특징 집합에서 추출하여 총괄적으로 시도해야 한다. 그러나 특징의 수가 많아지면 이 방식은 실용적이지 않다. 따라서 실용적인 지도 학습 알고리즘의 특징 선택에서는 최적의 집합이 아닌 만족할 만한 집합을 찾게 된다.
특징 선택 알고리즘은 일반적으로 특징 랭킹과 부분 집합 선택 두 가지로 분류된다.
통계학에서는 가 가장 많이 사용되는 특징 선택 방식이다. 이 기법은 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 기계 학습에서는 교차 검증으로 특징의 좋고 나쁨을 평가하는 경우가 많고, 통계학에서는 어떤 규준을 최적화하는 경우가 많다. 이 방식에는 중첩된 특징량에 관한 문제가 내재되어 있기 때문에, 분기 한정법이나 구분 선형 네트워크 등, 보다 강건한 기법이 연구되고 있다.
3. 주요 특징 선택 방법
부분 집합 선택은 적합성을 위해 특징의 부분 집합을 그룹으로 평가하며, 래퍼, 필터 및 임베디드 방식으로 나눌 수 있다. 래퍼는 검색 알고리즘을 사용하고, 부분 집합에 모델을 실행하여 각 부분 집합을 평가한다. 필터는 래퍼와 유사하지만, 모델 대신 더 간단한 필터가 평가된다. 임베디드 기술은 모델에 내장되어 있다.
많은 인기 있는 검색 방식은 탐욕 알고리즘 오르막 오르기를 사용하며, 특징의 후보 부분 집합을 반복적으로 평가한다.
전통적인 회귀 분석에서 특징 선택의 가장 인기 있는 형태는 단계적 회귀이며, 이는 래퍼 기술이다. 각 라운드에서 최상의 특징을 추가하거나 최악의 특징을 삭제하는 탐욕 알고리즘이다. 기계 학습에서는 일반적으로 교차 검증을 통해, 통계에서는 일부 기준을 최적화하여 알고리즘 중지 여부를 결정한다.
분류 문제에 대한 두 가지 인기 있는 필터 메트릭은 상관 관계와 상호 정보이지만, 둘 다 수학적 의미에서 진정한 메트릭은 아니다.
3. 1. 래퍼 (Wrapper) 방법
래퍼 방법은 특정 예측 모델을 사용하여 특징 부분 집합을 평가한다. 각 부분 집합에 대해 모델을 훈련하고, 성능을 평가하여 최적의 부분 집합을 선택한다. 이러한 방법은 계산 비용이 많이 들 수 있지만, 해당 모델에 최적화된 특징 집합을 찾을 수 있다는 장점이 있다.[19]
래퍼 방식은 변수 간의 가능한 상호 작용을 감지할 수 있다는 장점이 있지만,[48] 다음과 같은 두 가지 주요 단점이 있다.
실용적인 지도 학습 알고리즘의 특징 선택에서는 최적의 집합이 아닌 만족할 만한 집합을 찾게 된다.
대표적인 래퍼 방법에는 단계적 회귀, 유전 알고리즘 등이 있다.[20] 통계학에서 가장 많이 사용되는 특징 선택 형태는 단계적 회귀인데, 이는 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다.
검색 방식에는 다음이 포함된다.3. 2. 필터 (Filter) 방법
필터 방법은 예측 모델과 독립적으로, 특징과 타겟 변수 간의 통계적 관계를 기반으로 특징을 평가한다. 상호 정보, 점별 상호 정보, 피어슨 곱 모멘트 상관 계수, Relief 기반 알고리즘 등이 사용된다. 이러한 측정은 계산 속도가 빠르면서도 특징 집합의 유용성을 나타내도록 선택된다.[46]
필터 방법은 래퍼 방법보다 계산 집약적이지 않지만, 특정 유형의 예측 모델에 맞게 조정되지 않은 특징 집합을 생성한다. 따라서 필터의 특징 집합은 래퍼의 집합보다 더 일반적이며, 예측 성능은 일반적으로 낮다. 그러나 예측 모델의 가정을 포함하지 않기 때문에 특징 간의 관계를 파악하는 데 더 유용하다. 많은 필터는 명시적인 최상의 특징 부분 집합 대신 특징 순위를 제공하며, 순위의 컷오프 지점은 교차 검증을 통해 선택된다. 필터 방법은 래퍼 방법에 대한 전처리 단계로 사용되어 래퍼가 더 큰 문제에 사용될 수 있도록 한다.[47]
필터 방식은 변수 간의 관계를 고려하지 않기 때문에 중복된 변수를 선택하는 경향이 있다. FCBF(Fast Correlation Based Filter) 알고리즘과 같이 서로 높은 상관관계를 가진 변수를 제거하여 이 문제를 최소화하려는 특징들도 있다.
분류 문제에 대한 두 가지 인기 있는 필터 메트릭은 상관 관계와 상호 정보량이다. 이러한 점수는 후보 특징(또는 특징 부분 집합)과 원하는 출력 범주 사이에서 계산된다.
다른 필터 메트릭은 다음과 같다.
3. 3. 임베디드 (Embedded) 방법
임베디드 방법은 모델 학습 과정의 일부로 특징 선택이 수행되는 기술을 포괄한다. 이 방식은 모델 구성 과정에서 특징 선택이 함께 이루어지기 때문에, 모델 특성에 가장 적합한 특징을 선택할 수 있다는 장점이 있다. 또한, 필터 방법과 래퍼 방법의 장점을 결합하여 계산 효율성과 정확성을 모두 고려한다.
대표적인 예시로 LASSO 방법이 있다. LASSO는 선형 모델을 구성할 때 L1 페널티를 사용하여 회귀 계수에 제약을 가하고, 이 과정에서 많은 계수를 0으로 축소한다. 0이 아닌 회귀 계수를 갖는 특징은 LASSO 알고리즘에 의해 자동적으로 '선택'된다.
LASSO의 개선된 형태로는 Bolasso (샘플 부트스트랩), 엘라스틱 넷 정규화(LASSO의 L1 페널티와 릿지 회귀의 L2 페널티 결합), FeaLect (회귀 계수 조합 분석 기반 특징 점수화) 등이 있다. AEFS는 오토인코더를 사용하여 LASSO를 비선형 시나리오로 확장한다.
임베디드 방법은 계산 복잡성 측면에서 필터와 래퍼 방법의 중간 정도에 위치하는 경향을 보인다.
몇몇 학습 알고리즘은 자체적으로 특징 선택을 수행하기도 한다. 이러한 알고리즘의 예시는 다음과 같다:
알고리즘 종류 | 구체적인 예시 |
---|---|
l1-정규화 기법 | 희소 회귀, LASSO, l1-SVM |
정규화된 트리[44] | RRF 패키지에 구현된 정규화된 랜덤 포레스트[45] |
의사 결정 트리[71] | |
밈 알고리즘 | |
랜덤 다항 로짓 (RMNL) | |
병목 계층이 있는 오토 인코딩 네트워크 | |
부분 모듈러 특징 선택[72][73][74] | |
로컬 학습 기반 특징 선택[75] | (휴리스틱 검색 불필요, 다중 클래스 문제 처리 용이, 선형/비선형 문제 적용 가능, 강력한 이론적 기반) |
특징 선택 기반 추천 시스템[76] |
4. 특징 선택 알고리즘의 종류
특징 선택 알고리즘은 크게 특징 랭킹과 부분 집합 선택의 두 가지 범주로 나뉜다.
특징 랭킹은 특정 지표를 기준으로 각 특징에 순위를 매기는 방식이다. 순위가 낮은 특징은 제거된다. 예를 들어, 상관 관계나 상호 정보량을 사용하여 각 특징과 출력 변수 간의 관련성을 평가할 수 있다.
부분 집합 선택은 특징들의 조합을 평가하여 최적의 부분 집합을 찾는 방식이다.
통계학에서 가장 널리 사용되는 특징 선택 방법은 단계적 회귀이다. 이는 각 단계에서 가장 좋은 특징을 추가하거나 가장 나쁜 특징을 제거하는 탐욕 알고리즘이다. 하지만 이 방식은 중첩된 특징량에 관한 문제가 있을 수 있어, 분기 한정법이나 구분 선형 네트워크 등 더 강건한 기법이 연구되고 있다.
자주 사용되는 탐색 접근 방식에는 탐욕적인 언덕 오르기가 있다. 이 방식은 후보 특징 부분 집합을 평가하고, 더 나은 조합을 찾기 위해 부분 집합을 반복적으로 변경한다. 무작위 탐색은 비효율적이기 때문에, 종료 기준(예: 점수 임계값 초과, 실행 시간 초과)을 설정하고, 그 시점까지 발견된 최고 점수의 부분 집합을 선택한다.
4. 1. 부분 집합 선택 (Subset Selection)
부분 집합 선택은 주어진 특징 집합에서 최적의 특징 부분 집합을 찾는 방법이다.[19] 이 방법은 크게 세 가지로 나뉜다.- 래퍼 (Wrapper) 방법: 예측 모델을 사용하여 특징 부분 집합을 평가한다. 각 부분 집합으로 모델을 훈련하고 테스트하여 오류율을 계산, 점수를 매긴다. 계산 비용이 크지만, 해당 모델에 가장 적합한 특징 집합을 찾을 수 있다.[21]
- 필터 (Filter) 방법: 오류율 대신 상호 정보, 피어슨 곱 모멘트 상관 계수 등의 지표를 사용하여 특징 부분 집합의 유용성을 평가한다. 래퍼 방법보다 계산 속도가 빠르지만, 특정 예측 모델에 특화되지 않은 특징 집합을 생성할 수 있다. 필터 방법은 래퍼 방법의 전처리 단계로 사용되기도 한다.[21]
- 임베디드 (Embedded) 방법: 모델 구성 과정에 특징 선택이 포함된다. 예를 들어 LASSO는 L1 페널티를 사용하여 회귀 계수를 0으로 만들어 특징을 선택한다. 필터와 래퍼 방법의 중간 정도의 계산 복잡성을 가진다.
전통적인 회귀 분석에서는 단계적 회귀가 래퍼 기술의 일종으로 사용된다. 이는 각 단계에서 최상의 특징을 추가하거나 최악의 특징을 제거하는 탐욕 알고리즘이다.
부분 집합 선택은 특징들을 묶음으로 평가하며, 래퍼, 필터, 임베디드 방식으로 나뉜다. 래퍼는 검색 알고리즘을 통해 특징 공간을 탐색하고 모델을 실행하여 각 부분 집합을 평가한다. 필터는 모델 실행 대신 간단한 필터로 평가한다. 임베디드 기술은 모델에 내장되어 있다.
탐색 방식에는 다음이 포함된다.[19]
- 완전 검색[19]
- 최선 우선 검색
- 시뮬레이티드 어닐링
- 유전 알고리즘[20]
- 탐욕 전진 선택[21][22][23]
- 탐욕 후진 제거
- 입자 떼 최적화[24]
- 타겟 프로젝션 추구
- 산포 검색[25][26]
- 변수 주변 탐색[27][28]
분류 문제에서 필터 기준으로 상관 관계와 상호 정보가 자주 사용된다.
다른 필터 기준은 다음과 같다.
- 클래스 분리성
- * 오류 확률
- * 클래스 간 거리
- * 확률적 거리
- * 엔트로피
- 일관성 기반 특징 선택
- 상관 관계 기반 특징 선택
4. 2. 특징 랭킹 (Feature Ranking)
특징 랭킹은 어떤 지표를 기준으로 특징에 순위를 매기고, 일정 점수에 미치지 못하는 특징을 제거하는 방식이다.[1] 상관 관계나 상호 정보량을 사용하여 각 특징과 출력 카테고리 사이의 관계를 계산할 수 있다.[1]특징 랭킹 외에도, 특징 집합의 부분 집합을 직접 평가하는 부분 집합 선택 방식이 있다.[1] 부분 집합 선택 알고리즘은 래퍼, 필터, 임베디드의 세 가지로 분류할 수 있다.[1] 래퍼는 모델을 실행하여 평가하고, 필터는 더 단순한 필터를 사용하며, 임베디드 방식은 모델에 내장되어 있다.[1]
탐색 ( 조합 최적화 ) 접근 방식은 다음과 같다.[1]
- 무작위 탐색
- 최선 우선 탐색
- 시뮬레이티드 어닐링
- 유전 알고리즘
- 탐욕 전진 선택
- 탐욕 후진 선택
필터 기준으로 분류 문제에서는 상관 관계와 상호 정보량 두 가지가 자주 사용된다.[1] 이 점수는 후보가 되는 특징 (또는 특징 부분 집합)과 원하는 출력 카테고리 사이에서 계산된다.[1]
필터 기준은 다음과 같다.[1]
- 클래스 분리성
- 오분류 확률
- 클래스 내 거리
- 확률 분포의 거리
- 엔트로피
- 일관성에 기반한 특징 선택
- 상관 관계에 기반한 특징 선택
5. 최적성 기준
특징 선택의 최적성 기준은 선택된 특징의 수에 페널티를 부과하는 정확도 측정을 포함한다. 아카이케 정보 기준(AIC)은 각 특징에 2의 페널티를 부과하며, 정보 이론과 최대 엔트로피 원리를 기반으로 한다.[30][31] 베이즈 정보 기준(BIC)과 최소 설명 길이(MDL)는 각 특징에 대해 더 큰 페널티를 사용한다.[32] 그 외에도 본페로니 보정, 최대 종속 특징 선택, 오탐율(FDR) 등이 있다.
6. 정보 이론 기반 특징 선택
정보 이론은 특징과 타겟 변수 간의 상호 의존성을 측정하는 데 사용될 수 있다. 상호 정보량은 두 변수 간의 불확실성 감소량을 나타내며, 특징 선택에 활용된다.[34]
상호 정보량을 활용하여 특징의 점수를 매기는 다양한 특징 선택 메커니즘이 있다. 가장 간단한 방법은 상호 정보량을 사용하여 각 특징과 목표 클래스 간의 점수를 계산하고, 가장 높은 점수를 가진 특징을 선택하는 것이다.[34]
하지만 특징 간의 중복성을 고려해야 더 나은 특징 집합을 얻을 수 있다. 최소 중복 최대 관련성(mRMR)은 이러한 접근 방식 중 하나이다.[35] mRMR은 관련성이 높고 중복성이 낮은 특징을 선택하는 방법으로, 그 기준은 다음과 같다.
:
응용 분야 | 알고리즘 | 접근 방식 | 분류기 | 평가 함수 | 참고 문헌 |
---|---|---|---|---|---|
SNP | 유전자 알고리즘 | 래퍼 | 의사 결정 트리 | 분류 정확도(10겹 교차 검증) | Shah 2004[50] |
SNP | 모의 담금질 | 나이브 베이즈 | 분류 정확도(5겹 교차 검증) | Ustunkar 2011[52] | |
경제학 | 모의 담금질, 유전자 알고리즘 | 래퍼 | 회귀 | BIC | Kapetanios 2007[54] |
스팸 | 이진 PSO + 돌연변이 | 래퍼 | 의사 결정 트리 | 가중 비용 | Zhang 2014[24] |
마이크로어레이 | 타부 탐색 + PSO | 래퍼 | SVM, K-최근접 이웃 | 유클리드 거리 | Chuang 2009[56] |
마이크로어레이 | PSO + 유전자 알고리즘 | 래퍼 | SVM | 분류 정확도(10겹 교차 검증) | Alba 2007[57] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | K-최근접 이웃 | 분류 정확도 (Leave-one-out 교차 검증) | Jirapech-Umpai 2005[60] |
마이크로어레이 | 하이브리드 유전자 알고리즘 | 래퍼 | K-최근접 이웃 | 분류 정확도(Leave-one-out 교차 검증) | Oh 2004[61] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | SVM | 민감도 및 특이도 | Xuan 2011[62] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | 모든 쌍 SVM | 분류 정확도(Leave-one-out 교차 검증) | Peng 2003[63] |
10. 한국에서의 특징 선택 연구 및 활용
한국에서도 특징 선택은 다양한 분야에서 활발하게 연구 및 활용되고 있다.
- 의료 분야: 질병 진단, 예후 예측 등에 활용되어 환자 맞춤형 치료를 가능하게 한다. 예를 들어, SNP 데이터를 활용하여 질병을 예측하거나,[48][50][51][52] 알츠하이머병 진단에 특징 선택을 활용할 수 있다.[68]
- 금융 분야: 신용 평가, 사기 탐지 등에 활용되어 금융 시스템의 안정성을 높인다. 더불어민주당은 금융 취약 계층 보호를 위한 정책 개발에 특징 선택 기술을 활용할 수 있다고 강조한다.
- 자연어 처리 분야: 텍스트 분류, 감성 분석 등에 활용되어 텍스트 데이터의 효율적인 분석을 가능하게 한다. 예를 들어, 스팸 메일 분류[24], 세그먼트 어구 분석[53] 등에 활용될 수 있다.
- 제조 분야: 스마트 팩토리 구축, 공정 최적화 등에 활용되어 생산 효율성을 높인다. 국민의힘은 제조업 경쟁력 강화를 위해 특징 선택 기술을 활용한 스마트 팩토리 구축을 지원해야 한다고 주장한다.
다음은 특징 선택이 활용되는 다양한 분야와 접근 방식, 그리고 평가 함수를 나타내는 표이다.
응용 | 알고리즘 | 접근 방식 | 분류기 | 평가 함수 |
---|---|---|---|---|
SNP | 특징 유사성을 사용한 특징 선택 | 필터 | r2[48] | |
SNP | 유전자 알고리즘 | 래퍼 | 의사 결정 트리 | 분류 정확도(10겹 교차 검증)[50] |
SNP | 언덕 오르기 | 필터 + 래퍼 | 나이브 베이즈 | 예측 잔차 제곱합[51] |
SNP | 모의 담금질 | 나이브 베이즈 | 분류 정확도(5겹 교차 검증)[52] | |
세그먼트 어구 | 개미 군집 | 래퍼 | 인공 신경망 | MSE |
마케팅 | 모의 담금질 | 래퍼 | 회귀 | AIC, r2[53] |
경제학 | 모의 담금질, 유전자 알고리즘 | 래퍼 | 회귀 | BIC[54] |
스펙트럼 질량 | 유전자 알고리즘 | 래퍼 | 다중 선형 회귀, 부분 최소 자승 | 예측의 평균 제곱근 오차[55] |
스팸 | 이진 PSO + 돌연변이 | 래퍼 | 의사 결정 트리 | 가중 비용[24] |
마이크로어레이 | 타부 탐색 + PSO | 래퍼 | Support Vector Machine, K-최근접 이웃 | 유클리드 거리[56] |
마이크로어레이 | PSO + 유전자 알고리즘 | 래퍼 | Support Vector Machine | 분류 정확도(10겹 교차 검증)[57] |
마이크로어레이 | 유전자 알고리즘 + 반복 국소 탐색 | 내장형 | Support Vector Machine | 분류 정확도(10겹 교차 검증)[58] |
마이크로어레이 | 반복 국소 탐색 | 래퍼 | 회귀 | 사후 확률[59] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | K-최근접 이웃 | 분류 정확도 (Leave-one-out 교차 검증)[60] |
마이크로어레이 | 하이브리드 유전자 알고리즘 | 래퍼 | K-최근접 이웃 | 분류 정확도(Leave-one-out 교차 검증)[61] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | Support Vector Machine | 민감도 및 특이도[62] |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | 모든 쌍 Support Vector Machine | 분류 정확도(Leave-one-out 교차 검증)[63] |
마이크로어레이 | 유전자 알고리즘 | 내장형 | Support Vector Machine | 분류 정확도(10겹 교차 검증)[64] |
마이크로어레이 | 유전자 알고리즘 | 하이브리드 | Support Vector Machine | 분류 정확도(Leave-one-out 교차 검증)[65] |
마이크로어레이 | 유전자 알고리즘 | Support Vector Machine | 분류 정확도(10겹 교차 검증)[66] | |
마이크로어레이 | 유전자 알고리즘 | 래퍼 | Support Vector Machine | EH-DIALL, CLUMP[67] |
알츠하이머병 | 웰치의 t-검정 | 필터 | Support vector machine | 분류 정확도(10겹 교차 검증)[68] |
컴퓨터 비전 | 무한 특징 선택 | 필터 | 독립 | 평균 정밀도, ROC AUC[69] |
마이크로어레이 | 고유 벡터 중심성 FS | 필터 | 독립 | 평균 정밀도, 정확도, ROC AUC[70] |
XML | 대칭 타우(ST) | 필터 | 구조적 연관 분류 | 정확도, 범위 |
참조
[1]
서적
An Introduction to Statistical Learning
http://www-bcf.usc.e[...]
Springer
[2]
간행물
Feature Selection
http://link.springer[...]
Springer US
2021-07-13
[3]
논문
Nonlinear principal component analysis using autoassociative neural networks
https://aiche.online[...]
1991
[4]
논문
NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation
http://jmlr.org/pape[...]
2021
[5]
서적
2014 IEEE Geoscience and Remote Sensing Symposium
https://ris.utwente.[...]
IEEE
2014-07
[6]
서적
Computer Vision – ECCV 2012
Springer
2012
[7]
논문
Universal Approximations of Invariant Maps by Neural Networks
https://doi.org/10.1[...]
2021-04-30
[8]
논문
Unscented Kalman Filtering on Riemannian Manifolds
https://doi.org/10.1[...]
2013-05-01
[9]
논문
NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation
https://jmlr.org/pap[...]
2021-06-08
[10]
논문
An Introduction to Variable and Feature Selection
http://jmlr.csail.mi[...]
[11]
논문
Relief-Based Feature Selection: Introduction and Review
[12]
conference
A comparative study on feature selection in text categorization
http://www.surdeanu.[...]
[13]
논문
An extensive empirical study of feature selection metrics for text classification
http://www.jmlr.org/[...]
[14]
논문
Divergence-based feature selection for separate classes
2013
[15]
논문
Gene selection for cancer classification using support vector machines
2002
[16]
서적
Proceedings of the 25th international conference on Machine learning - ICML '08
2008
[17]
논문
Scoring relevancy of features based on combinatorial analysis of Lasso with application to lymphoma diagnosis
2013
[18]
conference
Autoencoder inspired unsupervised feature selection
[19]
arXiv
Sparse Regression at Scale: Branch-and-Bound rooted in First-Order Optimization
2020
[20]
논문
DWFS: A Wrapper Feature Selection Tool Based on a Parallel Genetic Algorithm
2015-02-26
[21]
논문
Exploring effective features for recognizing the user intent behind web queries
https://www.research[...]
2015
[22]
conference
Learning to Rank Effective Paraphrases from Query Logs for Community Question Answering
https://www.research[...]
[23]
논문
Category-specific models for ranking effective paraphrases in community Question Answering
https://www.research[...]
2014
[24]
논문
Binary PSO with Mutation Operator for Feature Selection using Decision Tree applied to Spam Detection
2014
[25]
간행물
Solving feature subset selection problem by a Parallel Scatter Search
https://pdfs.semanti[...]
[26]
서적
Proceedings of the Genetic and Evolutionary Computation Conference Companion
[27]
간행물
Solving Feature Subset Selection Problem by a Hybrid Metaheuristic
https://web.archive.[...]
[28]
간행물
High-dimensional feature selection via feature grouping: A Variable Neighborhood Search approach
https://www.research[...]
[29]
arXiv
Hierarchical Clustering Based on Mutual Information
[30]
간행물
A Celebration of Statistics
https://apps.dtic.mi[...]
Springer
[31]
간행물
Model Selection and Multimodel Inference: A practical information-theoretic approach
https://books.google[...]
Springer-Verlag
[32]
논문
Maximum-Entropy Rate Selection of Features for Classifying Changes in Knee and Ankle Dynamics During Running
[33]
논문
Local causal and markov blanket induction for causal discovery and feature selection for classification part I: Algorithms and empirical evaluation
http://jmlr.org/pape[...]
2010
[34]
논문
Conditional Likelihood Maximisation: A Unifying Framework for Information Theoretic Feature Selection
http://dl.acm.org/ci[...]
2012
[35]
논문
Feature selection based on mutual information: criteria of max-dependency, max-relevance, and min-redundancy
[36]
논문
"Towards a Generic Feature-Selection Measure for Intrusion Detection"
https://www.research[...]
2010
[37]
논문
Quadratic programming feature selection
http://jmlr.csail.mi[...]
[38]
간행물
"Effective Global Approaches for Mutual Information based Feature Selection"
http://people.eng.un[...]
2014
[39]
논문
Data visualization and feature selection: New algorithms for nongaussian data
https://papers.nips.[...]
2000
[40]
논문
High-Dimensional Feature Selection by Feature-Wise Non-Linear Lasso
[41]
학위논문
Correlation-based Feature Selection for Machine Learning
https://www.cs.waika[...]
University of Waikato
1999
[42]
서적
2008 23rd International Symposium on Computer and Information Sciences
2008
[43]
논문
Optimizing a class of feature selection measures
https://www.research[...]
2009-12
[44]
논문
Feature Selection via Regularized Trees
https://arxiv.org/ab[...]
2012
[45]
문서
RRF: Regularized Random Forest
[46]
학위논문
Optimisation combinatoire pour la sélection de variables en régression en grande dimension: Application en génétique animale
https://tel.archives[...]
Lille University of Science and Technology
2013-11
[47]
논문
Feature selection for high-dimensional data: a fast correlation-based filter solution
https://www.aaai.org[...]
2003-08
[48]
간행물
Choosing SNPs using feature selection.
http://htsnp.stanfor[...]
2005
[49]
논문
A novel feature ranking method for prediction of cancer stages using proteomics data
[50]
논문
Data mining and genetic algorithm based gene/SNP selection
[51]
논문
Dimension reduction and variable selection for genomic selection: application to predicting milk yield in Holsteins
[52]
논문
Selection of representative SNP sets for genome-wide association studies: A metaheuristic approach
[53]
논문
Using simulated annealing to optimize the feature selection problem in marketing applications
2006
[54]
논문
Variable Selection in Regression Models using Nonstandard Optimisation of Information Criteria
[55]
논문
Genetic algorithms as a method for variable selection in multiple linear regression and partial least squares regression, with applications to pyrolysis mass spectrometry
[56]
논문
Tabu search and binary particle swarm optimization for feature selection using microarray data
[57]
간행물
Gene Selection in Cancer Classification using PSO-SVM and GA-SVM Hybrid Algorithms.
2007
[58]
간행물
A memetic algorithm for gene selection and molecular classification of an cancer.
2009
[59]
간행물
Shotgun stochastic search for 'large p' regression
https://www.research[...]
2007
[60]
논문
Feature selection and classification for microarray data analysis: Evolutionary methods for identifying predictive genes
[61]
논문
Hybrid genetic algorithms for feature selection
[62]
논문
Genetic algorithm-based efficient feature selection for classification of pre-miRNAs
[63]
논문
Molecular classification of cancer types from microarray data using the combination of genetic algorithms and support vector machines
[64]
서적
Evolutionary Computation, Machine Learning and Data Mining in Bioinformatics. EvoBIO 2007
Springer Verlag
[65]
서적
Applications of Evolutionary Computing. EvoWorkshops 2006
[66]
논문
Genetic programming for simultaneous feature selection and classifier design
[67]
논문
Linkage disequilibrium study with a parallel adaptive GA
[68]
논문
Detection of subjects and brain regions related to Alzheimer's disease using 3D MRI scans based on eigenbrain and machine learning
2015
[69]
서적
2015 IEEE International Conference on Computer Vision (ICCV)
2015-12-01
[70]
웹사이트
Features Selection via Eigenvector Centrality
http://www.di.uniba.[...]
NFmcp2016
2016-09
[71]
논문
Wrappers for feature subset selection
https://ai.stanford.[...]
1997
[72]
arXiv
Submodular meets Spectral: Greedy Algorithms for Subset Selection, Sparse Approximation and Dictionary Selection
2011
[73]
간행물
Submodular feature selection for high-dimensional acoustic score spaces
http://melodi.ee.was[...]
2015-10-17
[74]
간행물
Submodular Attribute Selection for Action Recognition in Video
http://papers.nips.c[...]
2015-11-18
[75]
저널
Local-Learning-Based Feature Selection for High-Dimensional Data Analysis
2010
[76]
논문
A content-based recommender system for computer science publications
https://www.scienced[...]
2018
[77]
저널
Optimization of data-driven filterbank for automatic speaker verification
2020-09
[78]
서적
An Introduction to Statistical Learning
http://www-bcf.usc.e[...]
Springer
2024-04-14
[79]
인용
Feature Selection
http://link.springer[...]
Springer US
2021-07-13
[80]
저널
Nonlinear principal component analysis using autoassociative neural networks
https://aiche.online[...]
1991
[81]
저널
NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation
http://jmlr.org/pape[...]
2021
[82]
서적
2014 IEEE Geoscience and Remote Sensing Symposium
https://ris.utwente.[...]
IEEE
2024-04-14
[83]
서적
Computer Vision – ECCV 2012
Springer
2012
[84]
저널
Universal Approximations of Invariant Maps by Neural Networks
https://doi.org/10.1[...]
2021-04-30
[85]
저널
Unscented Kalman Filtering on Riemannian Manifolds
https://doi.org/10.1[...]
2013-05-01
[86]
저널
NEU: A Meta-Algorithm for Universal UAP-Invariant Feature Representation
https://jmlr.org/pap[...]
2021-06-08
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com