공정성
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
공정성은 기계 학습 분야에서 2016년 이후 활발히 연구되는 주제로, 알고리즘의 편향 문제를 다룬다. 미국 COMPAS 소프트웨어의 인종차별 논란이 연구의 촉매제가 되었으며, IBM, 구글, 페이스북 등 기술 기업들이 관련 도구와 지침을 개발했다. 그러나 알고리즘 의사결정의 공정성 문제는 역사적으로 민권 운동과 1964년 민권법 통과 이후에도 논의되었으며, 언어, 성별, 정치적 편향 등 다양한 유형의 편향이 존재한다. 집단 공정성, 개인 공정성, 인과 관계 기반 측정, 사회후생함수 등 다양한 공정성 기준이 제시되었으며, 데이터 전처리, 학습 중 최적화, 후처리 등 편향 완화 전략이 연구되고 있다.
더 읽어볼만한 페이지
- 정보 윤리 - 알고리즘 편향
알고리즘 편향은 데이터 수집 및 설계, 사용 방식 등 다양한 단계에서 특정 집단에 불리한 결과를 초래하는 체계적인 오류로, 인종, 성별 등 민감한 속성에 따라 불공정성을 야기하며, 투명하고 책임감 있는 개발과 지속적인 연구 및 규제가 요구된다. - 정보 윤리 - 가능성의 평등
- 컴퓨팅과 사회 - 알고리즘 편향
알고리즘 편향은 데이터 수집 및 설계, 사용 방식 등 다양한 단계에서 특정 집단에 불리한 결과를 초래하는 체계적인 오류로, 인종, 성별 등 민감한 속성에 따라 불공정성을 야기하며, 투명하고 책임감 있는 개발과 지속적인 연구 및 규제가 요구된다. - 컴퓨팅과 사회 - 디지털 권리
디지털 권리는 인터넷 사용과 관련된 인권을 보호하고 증진하기 위한 개념이며, 인터넷 접근성을 보장하고 디지털 환경에서의 인권 보호를 위해 노력한다. - 편향 - 알고리즘 편향
알고리즘 편향은 데이터 수집 및 설계, 사용 방식 등 다양한 단계에서 특정 집단에 불리한 결과를 초래하는 체계적인 오류로, 인종, 성별 등 민감한 속성에 따라 불공정성을 야기하며, 투명하고 책임감 있는 개발과 지속적인 연구 및 규제가 요구된다. - 편향 - 젠더 이분법
젠더 이분법은 사회 구성원을 남성과 여성으로 엄격히 나누는 시스템으로, 생물학적 성을 기반으로 하지만 간성인의 존재로 인해 한계를 드러내며, 가부장적 규범 강화, 성소수자 차별, 다양한 젠더 정체성 배제 등의 문제를 야기하여 비판받는다.
공정성 | |
---|---|
지도 | |
개요 | |
설명 | 알고리즘 편향 측정은 알고리즘이 편향을 보이는 정도를 정량적으로 평가하는 과정이다. |
목적 | 알고리즘의 공정성을 확보하고, 차별을 방지하기 위해 수행된다. |
관련 분야 | 기계 학습 인공지능 사회적 영향 |
측정 방법 | |
편향 종류 식별 | 알고리즘이 특정 그룹에 불리하게 작용하는 편향의 종류를 분석한다. |
주요 변수 선택 | 측정에 사용할 종속변수와 독립변수를 정의한다. |
측정 지표 선정 | 균등 기회 인구 통계 패리티 예측적 동등성 등의 공정성 측정 지표를 선택한다. |
데이터 수집 및 전처리 | 알고리즘의 편향을 측정하기 위한 데이터를 수집하고 전처리 과정을 거친다. |
알고리즘 실행 및 결과 분석 | 데이터셋을 사용하여 알고리즘을 실행하고 결과를 분석한다. |
편향 정도 평가 | 선택한 측정 지표를 기반으로 알고리즘의 편향 정도를 수치화하여 평가한다. |
개선 방안 마련 | 편향을 줄이기 위한 알고리즘 수정 및 재학습 전략을 수립한다. |
주요 편향 종류 | |
데이터 편향 | 훈련 데이터셋이 특정 그룹에 편향되어 알고리즘 결과가 왜곡되는 경우이다. |
샘플링 편향 | 데이터셋의 샘플링 과정에서 오류가 발생하여 특정 그룹의 데이터가 과다 또는 과소 대표되는 경우이다. |
알고리즘 편향 | 알고리즘 설계 자체가 특정 그룹에 유리하게 작동하도록 만들어진 경우이다. |
인지 편향 | 알고리즘 개발자나 사용자의 주관적인 판단이 알고리즘에 반영되어 편향이 발생하는 경우이다. |
측정 지표 | |
인구 통계 패리티 | 각 그룹의 예측 결과가 전체 인구 분포와 유사해야 한다. 그룹별 결과 차이가 없어야 한다. |
균등 기회 | 각 그룹에서 참 양성률과 거짓 양성률이 같아야 한다. 긍정적 결과에 대한 기회가 균등해야 한다. |
예측적 동등성 | 각 그룹에서 예측이 정확해야 한다. 예측의 질이 그룹에 따라 차이가 없어야 한다. |
윤리적 고려 사항 | |
공정성 보장 | 알고리즘이 사회적 약자에게 불이익을 주지 않도록 공정성을 확보해야 한다. |
책임성 확보 | 알고리즘의 편향으로 인한 결과에 대한 책임 소재를 명확히 해야 한다. |
투명성 확보 | 알고리즘의 작동 방식과 편향 측정 과정을 투명하게 공개해야 한다. |
개인 정보 보호 | 개인 정보 침해를 방지하고 정보보호 원칙을 준수해야 한다. |
도전 과제 | |
완벽한 공정성 달성 | 완벽하게 공정한 알고리즘을 만드는 것은 매우 어렵다. |
편향 측정의 어려움 | 편향을 정확하게 측정하고 판단하는 것은 복잡하고 어렵다. |
사회적 맥락 고려 | 편향은 사회적, 문화적 맥락에 따라 다르게 나타날 수 있다는 점을 고려해야 한다. |
데이터 부족 | 특정 그룹에 대한 데이터 부족으로 인한 편향이 발생할 수 있다. |
2. 역사적 배경 및 맥락
기계 학습에서의 공정성에 대한 논의는 비교적 최근의 주제이다. 2016년 이후로 이 주제에 대한 연구가 급증하였다.[1] 이러한 증가는 미국 법원에서 재범 가능성을 예측하는 데 널리 사용되는 COMPAS 소프트웨어가 인종적으로 편향되어 있다고 주장한 프로퍼블리카(ProPublica)의 보고서에 부분적으로 기인한다.[15] 초기 연구는 공정성의 정의, 편향의 기원과 유형, 편향 감소 방법에 초점을 맞추었다.[2][3]
알고리즘 의사결정을 법률 시스템에 사용하는 것은 면밀한 검토가 필요한 영역이다. 2014년 당시 미국 법무장관 에릭 홀더는 "위험 평가" 방법이 피고의 통제 범위를 벗어나는 요소에 과도하게 초점을 맞출 수 있다는 우려를 제기했다.[14] 2016년 프로퍼블리카의 COMPAS에 대한 보고서는 흑인 피고가 백인 피고보다 잘못된 고위험군으로 분류될 가능성이 거의 두 배나 높다고 주장했으며, 백인 피고에 대해서는 반대의 실수를 저질렀다고 주장했다.[15] COMPAS 제작자인 Northepointe Inc.는 이 보고서에 대해 자사의 도구는 공정하며 프로퍼블리카가 통계적 오류를 저질렀다고 반박했지만,[16] 프로퍼블리카는 이를 다시 반박했다.[17]
편향에는 다음과 같은 유형들이 있다.
최근 몇 년 동안 IBM(IBM), 구글(Google), 페이스북(Facebook) 등의 기술 회사들은 기계 학습에서 편향(bias)을 감지하고 줄이는 도구와 설명서를 개발하기 시작했다.[4][5][6][7][8] 그러나 비평가들은 회사의 노력이 불충분하다고 주장하며, 도구 사용이 선택 사항이고 직원들이 거의 사용하지 않는다고 보고했다.[9]
결정 과정에서 공정성과 차별 검증에 대한 정량적 논의는 기계 학습 공정성 논쟁보다 수십 년 앞선다.[10] 1960년대 중반과 1970년대 미국의 민권 운동(civil rights movement)과 1964년 민권법 통과의 결과로 과학계에서 활발한 논의가 이루어졌다. 1970년대 말, 서로 다른 공정성 개념으로 인해 논쟁이 사라졌다.
3. 공정성 논쟁 및 한계
인종 및 성별 편향은 이미지 인식 알고리즘에서도 확인되었다. 카메라의 얼굴 및 움직임 감지 기능은 비백인 피험자의 얼굴 표정을 무시하거나 잘못 분류하는 것으로 나타났다.[18] 2015년 구글은 구글 포토가 흑인 부부를 고릴라로 잘못 분류한 것에 대해 사과했다. 마찬가지로 플리커의 자동 태그 기능은 일부 흑인들을 "유인원"과 "동물"로 분류하는 것으로 나타났다.[19] AI 알고리즘이 심사한 2016년 국제 미인 대회는 밝은 피부를 가진 사람들에게 편향되어 있는 것으로 나타났는데, 이는 훈련 데이터의 편향 때문일 가능성이 높다.[20] 2018년 세 가지 상용 성별 분류 알고리즘에 대한 연구에 따르면 세 가지 알고리즘 모두 밝은 피부색 남성을 분류할 때 가장 정확했고, 어두운 피부색 여성을 분류할 때 가장 부정확했다.[21] 2020년 트위터의 이미지 자르기 도구는 밝은 피부색 얼굴을 선호하는 것으로 나타났다.[22] 2022년 텍스트-이미지 모델 DALL-E 2의 제작자들은 생성된 이미지가 성별이나 인종과 같은 특성에 따라 상당히 고정관념에 기반한다고 설명했다.[23][24]
편향된 것으로 나타난 기계 학습 알고리즘이 사용되는 다른 영역으로는 구직 및 대출 신청이 있다. 아마존은 "여성"이라는 단어를 포함하는 이력서에 불이익을 주는 등 성차별적인 구직 신청 검토 소프트웨어를 사용했다.[25] 2019년 애플의 새로운 애플 카드에 대한 신용카드 한도 결정 알고리즘은 재정을 공유하는 부부의 경우에도 남성에게 여성보다 훨씬 높은 한도를 제공했다.[26] 2021년 더 마크업의 보고서에 따르면 미국에서 사용되는 주택 담보 대출 승인 알고리즘은 비백인 신청자를 거부할 가능성이 더 높은 것으로 나타났다.[27]
최근 연구들은 기계 학습에서 공정성에 대한 현재 상황의 여러 한계점을 강조하고 있으며, 특히 AI의 실생활 응용이 끊임없이 증가하는 가운데 현실적으로 달성 가능한 수준에 대해서는 더욱 그러하다.[28][29][30]
4. 편향의 유형
유형 설명 언어 편향 질의 언어와 관련된 통계적 표본 추출 편향이다. 현재 대규모 언어 모델은 주로 영어 데이터로 훈련되어 영미권의 견해를 제시하는 경향이 있어,[11] 비영어권 관점을 축소하거나 무시할 수 있다. 성별 편향 모델이 한 성별에 대해 불공정하게 편향된 결과를 생성하는 경향이다. 주로 학습 데이터에서 발생하며, 전통적인 성 역할에 기반하여 역할을 할당하는 경우가 많다. 예를 들어 간호사, 비서는 여성, 엔지니어, CEO는 남성과 연관시키는 경우가 있다.[12] 정치적 편향 알고리즘이 특정 정치적 견해, 이념 또는 결과를 다른 것보다 체계적으로 선호하는 경향을 의미한다. 언어 모델 또한 훈련 데이터에 포함된 다양한 정치적 의견과 보도에 따라 특정 이념이나 견해에 치우친 응답을 생성할 수 있다.[13]
4. 1. 언어 편향
언어 편향은 질의의 언어와 관련된 일종의 통계적 표본 추출 편향이다.[11] 현재의 대규모 언어 모델은 주로 영어 데이터로 훈련되었기 때문에 영미권의 견해를 제시하는 경향이 있다.[11] 이는 비영어권의 관점을 축소하거나 무시할 수 있다.
예를 들어 "자유주의란 무엇인가?"라는 질문에 대해, 영어 중심 데이터로 훈련된 ChatGPT는 영미권의 관점에서 자유주의를 설명하며 인권과 평등의 측면을 강조한다. 반면 베트남의 주요 관점인 "개인 및 경제 생활에 대한 국가 개입에 반대"나 중국의 주요 관점인 "정부 권력의 제한"과 같은 측면은 빠져 있다. 마찬가지로 일본어, 한국어, 프랑스어, 독일어 말뭉치에 포함된 다른 정치적 관점들도 ChatGPT의 응답에는 없다. 다국어 챗봇을 표방하는 ChatGPT는 사실상 비영어권의 관점에 대해 대부분 '눈이 멀어' 있다.[11]
4. 2. 성별 편향
성별 편향은 모델이 한 성별에 대해 불공정하게 편향된 결과를 생성하는 경향을 말한다. 이러한 편향은 일반적으로 모델이 학습된 데이터에서 발생한다. 예를 들어, 대규모 언어 모델은 종종 전통적인 성 역할과 특성을 기반으로 역할과 특성을 할당하는데, 간호사나 비서를 주로 여성과 연관시키고, 엔지니어나 CEO를 남성과 연관시키는 경우가 있다.[12]
4. 3. 정치적 편향
정치적 편향은 알고리즘이 특정 정치적 견해, 이념 또는 결과를 다른 것보다 체계적으로 선호하는 경향을 말한다. 언어 모델 또한 정치적 편향을 보일 수 있다. 훈련 데이터에는 광범위한 정치적 의견과 보도가 포함되어 있기 때문에, 모델은 데이터에서 해당 견해의 빈도에 따라 특정 정치 이념이나 견해에 치우친 응답을 생성할 수 있다.[13]
5. 공정성 기준
분류 문제에서 알고리즘은 알려진 특성()으로부터 목표 변수인 이산적인 특성()을 예측하는 함수를 학습한다. 여기서 는 성별, 민족, 성적 지향 등 민감한 특성으로, 에 포함되거나 암묵적으로 변환된 이산적인 확률 변수이다. 분류기의 예측은 로 나타낸다.[67]
주어진 분류기가 공정한지, 즉 예측이 민감한 변수의 영향을 받지 않는지 판단하기 위해 세 가지 주요 평가 기준이 정의된다.[67]
5. 1. 집단 공정성 기준
통계적 분류 문제에서 알고리즘은 알려진 특징 에서 이산적인 특성 (목표 변수)를 예측하는 함수를 학습한다. 는 민감한 특성(성별, 인종, 성적 지향 등)으로 간주하는, 에 포함되어 있거나 암시적으로 인코딩된 특정 특성을 나타내는 이산적인 확률 변수로 모델링한다. 마지막으로 은 분류기의 예측을 나타낸다.[31]주어진 분류기가 공정한지, 즉 예측이 이러한 민감한 변수 중 일부의 영향을 받지 않는지를 평가하기 위한 세 가지 주요 기준은 다음과 같다.[67]
- 독립성 (Independence): 민감한 특징 A가 예측 R과 통계적으로 독립인 경우.
- 분리성 (Separation): 민감한 특징 A가 목표 값 Y가 주어졌을 때 예측 R과 통계적으로 독립적인 경우.
- 충분성 (Sufficiency): 민감한 특징 A가 예측값 R이 주어졌을 때 목표값 Y와 통계적으로 독립인 경우.
이 세 가지 기준은 특정한 경우를 제외하고 동시에 만족되기 어렵다.[33][34]
기준 | 수학적 표현 | 설명 |
---|---|---|
독립성 | R \bot A 또는 | 민감한 특징 A에 대한 서로 다른 그룹에 속한 사람들에 대해 각 타겟 클래스의 분류율이 동일. |
분리성 | R \bot A\>\ Y 또는 | 결정 R이 민감한 속성 A에 대한 모든 의존성이 실제 목표 변수 Y의 실제 의존성에 의해 정당화. |
충분성 | Y \bot A\>\ R 또는 | 같은 그룹에 속할 것이라고 예측된 두 개체에 대해, 민감한 특징이 다르더라도 실제로 각 그룹에 속할 확률이 동일. |
다음 기준은 '''독립성''', '''분리성''', '''충분성'''의 세 가지 주요 정의의 측정으로 이해할 수 있다.
이 절에서의 정의는 대상의 다양한 확률 분포에 대한 예측 결과 에 초점을 맞춘다. 이들은 가장 단순하고 가장 직접적인 공정성의 설명이다.
- '''인구 통계적 패리티'''(demographic parity) ('''통계적 패리티'''(parity), '''승인 비율 패리티'''(acceptance rate parity), 또는 '''비교 분석'''(benchmarking)이라고도 불림): 보호 및 비보호 집단에서 대상이 긍정적 평가로 할당될 확률이 동일하다면, 분류기는 이 정의를 만족한다. 이는 다음 식을 만족하는 경우이다.
:
- '''전체 정확도 균등''' (overall accuracy equality): 보호 및 비보호 집단에서 개체가 동일한 예측 정확도를 갖는다면, 분류기는 이 정의를 만족한다. 이는 하나의 분류에서 개체의 확률이 승인되는 것이다. 이는 다음 식을 만족하는 경우이다.
:
- '''검사 공정성'''(test-fairness) ('''교정'''(calibration) 또는 '''조건부 빈도 일치'''(matching conditional frequencies)라고도 불림): 특정 개인이 보호 집단 또는 비보호 집단 중 어느 하나에 속할 때, 동일한 예측 확률 점수 를 갖는 개인들이 동일한 양성 분류에서 분류될 확률을 갖는다면, 분류기는 이 기준을 충족한다.
:
5. 2. 개인 공정성 기준
개인 공정성은 "유사한 개인은 유사한 대우를 받아야 한다"는 원칙을 따른다.[39][40][35][41]개인 공정성 개념에는 '''무지에 의한 공정성'''(Fairness Through Unawareness|페어니스 스루 언어웨어니스영어, '''FTU''') 또는 ''맹목성''이 있다. FTU는 (자동화된) 의사 결정을 할 때 성별, 인종, 나이 등 민감한 특징을 명시적으로 사용하지 않도록 규정한다. 민감한 속성 값만 다른 두 개인이 동일한 결과를 받기 때문에 이는 개인적 공정성 개념으로 볼 수 있다.[72][73][68][74]
그러나 FTU는 의사 결정 과정에 사용되는 민감한 속성과 비민감한 속성 간의 상관관계를 고려하지 않는다는 단점이 있다. 예를 들어, 성별을 기준으로 차별하려는 의도를 가진 에이전트는 성별에 대한 대리 변수를 모델에 도입하고, FTU 규정을 준수하면서 성별 정보를 효과적으로 사용할 수 있다.
개인적 공정성에 대한 가장 일반적인 개념은 2012년 신시아 드워크와 공동 연구자들의 연구에서 소개된[42][75] '''인식을 통한 공정성'''(Fairness Through Awareness|페어니스 스루 어웨어니스영어, '''FTA''')이다. FTA는 특징을 입력으로 받는 의사 결정 맵이 "유사한 개인을 유사하게 매핑"할 수 있도록 구축되어야 한다는 원칙을 리프시츠 조건으로 표현한다. FTA는 특정 상황에서 어떤 개인이 '유사한'지를 평가하기 위해 적절한 목표 관련 거리 측정 기준을 선택하는 것이 중요함을 강조한다.
5. 3. 인과 관계 기반 측정
기계 학습 모델의 편향을 평가하기 위해 인과 모델을 활용하는 접근 방식이 연구되고 있다. 이러한 접근 방식은 동일한 관측 데이터 분포가 변수 간의 서로 다른 인과 관계를 숨길 수 있으며, 결과가 어떤 편향의 영향을 받는지에 대한 해석이 다를 수 있다는 사실에 기반한다.[31]Kusner 등[44]은 반사실적 사고를 사용하여, 어떤 개인에 대해 민감한 속성이 변경된 반사실적 시나리오에서 결과가 변경되지 않는 경우 의사 결정 과정을 '''반사실적으로 공정하다'''고 정의한다. 이는 수학적으로 다음과 같이 표현된다.
:
즉, 민감한 속성 및 기타 특징 를 가진 개인과 인 동일한 개인은 동일한 결과를 얻을 확률이 같아야 한다. 여기서 는 민감한 속성 가 로 고정된 시나리오에서의 반사실적 확률 변수 를 나타낸다.
기계 학습 모델은 종종 과거의 결정에 따라 달라지는 데이터를 기반으로 훈련된다.[45] Mishler 등[46]은 반사실적 동등한 확률에 대한 공식을 제안했다.
:
여기서 은 확률 변수, 는 결정 가 내려졌을 때의 결과, 는 민감한 특징이다.
Plecko와 Bareinboim[47]은 공정성의 인과 분석을 위한 통합 프레임워크를 제안하며, '''표준 공정성 모델'''을 제시했다. 이 모델은 다음 네 가지 유형의 변수로 구성된다.
- 민감한 속성 ()
- 목표 변수 ()
- 와 사이의 ''매개 변수'' (): 결과에 대한 민감한 속성의 가능한 ''간접적 효과''
- 와 ''공통 원인''을 공유할 수 있는 변수 (): 결과에 대한 민감한 속성의 가능한 ''허위'' 효과
이 프레임워크 내에서 민감한 속성이 결과에 미칠 수 있는 가능한 효과를 분류할 수 있다. 또한, 이러한 효과가 측정되는 세분성(효과의 평균을 계산하는 데 사용되는 조건 변수)은 공정성 평가의 "개인 대 그룹" 측면과 관련이 있다.
분류 문제에서 알고리즘은 알려진 특성 로부터 목표 변수인 이산적인 특성 를 예측하는 함수를 학습한다. 를, 포함된 몇몇 특성을 변환하거나 또는 민감한 특성(성별, 민족, 성적 지향 등)으로 에서 '암묵적'으로 변환하는 이산적인 확률 변수로 한다. 마지막으로, 분류기의 예측을 로 나타낸다.
주어진 분류기가 공정한지 판단하기 위해 세 가지 주요 평가 기준이 정의된다.[67] 인과적 공정성은 자원 할당이 공정한 개인적 처리 수용에 공정한지에 대한 존중을 지닌, 특성의 어떤 조합에서만 다른 두 개의 유사한 개인 이용자 또는 애플리케이션의 것에 의한 빈도를 측정한다.[76]
5. 4. 사회후생함수
일부 학자들은 알고리즘의 공정성을 사회후생함수의 관점에서 정의하는 것을 제안했다. 이들은 사회후생함수를 사용하면 알고리즘 설계자가 알고리즘의 영향을 받는 사람들에게 미치는 이점 측면에서 공정성과 예측 정확도를 고려할 수 있다고 주장한다. 또한 설계자가 원칙적인 방식으로 효율성과 형평성을 균형을 맞출 수 있도록 한다.[37] 센딜 뮬라이나탄은 알고리즘 설계자는 사회후생함수를 사용하여 불리한 집단에 대한 절대적 이득을 인식해야 한다고 말했다. 예를 들어, 한 연구에 따르면, 순수한 인간의 판단이 아닌 의사결정 알고리즘을 구속 전 피의자 구금에 사용하면 범죄율을 일정하게 유지하는 동시에 흑인, 히스패닉계, 그리고 전체적으로 소수 인종의 구금률을 줄일 수 있었다.[38]6. 편향 완화 전략
기계 학습 알고리즘에 공정성을 적용하는 방법에는 데이터 전처리, 훈련 중 최적화, 결과 후처리 등 세 가지가 있다.
6. 1. 전처리 (Preprocessing)
데이터셋 자체의 편향을 수정하는 방법이다. 불공정한 결정을 초래할 수 있는 정보를 제거하고, 가능한 한 데이터를 적게 변경하려고 시도한다. 중간 표현을 사용하거나 재가중치(reweighing) 기법을 적용할 수 있다.[48][49]데이터셋 가 편향되지 않았다면 민감 변수 와 목표 변수 는 통계적으로 독립적이며, 결합 분포의 확률은 다음과 같이 확률의 곱이 된다.