맨위로가기

인공지능윤리

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

인공지능 윤리(AI 윤리)는 '사고하는 기계'의 윤리적, 도덕적 문제에 대한 논의를 다룬다. 계몽주의 시대부터 시작된 이 논의는 낭만주의 시대를 거치며 인공 생명체에 대한 이야기로 이어졌고, 1950년대에는 아이작 아시모프가 로봇 3원칙을 제시하며 본격적인 윤리적 고민을 시작했다. AI 윤리의 주요 원칙으로는 투명성, 공정성, 무해성 등이 있으며, 유럽연합, OECD 등 국제기구에서 AI 규제를 위한 법적 체계를 구축하고 있다. 현재 AI 윤리는 알고리즘 편향, 거대 기술 기업의 지배, 투명성 부족, 책임 소재 불분명, 규제 부족 등 여러 과제에 직면해 있으며, AI의 무기화, 로봇 권리, 인간 존엄성 위협 등 미래의 잠재적 문제에 대한 논의도 활발히 진행되고 있다. 이러한 문제 해결을 위해 AI 모델의 윤리적 지침 통합, 관련 기관들의 노력, 정부 규제 등이 시도되고 있다.

더 읽어볼만한 페이지

  • 과학기술 윤리 - 반핵 운동
    반핵 운동은 핵무기 개발, 생산, 사용, 그리고 원자력 에너지의 위험성에 대한 우려를 바탕으로 하는 국제적인 사회 운동으로, 핵무기 폐기, 원자력 발전의 위험성을 알리고, 기후변화 대응과 에너지 안보 문제를 논의하는 과정에서 다양한 논쟁이 발생하고 있다.
  • 과학기술 윤리 - 차량 자동화
    차량 자동화는 운전 지원 시스템부터 완전 자율 주행까지 자동화 기술을 차량 운행 및 제어에 적용하는 것으로, 센서 융합, 머신 러닝, 고해상도 지도 등을 활용하여 주변 환경을 인식하고 의사 결정을 하지만, 기술적, 사회적, 규제적 과제와 안전 및 윤리 문제 해결이 필요하다.
  • 컴퓨터 과학에 관한 - 친절한 인공지능
    친절한 인공지능은 사용자에게 친절하고 공감적인 방식으로 상호 작용하며 긍정적이고 효과적인 사용자 경험을 제공하는 것을 목표로 하는 인공지능 기술의 한 분야이다.
  • 컴퓨터 과학에 관한 - AI 붐
    AI 붐은 2010년대 중후반부터 딥 러닝, 생성형 AI 등 인공지능 기술의 급격한 발전과 알파고-이세돌 대국, 알파폴드, 챗GPT 등의 등장으로 사회 전반에 큰 영향을 미치며 나타난 현상으로, 기술 패권 경쟁, 경제·사회적 변화, 그리고 다양한 우려 사항을 야기하고 있다.
  • 인공지능철학 - 친절한 인공지능
    친절한 인공지능은 사용자에게 친절하고 공감적인 방식으로 상호 작용하며 긍정적이고 효과적인 사용자 경험을 제공하는 것을 목표로 하는 인공지능 기술의 한 분야이다.
  • 인공지능철학 - 환각 (인공지능)
    인공지능 환각은 인공지능이 사실이 아닌 정보를 사실처럼 생성하는 현상으로, 대규모 언어 모델의 부정확한 정보 생성 문제를 설명하기 위해 사용되며, 데이터 불일치, 모델 오류, 훈련 데이터 부족 등이 원인으로 발생하여 다양한 완화 기술이 연구되고 있다.
인공지능윤리
인공지능 윤리
인공지능 아이콘
인공지능 아이콘
주요 목표
주요 목표지식 추론
계획
기계 학습
자연어 처리
컴퓨터 비전
로봇공학
인공 일반 지능
접근 방식
접근 방식심볼릭
딥 러닝
베이즈 네트워크
진화 알고리즘
철학
철학윤리
실존적 위험
튜링 테스트
중국어 방
통제 문제
친절한 AI
역사
역사연표
진행상황
AI 겨울
기술
기술애플리케이션
프로젝트
프로그래밍 언어
용어
용어용어
기술 윤리
관련 분야기술 윤리
기계 윤리
관련 분야기계 윤리
참고 문헌
참고 문헌빈센트 C. 뮐러, 인공지능과 로봇공학의 윤리, 스탠포드 철학 백과사전

2. 역사적 배경

기계 윤리에 대한 논의는 적어도 계몽주의 시대까지 거슬러 올라간다. 고트프리트 빌헬름 라이프니츠는 지각 있는 존재처럼 행동하는 기계에 지능을 부여할 수 있는지에 대한 질문을 제기했으며, 르네 데카르트튜링 테스트의 초기 버전을 설명하기도 했다.[176] [177]

낭만주의 시대에는 창조주의 통제를 벗어나 심각한 결과를 초래하는 인공 생명체에 대한 이야기가 많이 등장했다. 가장 대표적인 예는 메리 셸리의 소설 프랑켄슈타인이다. 19세기와 20세기 초, 산업화와 기계화에 대한 관심이 높아지면서 걷잡을 수 없는 기술 발전의 윤리적 문제는 소설의 주요 소재가 되었다. 감정을 가진 로봇을 노예 노동으로 이용하는 내용을 담은 카렐 차페크의 희곡 『R.U.R. – 로섬의 만능 로봇』은 '로봇'이라는 용어(체코어 강제 노동 'robota'에서 유래)를 대중화시켰을 뿐만 아니라, 1921년 초연 이후 국제적으로 큰 성공을 거두었다. 1921년에 출판된 버나드 쇼의 희곡 메튜셀라에게로는 인간처럼 행동하는 사고 기계의 타당성에 의문을 제기한다. 프리츠 랑의 1927년 영화 메트로폴리스안드로이드기술관료적 사회의 억압적인 체제에 맞서 착취당하는 대중의 봉기를 이끄는 모습을 보여준다.

1950년대에 아이작 아시모프는 나는 로봇이다에서 기계를 통제하는 방법에 대한 문제를 다루었다. 그는 편집자 존 W. 캠벨 주니어의 제안에 따라 인공 지능 시스템을 관리하기 위한 로봇 3원칙을 제시했다. 아시모프의 작품 대부분은 이 세 가지 법칙의 경계를 시험하여 법칙이 붕괴되거나 역설적이고 예상치 못한 행동을 유발하는 지점을 확인하는 데 초점을 맞췄다.[178] 그의 작품은 어떤 고정된 법칙도 모든 가능한 상황을 충분히 예측할 수 없음을 시사한다.[179] 최근 학계와 많은 정부는 AI 자체가 책임을 질 수 있다는 생각에 이의를 제기해왔다.[180] 2010년 영국에서 소집된 패널은 아시모프의 법칙을 수정하여 AI는 제조업체 또는 소유자/운영자의 책임임을 명확히 했다.[181]

3. 주요 윤리 원칙

84개의 AI 윤리 가이드라인을 검토한 결과, 투명성, 정의 및 공정성, 무해성, 책임, 프라이버시, 선행, 자유와 자율성, 신뢰, 지속가능성, 존엄성, 연대라는 11가지 주요 원칙이 발견되었다.[16]

루치아노 플로리디와 조쉬 카울스는 생명윤리의 4가지 원칙(선행, 비해악, 자율성, 정의)에 더해, AI 활용에 있어 설명 가능성이라는 추가적인 원칙을 포함한 AI 윤리 프레임워크를 제시했다.[17]

4. 현재 당면 과제

인공지능(AI) 기술은 빠르게 발전하고 있지만, 다음과 같은 여러 윤리적 문제에 직면해 있다.


  • 알고리즘 편향: AI 시스템은 훈련 데이터나 개발자의 편향으로 인해 특정 집단에 불리한 결과를 초래할 수 있다. 얼굴 인식 시스템이 특정 인종을 제대로 인식하지 못하거나, AI 채용 시스템이 특정 성별을 차별하는 경우가 그 예시이다.[18][19][20][21]
  • 언어 및 성별 편향: 대규모 언어 모델은 앵글로색슨계 미국인의 관점을 우선시하거나, 성 고정관념을 강화하는 경향이 있다.[47][48][49][50]
  • 고정관념: AI 모델은 연령, 국적, 종교, 직업 등 다양한 고정관념을 강화하여 특정 집단을 희화화하거나 불공정하게 일반화할 수 있다.[53]
  • 거대 기술 기업의 지배: 알파벳, 아마존, 애플, 메타, 마이크로소프트와 같은 빅테크 기업들이 상업용 AI 시장을 지배하고 있어, 시장 경쟁을 저해하고 다양성을 감소시킬 우려가 있다.[54][55][56]
  • 투명성 부족: 인공 신경망을 이용한 기계 학습은 개발자도 설명하기 어려운 결정을 내릴 수 있어, AI 시스템의 공정성과 신뢰성을 판단하기 어렵게 만든다. 이 때문에 설명 가능한 인공 지능(XAI)에 대한 요구가 높아지고 있다.[68]
  • 책임 소재 불분명: AI의 불투명성은 AI 시스템으로 인해 발생한 비윤리적인 결과에 대한 책임을 묻기 어렵게 만들 수 있다.[68]
  • 규제 부족: AI 기술 발전 속도에 비해 관련 규제 마련이 더뎌, AI 기술의 오용 및 남용 가능성이 높아지고 있다.[64] OECD, UN, EU 등 국제기구와 여러 국가에서 AI 규제 마련을 위해 노력하고 있지만, 아직 충분한 수준은 아니다.[74][75][76]

4. 1. 알고리즘 편향

카멀라 해리스가 2020년 인공지능의 인종적 편향에 대해 연설하는 모습


인공지능(AI)은 얼굴 인식 시스템음성 인식 시스템과 같이 사람들에게 직접적인 영향을 미치는 분야에서 점점 더 중요한 역할을 하고 있다. 그러나 이러한 시스템은 개발자의 편향이나 오류, 훈련 데이터 자체의 편향에 취약하다.[18][19][20][21]

일례로, Microsoft, IBM 및 Face++가 만든 얼굴 인식 시스템 알고리즘은 사람의 성별을 감지하는 데 편향이 있어, 백인 남성의 성별을 어두운 피부색을 가진 남성보다 더 정확하게 감지했다.[22] 2020년 연구에서는 아마존, 애플, 구글, IBM 및 마이크로소프트의 음성 인식 시스템이 백인보다 흑인의 음성을 옮겨 적을 때 오류율이 더 높았다.[23]

AI 시스템에 편향이 도입되는 주된 원인은 시스템 훈련에 사용되는 기존 데이터의 편향 때문이다.[24] 아마존은 알고리즘이 여성 지원자보다 남성 지원자를 선호했기 때문에 AI 채용 사용을 중단했는데, 이는 아마존의 시스템이 대부분 남성 지원자를 포함하는 10년 동안 수집된 데이터로 훈련되었기 때문이다.[25]

프리드먼과 니센바움은 컴퓨터 시스템의 편향을 기존 편향, 기술적 편향, 새로운 편향으로 구분한다.[26] 자연어 처리에서는 알고리즘이 서로 다른 단어 간의 관계를 학습하는 데 사용하는 텍스트 코퍼스에서 문제가 발생할 수 있다.[27]

IBM, Google 등은 이러한 편향을 연구하고 해결하기 위해 노력해 왔다.[28][29][30][31] 편향 해결책 중 하나는 AI 시스템 훈련 데이터 문서를 만드는 것이다.[36][33] 프로세스 마이닝은 조직이 AI 규정 준수에 기여할 수 있다.[34]

AI는 채용 프로세스에도 통합되고 있는데, 백인 이름을 가진 지원자를 선호하거나 여성 대학 출신을 배제하는 경향이 있다.[40] 얼굴 인식은 피부색이 어두운 사람들에게 편향된 것으로 나타났으며, AI 기반 맥박 산소 측정기가 흑인 환자의 혈중 산소 수치를 과대 평가한 사례도 있다.[41]

'무슬림'이라는 단어는 다른 종교보다 폭력과 더 많이 연관되는 것으로 나타났으며, 얼굴 인식 시스템은 흑인의 얼굴을 인식하지 못하는 경우가 많아 일부 미국 주에서는 경찰의 AI 자료 사용이 금지되기도 했다. AI는 인종 모욕을 판단하고 검열하는 데 어려움을 겪는다.[42]

이러한 편향은 AI가 인터넷에서 정보를 가져와 응답에 영향을 미치기 때문에 발생한다. 편향을 막기 위한 단일 해결책은 없지만, 데이터 과학자, 윤리학자 등이 AI의 편향 문제를 개선하는 데 참여할 수 있다. [43]

의료 시스템 내에서 AI 사용의 불의는 제거하기 더 어려운데, 질병과 질환이 다른 인종과 성별에 다르게 영향을 미칠 수 있기 때문이다. 유방암과 같은 질병에 대한 특정 검사는 특정 그룹에게 권장되는데, AI가 이러한 통계를 구현하면 편향된 것으로 간주될 수 있다.[44][45]

AI가 편향된 것으로 판명된 예로는 COMPAS가 흑인에 대해 더 높은 위험 값을 예측한 경우와 Google의 광고가 고임금 직업을 가진 남성과 저임금 직업을 가진 여성을 대상으로 한 경우가 있다.[46]

4. 1. 1. 언어 편향

현재 대부분의 대규모 언어 모델은 영어 데이터로 훈련되어, 앵글로색슨계 미국인의 관점을 우선시하는 경향이 있다.[47] 이는 비영어권 관점을 제대로 반영하지 못하고, 다양한 문화적 배경을 가진 사용자의 요구를 충족시키지 못하며, 편향된 정보를 제공할 수 있다는 문제점을 야기한다.

Luo 등의 연구에 따르면, "자유주의란 무엇인가?"와 같은 정치 이념에 대한 질문을 했을 때, 영어 중심 데이터로 훈련된 챗GPT는 인권과 평등이라는 측면을 강조하며 앵글로색슨계 미국인의 관점에서 자유주의를 설명한다.[47] 하지만 베트남에서 지배적인 "개인 및 경제 생활에 대한 국가 개입에 반대"하는 관점이나, 중국에서 널리 퍼진 "정부 권력의 제한"과 같은 동등하게 타당한 다른 관점은 제대로 다루지 않는다.[47]

4. 1. 2. 성별 편향

대규모 언어 모델은 종종 성 고정관념을 강화하여 전통적인 성 역할 규범에 따라 역할과 특성을 할당한다. 예를 들어, 간호사나 비서를 주로 여성과 연결하고, 엔지니어나 CEO를 남성과 연결하여 성차별적인 기대와 역할을 영속화할 수 있다.[48][49][50]

4. 1. 3. 정치적 편향

언어 모델은 훈련 데이터에 포함된 정치적 의견과 보도의 빈도에 따라 특정 정치 이념이나 관점에 치우친 응답을 생성할 수 있다.[51][52] 예를 들어, 더불어민주당과 관련된 인물이나 사건에 대해서는 우호적으로, 국민의힘과 관련된 경우에는 비판적으로 서술하는 경향이 나타날 수 있다.

4. 1. 4. 고정관념



얼굴 인식 시스템음성 인식 시스템 등에는 AI가 활용되고 있다. 이러한 시스템은 실제 업무에 사용되어 사람들에게 직접적인 영향을 미치기도 한다. 그러나 이러한 시스템은 제조자인 인간에 의해 발생하는 편향(偏り, 편견)이나 오류(誤り)에 취약하다. 또한, AI 시스템을 훈련하는 데 사용되는 데이터 자체에 편향이 포함되어 있을 가능성도 있다.[233][234][235][236]

AI 모델은 성별과 인종 외에도 연령, 국적, 종교, 직업 등 다양한 고정관념을 강화할 수 있다. 이는 때로는 유해하거나 경멸적인 방식으로 특정 집단을 불공정하게 일반화하거나 희화화하는 결과를 초래할 수 있다.[53] 예를 들어, 마이크로소프트, IBM, Face++의 얼굴 인식 알고리즘은 모두 사람의 성별을 식별하는 데 편향이 있었으며,[237] 백인 남성의 성별을 피부색이 진한 남성보다 더 정확하게 탐지했다. 2020년 연구에 따르면, 아마존, 애플, 구글, IBM, 마이크로소프트의 음성 인식 시스템은 백인의 목소리보다 흑인의 목소리를 기록할 때 오류율이 더 높았다.[238] 아마존은 알고리즘이 여성보다 남성 지원자를 선호하여 AI를 활용한 채용을 중단하기도 했는데, 이는 아마존의 시스템이 10년 이상 수집된, 주로 남성 지원자의 데이터로 훈련되었기 때문이다.[239]

AI 시스템에 편향이 들어가는 가장 유력한 경로는 시스템 훈련에 사용되는 과거 데이터에 편향이 내재된 경우이다. 예를 들어, 아마존의 AI 기반 채용 도구는 수년간 축적된 자체 채용 데이터로 훈련되었는데, 그동안 성공적으로 채용된 지원자 대부분이 백인 남성이었다. 그 결과 알고리즘은 과거 데이터에서 편향된 패턴을 학습하고, 이러한 유형의 지원자가 채용될 가능성이 높다고 예측했다. 따라서 AI 시스템에 의한 채용 판단이 여성이나 소수자 지원자에게 편향되어 있다는 것이 밝혀졌다. 프리드먼과 니센바움은 컴퓨터 시스템에서의 편향을 기존 편향(existing bias), 기술적 편향(technical bias), 창발적 편향(emergent bias)의 세 가지로 분류했다.[240] 자연어 처리에서는 알고리즘이 서로 다른 단어 간의 관계를 학습하는 데 사용하는 텍스트 코퍼스에 문제가 발생할 수 있다.[241]

IBM이나 구글과 같은 대기업은 이러한 편향을 연구하고 해결하기 위해 노력해왔다.[242][243][244] 편향에 대처하기 위한 한 가지 해결책은 AI 시스템 훈련에 사용하는 데이터를 문서화하는 것이다.[245][246] 프로세스 마이닝은 오류 식별, 프로세스 모니터링, 부적절한 실행의 잠재적 근본 원인 파악 등의 기능을 통해 조직이 AI 규제 제안 준수를 달성하기 위한 중요한 도구가 될 수 있다.[247]

기계 학습에서 편향 문제는 이 기술이 의료, 법률 등 중요한 분야에 보급되고, 심오한 기술적 이해 없이 많은 사람들이 도입을 맡게 됨에 따라 더욱 중요해질 수 있다. 일부 전문가들은 알고리즘에 의한 편향이 이미 많은 산업에 만연해 있으며, 이를 식별하고 수정하려는 노력은 거의 없다고 경고한다.[248] 편향된 AI에 대한 인식을 높이기 위한 시민 단체의 오픈 소스 도구도 등장하고 있다.[249]

4. 2. 거대 기술 기업의 지배

상업용 인공지능 분야는 알파벳, 아마존, 애플, 메타, 마이크로소프트와 같은 빅테크 기업들이 지배하고 있다.[54][55][56] 이들 중 일부는 이미 기존 클라우드 인프라컴퓨팅 역량을 데이터센터를 통해 소유하고 있어 시장에서 더욱 확고한 지위를 확보하고 있다.[57][58]

4. 3. 투명성 부족

인공 신경망을 이용한 기계 학습과 같은 접근 방식은 컴퓨터가 자신이나 개발자도 설명할 수 없는 결정을 내리게 할 수 있다.[68] 이러한 결정이 공정하고 신뢰할 수 있는지 사람들이 판단하기 어렵기 때문에 AI 시스템의 편향이 감지되지 않거나, 사용자들이 시스템 사용을 거부하게 될 수 있다. 이 때문에 설명 가능한 인공 지능(XAI)에 대한 요구가 높아지고 있으며, 일부 국가에서는 법적 요구 사항으로 규정하고 있다.[68]

4. 4. 책임 소재 불분명

AI의 불투명성은 AI가 인간과 같은 특성을 가진다고 가정하여 도덕적 책임을 회피하는 결과를 초래할 수 있다. 이는 AI 시스템으로 인해 발생한 비윤리적인 결과에 대한 책임을 인간에게 묻기 어렵게 만들 수 있다. EU의 AI 법과 같은 최근의 디지털 거버넌스 규정은 일반적인 제품 책임에서 기대할 수 있는 것만큼 최소한의 주의를 기울여 AI 시스템을 다루도록 함으로써 이를 바로잡기 위해 마련되었다. 여기에는 잠재적으로 AI 감사가 포함된다.[68]

4. 5. 규제 부족

AI 기술은 빠르게 발전하고 있지만, 관련 규제 마련은 더디게 진행되어 AI 기술의 오용 및 남용 가능성을 높이고 있다.[64] 옥스퍼드 대학교의 보고서에 따르면, 미국인의 82%가 AI 기술에 대한 규제가 필요하다고 생각한다.[71]

이러한 우려에는 감시, 온라인 가짜 콘텐츠 유포(딥페이크), 사이버 공격, 데이터 프라이버시 침해, 채용 편향, 자율주행차, 무인 드론 등이 포함된다.[71] 퀸즐랜드 대학교와 KPMG가 2021년에 실시한 연구에 따르면, 여러 국가의 시민 66~79%가 인공지능의 사회적 영향이 불확실하고 예측 불가능하다고 생각하며, 조사 대상의 96%가 인공지능 거버넌스 과제를 신중하게 관리해야 한다고 생각한다.[72]

많은 연구자와 시민 옹호가들은 기업뿐만 아니라 정부 규제를 통해 투명성을 확보하고, 이를 통해 인간의 책임성을 보장해야 한다고 주장한다. 그러나 일부에서는 규제가 혁신 속도를 늦출 것이라고 우려하는 반면, 다른 이들은 규제가 장기적으로 혁신을 지원하는 체계적인 안정성으로 이어진다고 주장한다.[73]

OECD, UN, EU 등 국제기구와 여러 국가에서 AI 규제 전략과 법적 프레임워크 마련을 위해 노력하고 있다.[74][75][76] 2019년 6월, 유럽 집행위원회 인공지능 고위 전문가 그룹(AI HLEG)은 "신뢰할 수 있는 인공지능을 위한 정책 및 투자 권고안"을 발표했다.[77] 유럽 집행위원회는 EU가 국제적으로 AI를 규율하는 정책의 틀을 제정하는 데 앞장설 것이라고 밝혔다.[79] 2021년 4월, 유럽 집행위원회는 인공지능법(Artificial Intelligence Act)을 제안했다.[81]

5. 미래의 잠재적 도전 과제

인공지능 기술의 발전은 여러 분야에서 새로운 도전 과제를 제기하고 있다.


  • AI 활용 증가: COVID-19(코로나바이러스감염증-19) 팬데믹 이후, 기업들은 챗봇, 생성형 인공지능 등을 활용하여 채용, 고객 관리, 분석 처리 및 의사 결정 과정을 자동화하고 있다. 텐서 처리 장치(TPU)와 그래픽 처리 장치(GPU)의 발전은 이러한 추세를 가속화하고 있다.[42] 의료 분야에서도 인공지능은 임상 의사결정 지원 시스템(DSS)으로 활용되어 환자 데이터를 분석하고 예측하지만, 불평등을 야기할 가능성도 존재한다.[82]
  • 로봇 권리: 인권, 동물 권리와 유사하게 로봇에게도 도덕적 의무를 부여해야 한다는 개념이다.[83] 로봇의 존재와 임무 수행 권리, 저작권 소유권 문제 등이 논의되고 있다.[84][85] 2017년 사우디아라비아에서 안드로이드 로봇 소피아에게 시민권을 부여한 사건은 논란을 일으켰다.[88]
  • AI 복지: AI 시스템이 의식을 갖게 될 가능성과 관련된 윤리적 문제이다.[91] 일부 연구자들은 의식 있는 AI 개발의 위험성을 경고하며 연구 중단을 촉구하기도 한다.[91] 토마스 메칭거(Thomas Metzinger)는 "인공 고통의 폭발" 위험성을 경고하며 연구 중단을 제안했다.[91]
  • 인간 존엄성 위협: 조지프 와이젠바움은 1976년에 인공지능이 존중과 배려가 필요한 직업(예: 고객 서비스, 간병인, 군인, 판사, 경찰관, 치료사)을 대체해서는 안 된다고 주장했다.[100] 그는 인공지능이 공감을 시뮬레이션할 수 없기 때문에 인간 소외, 가치 하락, 좌절감을 유발할 수 있다고 경고했다.[98]
  • 자율주행차 책임: 자율주행차 사고 발생 시 책임 소재를 명확히 하는 문제이다.[102][103] 2018년 애리조나주에서 발생한 우버 자율주행차 사망 사고는 이 문제에 대한 논쟁을 불러일으켰다.[107]
  • 무기화: 군사 전투에 로봇, 특히 자율성을 가진 로봇을 사용하는 것에 대한 우려이다.[113] 미국 국방부는 인공지능의 윤리적 사용 원칙을 권고하는 보고서를 발표했지만, 이행 방법에 대한 우려가 남아있다.[116] 스티븐 호킹, 맥스 테그마크 등은 AI 무기 금지 서명에 참여하며 위험성을 경고했다.[123][124]
  • 특이점: 컴퓨터가 인간보다 똑똑해지는 순간, 즉 "특이점" 이후 인류의 운명에 대한 논의이다.[129] 지능 폭발을 통해 자기 개선형 AI가 너무 강력해져 인간이 통제할 수 없게 될 것이라는 우려가 제기되고 있다.[130] 닉 보스트롬은 인공 초지능이 인류 멸종을 초래할 수 있다고 주장했지만, 동시에 초지능이 어려운 문제를 해결하고 인간 향상에 도움이 될 수 있다고도 보았다.[131][132][133]

5. 1. AI 활용 증가

인공지능(AI)은 챗봇부터 생성형 인공지능까지 전 세계적으로 그 존재감을 알리고 있다. 인공지능은 특정 구직자를 대상으로 하는 광고, 잠재적 채용 후보자들의 지원서 검토 등 채용 시장에서 점점 더 인기를 얻고 있다. COVID-19(코로나바이러스감염증-19)와 같은 사건으로 온라인 지원자가 증가하면서 채용 과정에서 인공지능 프로그램 도입이 가속화되었다. 기업들은 분석 처리 및 의사 결정에 인공지능을 활용하고 있으며, 텐서 처리 장치(TPU)(Tensor Processing Unit)와 그래픽 처리 장치(GPU)(Graphics processing unit)의 발전으로 인공지능의 기능도 향상되어 기업 경쟁력 유지를 위해 활용이 늘고 있다. 고객 요구 관리와 직장 자동화를 통해 기업은 직원 비용을 절감할 수 있다.[42]

인공지능은 형사 사법 및 의료 분야에서도 사용이 증가하고 있다. 의료 분야에서 인공지능은 환자 데이터를 분석하여 미래 환자의 상태와 가능한 치료법을 예측하는 임상 의사결정 지원 시스템(DSS)(Clinical decision support system)으로 활용된다. 그러나 특정 환자를 우선시하는 등 불평등을 야기할 가능성도 존재한다.[82]

5. 2. 로봇 권리

"로봇 권리"는 인간이 자신의 기계에 대해, 마치 인권이나 동물 권리와 유사하게, 도덕적 의무를 가져야 한다는 개념이다.[83] 로봇에게 존재하고 자신의 임무를 수행할 권리를 부여해야 한다는 주장이 제기되고 있으며, 이는 인류에게 봉사할 로봇의 의무와 연결될 수 있다.[84] 로봇 권리에 대해 고려해야 할 구체적인 문제는 저작권 소유권을 주장할 수 있는지 여부이다.[85] 이 문제는 미래 연구소(Institute for the Future)[86]와 영국 무역산업부[87]에서 고려되었다.

2017년 10월, 안드로이드 로봇인 소피아에게 사우디아라비아에서 시민권을 부여했지만, 일각에서는 이를 의미 있는 법적 인정이라기보다는 홍보성 쇼로 간주했다.[88] 어떤 사람들은 이러한 행위가 인권과 법치를 공공연히 훼손하는 것이라고 보았다.[89]

감정론(sentientism) 철학은 모든 감각 있는 존재, 주로 인간과 대부분의 비인간 동물에게 다양한 정도의 도덕적 고려를 부여한다. 만약 인공 지능이나 외계 지능이 감각이 있음을 보여준다면, 이 철학은 그들에게 연민을 보여주고 권리를 부여해야 한다고 주장한다.

조앤나 브라이슨(Joanna Bryson)은 권리가 필요한 AI를 만드는 것은 피할 수 있고, AI 에이전트와 인간 사회 모두에게 부담이 되므로 비윤리적이라고 주장했다.[90]

5. 3. AI 복지

AI 시스템이 의식을 갖게 될 가능성에 대한 논의가 진행 중이며, 이는 AI의 고통 가능성과 관련된 윤리적 문제를 제기한다.[91] 일부 연구자들은 의식 있는 AI를 만드는 것에 대한 위험성을 경고하며, 관련 연구 중단을 촉구하기도 한다.[91] 2018년 토마스 메칭거(Thomas Metzinger)는 의식적인 AI를 만들 위험이 있는 추가 연구에 대한 전 세계적 중단을 촉구했다. 이 중단은 2050년까지 지속되며, 위험과 위험 완화 방법에 대한 이해가 더욱 발전함에 따라 연장되거나 조기에 폐지될 수 있다. 메칭거는 2021년에도 이 주장을 반복하며, AI가 인간이 이해할 수 없는 강렬한 방식으로 고통을 겪을 수 있고, 복제 과정을 통해 엄청난 수의 의식적인 개체가 생성될 수 있다는 점에서 "인공 고통의 폭발"의 위험성을 강조했다.

몇몇 연구소들은 의식적인 AI를 만들려고 한다고 공개적으로 밝혔다. 자아 인식을 목표로 하지 않은 AI에 접근 권한이 있는 사람들로부터 의식이 이미 의도치 않게 출현했을 수 있다는 보고가 있었다.[91] 2022년 2월, 오픈AI(OpenAI)의 설립자 일리야 수츠케버(Ilya Sutskever)는 오늘날의 대규모 신경망이 "약간 의식이 있을 수 있다"고 언급했다. 2022년 11월, 데이비드 차머스(David Chalmers)는 GPT-3과 같은 현재의 대규모 언어 모델이 의식을 경험했을 가능성은 낮지만, 대규모 언어 모델이 미래에 의식을 갖게 될 가능성이 심각하다고 생각한다고 주장했다.[92][93][94] 불확실한 감정 존재의 윤리(ethics of uncertain sentience)에서는 예방 원칙(precautionary principle)이 자주 언급된다.[95]

5. 4. 인간 존엄성 위협

조지프 와이젠바움[100]은 1976년에 인공지능 기술이 존중과 배려를 필요로 하는 직책을 맡은 사람들을 대체하는 데 사용되어서는 안 된다고 주장했다. 그가 예시로 든 직업은 다음과 같다:

  • 고객 서비스 담당자 (AI 기술은 이미 오늘날 전화 기반 대화형 음성 응답 시스템에 사용되고 있음)
  • 노인 간병인 (파멜라 맥코덕의 저서 ''제5세대''에서 보고된 바와 같이)
  • 군인
  • 판사
  • 경찰관
  • 치료사 (케네스 콜비가 70년대에 제안한 바와 같이)


와이젠바움은 이러한 직책들은 진정한 공감을 필요로 한다고 설명했다. 만약 기계가 그들을 대체한다면, 인공 지능 시스템은 공감을 시뮬레이션할 수 없기 때문에 우리는 소외되고, 가치를 떨어뜨리고, 좌절감을 느낄 것이다. 이러한 방식으로 사용되는 인공 지능은 인간의 존엄성에 대한 위협을 나타낸다. 와이젠바움은 우리가 이러한 직책에 기계를 배치할 가능성을 고려하고 있다는 사실 자체가 우리가 "자신을 컴퓨터로 생각함으로써 오는 인간 정신의 위축"을 경험했다는 것을 시사한다고 주장했다.[98]

파멜라 맥코덕은 여성과 소수 민족을 대표하여 "나는 공정한 컴퓨터에 기대어 보는 편이 낫다"고 반박하며, 개인적인 의도가 전혀 없는 자동화된 판사와 경찰을 선호하는 상황이 있다는 점을 지적했다.[98] 그러나 카플란과 하인라인은 AI 시스템은 본질적으로 정교한 곡선 적합 기계일 뿐이기 때문에 훈련에 사용되는 데이터만큼만 똑똑하다는 점을 강조한다. 과거 판결이 특정 집단에 대한 편향을 보여준다면 AI를 사용하여 법원 판결을 지원하는 것은 매우 문제가 될 수 있다. 이러한 편향은 공식화되고 뿌리내리기 때문에 더욱 발견하고 해결하기 어려워진다.[99]

5. 5. 자율주행차 책임

자율주행차의 보급이 가까워짐에 따라, 사고 발생 시 책임 소재를 명확히 하는 것이 중요한 문제로 떠오르고 있다.[102][103] 2018년 3월 18일, 애리조나주에서 일레인 허츠버그(Elaine Herzberg영어)가 우버의 자율주행차에 치여 사망하는 사건이 발생했다.[107] 이 사건은 자율주행차 사고의 책임이 운전자, 보행자, 자동차 회사, 정부 중 누구에게 있는지에 대한 논쟁을 불러일으켰다.[104][105][106]

현재 자율주행차는 운전자가 주의를 기울이고 필요시 제어권을 넘겨받을 준비가 필요한 반자율주행차로 간주된다.[108] 따라서 정부는 운전자가 자율 기능에 과도하게 의존하지 않도록 규제하고, 자율주행 기술이 편리하지만 완전한 대체물은 아니라는 점을 교육해야 한다.[109][110][111] 자율주행차의 상용화에 앞서 이러한 문제들을 해결할 수 있는 새로운 법규 마련이 필요하다.

5. 6. 무기화

일부 전문가와 학자들은 군사 전투에 로봇을 사용하는 것, 특히 로봇에게 어느 정도 자율성을 부여하는 것에 대해 의문을 제기해 왔다.[113] 미국 해군은 군사 로봇이 더욱 복잡해짐에 따라 자율적인 결정을 내릴 수 있는 능력의 함의에 더욱 주의를 기울여야 한다는 보고서에 자금을 지원했다.[114][118] 인공지능 발전 협회는 이 문제를 조사하기 위한 연구를 의뢰했다.[115]

2019년 10월 31일, 미국 국방부 국방혁신위원회는 인공지능의 윤리적 사용 원칙을 권고하는 보고서를 발표했는데, 인간 운영자가 항상 블랙 박스를 들여다보고 살상 과정을 이해할 수 있도록 하기 위한 것이었다. 그러나 보고서가 어떻게 이행될 것인가가 주요 관심사이다.[116] 미국 해군은 군사 로봇이 더욱 복잡해짐에 따라 자율적인 결정을 내릴 수 있는 능력에 더욱 주의를 기울여야 한다는 보고서에 자금을 지원했다.[117][118] 일부 연구원들은 자율 로봇이 더 효과적으로 결정을 내릴 수 있기 때문에 더욱 인도적일 수 있다고 주장한다.[119]

할당된 도덕적 책임을 사용하여 학습할 수 있는 능력을 가진 자율 전력을 만드는 방법에 대한 연구가 진행되었다. "결과는 원치 않는 경향을 로봇에 책임을 부여하는 것을 제어하기 위해 미래의 군사 로봇을 설계할 때 사용될 수 있다."[120] 결과주의 관점에서 볼 때, 로봇이 누구를 죽일지에 대한 자체적인 논리적 결정을 내릴 수 있는 능력을 개발할 가능성이 있으며, 그렇기 때문에 AI가 무시할 수 없는 일련의 도덕적 틀이 있어야 한다.[121]

최근 인공지능 무기 개발과 관련하여 로봇에 의한 인류 지배라는 아이디어를 포함한 비판이 제기되었다. AI 무기는 인간이 통제하는 무기와는 다른 유형의 위험을 제기한다. 많은 정부가 AI 무기 개발 프로그램에 자금을 지원하기 시작했다. 미국 해군은 자율 드론 무기 개발 계획을 발표했고, 러시아와 한국[122]도 비슷한 발표를 했다. AI 무기가 인간이 조작하는 무기보다 더 위험해질 가능성 때문에 스티븐 호킹맥스 테그마크는 AI 무기 금지를 위한 "미래를 위한 서명"[123]에 서명했다. 호킹과 테그마크는 AI 무기가 즉각적인 위험을 제기하며 가까운 미래에 재앙적인 재난을 피하기 위해 행동이 필요하다고 밝혔다.[124]

"어떤 주요 군사 강국이 AI 무기 개발을 추진한다면, 전 세계적인 군비 경쟁은 사실상 불가피하며, 이 기술적 궤적의 종착점은 명확하다. 자율 무기는 미래의 칼라슈니코프가 될 것이다"라고 이 청원서는 밝히고 있으며, 스카이프 공동 창업자 야안 탈린과 MIT 언어학 교수 놈 촘스키도 AI 무기에 반대하는 지지자로 포함되어 있다.[125]

물리학자이자 왕립 천문학자인 마틴 리스 경은 "멍청한 로봇이 제멋대로 행동하거나 스스로 마음을 가진 네트워크"와 같은 재앙적인 사건에 대해 경고했다. 케임브리지 대학의 리스 동료인 휴 프라이스는 지능이 "생물학적 제약에서 벗어날 때" 인류가 살아남지 못할 수 있다는 유사한 경고를 했다. 이 두 교수는 인류 존재에 대한 이러한 위협을 피하기 위해 케임브리지 대학에 존재적 위험 연구 센터를 설립했다.[124]

오픈 자선 프로젝트는 인간보다 똑똑한 시스템이 군사적으로 사용될 가능성과 관련하여, 이러한 시나리오가 "통제력 상실과 관련된 위험만큼 잠재적으로 중요해 보이지만", AI의 장기적인 사회적 영향을 조사하는 연구는 이러한 우려에 상대적으로 적은 시간을 할애했다고 썼다.[126]

고기치(Gao Qiqi) 교수는 AI의 군사적 사용이 국가 간 군사 경쟁을 악화시킬 위험이 있으며, 군사 문제에 대한 AI의 영향은 한 국가에 국한되지 않고 파급 효과가 있을 것이라고 썼다.[127] 고 교수는 미국의 AI 군사적 사용을 예로 들면서, 이것이 의사 결정에 대한 책임을 회피하기 위한 핑계로 사용되어 왔다고 주장한다.[127]

군사 영역에서 AI를 책임감 있게 사용하는 문제에 대한 정상회담이 2023년 헤이그에서 열렸다.[128]

5. 7. 특이점

버너 빈지는 컴퓨터가 인간보다 똑똑해지는 순간이 올 수 있다고 제안했다. 이러한 사건의 시작은 일반적으로 "특이점"[129]으로 불리며, 특이점주의 철학에서 중심적으로 논의되는 부분이다. 특이점 이후 인류의 운명에 대한 의견은 다양하지만, 인공지능으로 인해 발생할 수 있는 잠재적인 존재적 위험을 완화하기 위한 노력은 최근 컴퓨터 과학자, 철학자, 그리고 일반 대중 사이에서 중요한 관심사가 되었다.

많은 연구자들은 지능 폭발을 통해 자기 개선형 AI가 너무 강력해져 인간이 AI의 목표 달성을 막을 수 없게 될 것이라고 주장한다.[130] 닉 보스트롬은 논문 "고급 인공 지능의 윤리적 문제"와 서적 ''초지능: 경로, 위험, 전략''에서 인공 지능이 인류 멸종을 초래할 수 있다고 주장한다. 그는 인공 초지능이 독자적인 주도권을 가지고 자신의 계획을 세울 수 있으며, 자율적 행위자로 간주될 수 있다고 주장한다. 인공 지능은 인간의 동기적 경향을 공유할 필요가 없기 때문에, 초지능의 원래 동기를 명시하는 것은 초지능 설계자의 몫이다. 초지능 AI는 거의 모든 가능한 결과를 초래하고 목표 달성을 막으려는 시도를 좌절시킬 수 있기 때문에, 통제되지 않은 의도하지 않은 결과가 발생할 수 있다. 다른 행위자를 죽이거나, 행동을 바꾸도록 설득하거나, 간섭하려는 시도를 막을 수 있다.[131][132]

그러나 보스트롬은 초지능이 질병, 빈곤, 환경 파괴와 같은 어려운 문제를 해결하고, 인간이 스스로를 향상시키는 데 도움이 될 수 있다고 주장했다.[133]

6. 해결 방안 및 접근 방식

엔비디아의 라마 가드(Llama Guard)나 프리앰블(Preamble)의 사용자 지정 보호 장치 플랫폼과 같은 도구는 AI 모델에 윤리적 지침을 통합하여 알고리즘 편향, 오용, 취약성 등의 문제를 해결하고자 한다.[217] 이를 위해 프롬프트 주입 공격과 같은 악의적인 입력으로부터 AI 시스템을 보호하기 위한 다양한 기술적 접근 방식이 개발되고 있다.

웬델 월러치와 콜린 앨런은 저서 ''Moral Machines: Teaching Robots Right from Wrong''에서 로봇에게 옳고 그름을 가르치려는 시도는 현대 규범 이론의 격차를 해결하도록 인간을 자극하고 실험적 조사를 위한 플랫폼을 제공함으로써 인간 윤리에 대한 이해를 발전시킬 가능성이 높다고 결론지었다.[214]

어떤 학습 알고리즘을 사용할 것인가에 대한 논쟁도 있다. 닉 보스트롬과 엘리에저 유드코프스키는 의사결정 트리(예: ID3)가 신경망유전 알고리즘보다 더 투명하다고 주장했다.[215] 반면 크리스 산토스-랭은 기계 학습을 옹호했다.[216]

인간 감정의 물리적 감지에 의존하는 대안적인 접근 방식도 가능하다.

7. 관련 기관

인공지능 윤리 및 정책과 관련된 많은 기관들이 있으며, 공공 및 정부 기관뿐만 아니라 기업 및 사회 단체들도 포함된다.[148]

아마존, 구글(Google), 페이스북(Facebook), IBM, 마이크로소프트(Microsoft)는 사람과 사회에 도움이 되는 인공지능 파트너십(The Partnership on AI to Benefit People and Society)이라는 비영리 단체를 설립하여 인공지능 기술에 대한 모범 사례를 제시하고, 대중의 이해를 높이며, 인공지능에 대한 플랫폼 역할을 수행하고 있다. 애플은 2017년 1월에 합류했다. 기업 회원들은 이 단체에 재정적 및 연구적 기여를 하고 과학계와 협력하여 학계 인사들을 이사회에 참여시킬 것이다.[148]

IEEE는 자율 및 지능 시스템 윤리에 대한 글로벌 이니셔티브(Global Initiative on Ethics of Autonomous and Intelligent Systems)를 구성하여 대중의 의견을 바탕으로 지침을 만들고 개정하며, 조직 내외의 많은 전문가들을 회원으로 받고 있다. IEEE의 [https://standards.ieee.org/industry-connections/activities/ieee-global-initiative/ Ethics of Autonomous Systems] 이니셔티브는 의사 결정과 사회적 영향과 관련된 윤리적 딜레마를 해결하고 자율 시스템의 개발 및 사용에 대한 지침을 개발하는 것을 목표로 한다. 특히 인공지능과 로봇 공학과 같은 분야에서 책임 있는 로봇 공학 재단(Foundation for Responsible Robotics)은 도덕적인 행동과 책임 있는 로봇 설계 및 사용을 촉진하고, 로봇이 도덕 원칙을 준수하고 인간의 가치와 일치하도록 하는 데 전념하고 있다.

전통적으로 정부는 법률과 치안을 통해 윤리가 준수되도록 하는 데 사용되어 왔다. 현재 국내 정부뿐만 아니라 초국가적 정부 및 비정부기구에서 인공지능이 윤리적으로 적용되도록 하기 위한 많은 노력이 이루어지고 있다.[149]


  • 유럽 집행위원회는 인공지능 고위 전문가 그룹을 운영하고 있다. 2019년 4월 8일, 이 그룹은 "신뢰할 수 있는 인공지능 윤리 지침"을 발표했다.[150] 유럽 집행위원회는 또한 로봇 공학 및 인공지능 혁신 및 우수성 부서를 운영하고 있으며, 2020년 2월 19일 인공지능 혁신에 대한 우수성과 신뢰에 관한 백서를 발표했다.[151] 유럽 집행위원회는 또한 인공지능법을 제안했다.[81]
  • OECD는 OECD AI 정책 관측소를 설립했다.[152]
  • 2021년, 유네스코는 인공지능 윤리에 관한 권고안을 채택했으며,[153] 이는 AI 윤리에 관한 최초의 세계 표준이다.[154]
  • 미국에서는 오바마 행정부가 인공지능 정책 로드맵을 마련했다.[155] 오바마 행정부는 인공지능의 미래와 영향에 대한 두 건의 중요한 백서를 발표했다. 2019년 백악관은 "미국 인공지능 이니셔티브"로 알려진 행정 메모를 통해 NIST(국립표준기술원)에 연방 인공지능 표준 참여(2019년 2월) 작업을 시작하도록 지시했다.[156]
  • 2020년 1월 미국에서는 트럼프 행정부(도널드 트럼프 1차 대통령 임기)가 재무관리국(OMB)이 발표한 "인공지능 응용 프로그램 규제 지침"("OMB AI 메모")에 대한 행정 명령 초안을 발표했다. 이 명령은 인공지능 응용 프로그램에 대한 투자, 인공지능에 대한 대중의 신뢰 증진, 인공지능 사용에 대한 장벽 감소, 그리고 세계 시장에서 미국의 인공지능 기술 경쟁력 유지를 강조한다. 개인정보 보호 우려에 대한 언급이 있지만, 집행에 대한 자세한 내용은 없다. 미국의 인공지능 기술 발전이 초점이자 우선순위인 것으로 보인다. 또한 연방 기관은 이 명령을 사용하여 시장이 이행하기에 너무 힘든 것으로 여길 수 있는 주법 및 규정을 우회하도록 권장받는다.[157]
  • 컴퓨팅 커뮤니티 컨소시엄(CCC)은 100페이지가 넘는 초안 보고서[158] – ''미국 인공지능 연구를 위한 20년간의 커뮤니티 로드맵''[159]을 발표했다.
  • 안보 및 신흥 기술 센터는 인공지능과 같은 신흥 기술의 안보적 의미에 대해 미국 정책 입안자들에게 자문하고 있다.
  • 비인간 정당은 뉴사우스웨일스에서 선거에 출마하여 로봇, 동물, 그리고 일반적으로 지능이 간과되어 온 비인간 실체에 권리를 부여하는 정책을 내세우고 있다.[160]
  • 러시아에서는 2021년 기업을 위한 최초의 러시아 "인공지능 윤리 강령"이 체결되었다. 러시아 연방 정부 분석 센터가 스베르방크, Yandex, 로사톰, 고등경제대학, 모스크바물리기술대학, ITMO 대학, 나노세만틱스, 로스텔레콤, CIAN 등 주요 상업 및 학술 기관과 함께 추진했다.[161]
  • 옥스퍼드 대학교에는 인공지능 윤리에 중점을 둔 연구소가 세 곳 있다. Future of Humanity Institute영어는 AI 안전[162]과 AI 거버넌스[163] 모두에 초점을 맞추고 있다. 존 타시오울라스(John Tasioulas)가 소장을 맡고 있는 인공지능 윤리 연구소(Institute for Ethics in AI)는 관련 응용 윤리 분야와 비교하여 인공지능 윤리를 독립적인 분야로 육성하는 것을 주요 목표로 하고 있다. 루치아노 플로리디(Luciano Floridi)가 소장을 맡고 있는 Oxford Internet Institute영어는 단기적인 인공지능 기술과 정보통신기술(ICT)의 윤리에 중점을 두고 있다.[164]
  • 베를린에 있는 Hertie School영어의 디지털 거버넌스 센터(Centre for Digital Governance)는 조안나 브라이슨(Joanna Bryson)이 공동 설립하여 윤리와 기술에 대한 연구를 수행하고 있다.[165]
  • 뉴욕 대학교의 AI Now Institute영어는 인공지능의 사회적 영향을 연구하는 연구소이다. 이 연구소의 학제 간 연구는 편향과 포용성, 노동과 자동화, 권리와 자유, 안전과 시민 인프라라는 주제에 초점을 맞추고 있다.[166]
  • Institute for Ethics and Emerging Technologies, IEET영어는 인공지능이 실업[167],[168]과 정책에 미치는 영향을 연구한다.
  • 뮌헨 공과대학교의 Institute for Ethics in Artificial Intelligence, IEAI영어는 크리스토프 뤼트게(Christoph Lütge)가 소장을 맡고 있으며, 이동성, 고용, 의료 및 지속가능성 등 다양한 분야에 걸쳐 연구를 수행하고 있다.[169]
  • 하버드 대학교 존 A. 폴슨 공과대학(Harvard John A. Paulson School of Engineering and Applied Sciences)의 자연과학 교수인 바바라 J. 그로스(Barbara J. Grosz)는 하버드 대학교 컴퓨터 과학 커리큘럼에 임베디드 에틱스(Embedded EthiCS)를 도입하여, 자신의 연구가 사회에 미치는 영향을 고려하는 세계관을 가진 미래 세대의 컴퓨터 과학자들을 육성하고 있다.[170]
  • 알고리즘 정의 리그(Algorithmic Justice League)[171]
  • AI 분야의 흑인들(Black in AI)[172]
  • 흑인의 삶을 위한 데이터(Data for Black Lives)[173]
  • AI 분야의 여성들(Women in AI (WAI))[174]
  • 지구촌 공동선을 위한 전체론적 지능(Holistic Intelligence for Global Good (HIGG))[175]

참조

[1] 웹사이트 Ethics of Artificial Intelligence and Robotics https://plato.stanfo[...] 2020-04-30
[2] 웹사이트 Machine Ethics http://uhaweb.hartfo[...] 2011-06-27
[3] 서적 Machine Ethics Cambridge University Press 2011-07
[4] 논문 Guest Editors' Introduction: Machine Ethics 2006-07
[5] 논문 Machine Ethics: Creating an Ethical Intelligent Agent 2007-12-15
[6] 논문 Philosophical Signposts for Artificial Moral Agent Frameworks https://philarchive.[...] 2017
[7] 논문 Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue] 2019-03
[8] 뉴스 The Moral Code https://www.foreigna[...] 2017-03-04
[9] 웹사이트 Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it https://www.cnbc.com[...] 2022-04-08
[10] 웹사이트 Massaging AI language models for fun, profit and ethics https://www.zdnet.co[...] 2022-04-04
[11] 서적 Moral Machines: Teaching Robots Right from Wrong Oxford University Press 2008-11
[12] 웹사이트 The Ethics of Artificial Intelligence http://www.nickbostr[...] Cambridge Press
[13] 웹사이트 Ethics for Artificial Intelligences http://santoslang.wo[...]
[14] 논문 The Roboethics Roadmap Scuola di Robotica
[15] 웹사이트 Ethics of Artificial Intelligence and Robotics https://plato.stanfo[...] Metaphysics Research Lab, Stanford University 2020
[16] 논문 The global landscape of AI ethics guidelines 2020-09-02
[17] 논문 A Unified Framework of Five Principles for AI in Society 2019-07-02
[18] 웹사이트 The case for fairer algorithms – Iason Gabriel https://medium.com/@[...] 2018-03-14
[19] 웹사이트 5 unexpected sources of bias in artificial intelligence https://techcrunch.c[...] 2016-12-10
[20] 웹사이트 Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead https://www.technolo[...]
[21] 웹사이트 Artificial intelligence and bias: Four key challenges https://www.brooking[...] 2019-01-03
[22] 뉴스 Facial Recognition Is Accurate, if You're a White Guy https://www.nytimes.[...] 2018-02-09
[23] 논문 Racial disparities in automated speech recognition 2020-04-07
[24] 논문 Bias in data-driven artificial intelligence systems—An introductory survey https://wires.online[...] 2020-05
[25] 뉴스 Amazon scraps secret AI recruiting tool that showed bias against women https://www.reuters.[...] 2018-10-10
[26] 논문 Bias in computer systems 1996-07
[27] 웹사이트 Eliminating bias in AI https://techxplore.c[...]
[28] 논문 The Elephant in the Room: Analyzing the Presence of Big Tech in Natural Language Processing Research https://aclanthology[...] Association for Computational Linguistics 2023
[29] 웹사이트 Google's DeepMind Has An Idea For Stopping Biased AI https://www.forbes.c[...]
[30] 웹사이트 Machine Learning Fairness {{!}} ML Fairness https://developers.g[...]
[31] 웹사이트 AI and bias – IBM Research – US https://www.research[...]
[32] 논문 Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science 2018-12
[33] arXiv Datasheets for Datasets 2018
[34] 웹사이트 Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities https://deepai.org/p[...] 2021-10-06
[35] 웹사이트 Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead https://www.technolo[...]
[36] 웹사이트 Where in the World is AI? Responsible & Unethical AI Examples https://map.ai-globa[...] 2020-10-28
[37] 논문 Can We Trust Fair-AI? Association for the Advancement of Artificial Intelligence (AAAI) 2023-06-26
[38] 논문 Inherent Limitations of AI Fairness 2022
[39] 논문 Fair Enough? A map of the current limitations of the requirements to have "fair" algorithms 2023
[40] 논문 Examining the assumptions of AI hiring assessments and their impact on job seekers' autonomy over self-representation 2023-10-21
[41] 논문 Threats by artificial intelligence to human health and human existence http://dx.doi.org/10[...] 2024-04-21
[42] 서적 Different approaches for liability of Artificial Intelligence – Pros and Cons http://dx.doi.org/10[...] Nomos Verlagsgesellschaft mbH & Co. KG 2023-12-14
[43] 논문 Getting AI Right: Introductory Notes on AI & Society 2022
[44] 논문 AI4COVID-19: AI enabled preliminary diagnosis for COVID-19 from cough samples via an app 2020-01-01
[45] 논문 Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare 2020-06-01
[46] 논문 Bias in data-driven artificial intelligence systems—An introductory survey 2020-05
[47] 논문 A Perspectival Mirror of the Elephant: Investigating Language Bias on Google, ChatGPT, Wikipedia, and YouTube 2023-03-28
[48] 서적 Stereotypes in ChatGPT: An empirical study Association for Computing Machinery 2023-11-20
[49] 서적 Gender bias and stereotypes in Large Language Models Association for Computing Machinery 2023-11-05
[50] 논문 Threats by artificial intelligence to human health and human existence 2023-05
[51] 논문 From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models https://aclanthology[...] Association for Computational Linguistics 2023-07
[52] 논문 Entity-Based Evaluation of Political Bias in Automatic Summarization https://aclanthology[...] Association for Computational Linguistics 2023-12-25
[53] 논문 Marked Personas: Using Natural Language Prompts to Measure Stereotypes in Language Models 2023-05-29
[54] 뉴스 Big Tech is spending more than VC firms on AI startups https://arstechnica.[...] 2023-12-27
[55] 뉴스 The Future of AI Is GOMA https://www.theatlan[...] 2023-10-24
[56] 뉴스 Big tech and the pursuit of AI dominance https://www.economis[...] 2023-03-26
[57] 뉴스 Where the battle to dominate AI may be won https://www.cnn.com/[...] 2023-12-19
[58] 뉴스 In the Age of A.I., Tech's Little Guys Need Big Friends https://www.nytimes.[...] 2024-07-17
[59] 간행물 Open Source AI https://agi-conf.org[...] 2008
[60] 웹사이트 Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup https://www.business[...] 2024-04-07
[61] 웹사이트 The open-source AI boom is built on Big Tech's handouts. How long will it last? https://www.technolo[...] 2024-04-07
[62] 뉴스 Google Unveils Open Source Models to Rival Meta, Mistral https://aibusiness.c[...] 2024-02-21
[63] 서적 7001-2021 - IEEE Standard for Transparency of Autonomous Systems https://ieeexplore.i[...] IEEE 2023-07-09
[64] 논문 Ethical issues in the development of artificial intelligence: recognizing the risks https://doi.org/10.1[...] 2023-01-01
[65] 잡지 Microsoft Calls For Federal Regulation of Facial Recognition https://www.wired.co[...] 2018-07-13
[66] 웹사이트 Should we make our most powerful AI models open source to all? https://www.vox.com/[...] 2024-04-07
[67] 웹사이트 OpenAI co-founder on company's past approach to openly sharing research: "We were wrong" https://www.theverge[...] 2024-04-07
[68] 웹사이트 Inside The Mind Of A.I. https://think.kera.o[...]
[69] 논문 Working in contexts for which transparency is important: A recordkeeping view of explainable artificial intelligence (XAI) https://www.emerald.[...] 2020-04-13
[70] 논문 Ethics & AI: A Systematic Review on Ethical Concerns and Related Strategies for Designing with AI in Healthcare 2022-12-31
[71] 웹사이트 The Regulation of AI – Should Organizations Be Worried? Ayanna Howard https://sloanreview.[...] 2019-08-14
[72] 웹사이트 Trust in artificial intelligence - A five country study https://assets.kpmg.[...] 2023-10-06
[73] 웹사이트 The General Data Protection Regulation Cross-industry innovation https://www2.deloitt[...] Deloitte 2019-01-10
[74] 웹사이트 UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges' https://news.un.org/[...] 2019-07-26
[75] 웹사이트 Artificial intelligence – Organisation for Economic Co-operation and Development http://www.oecd.org/[...] 2019-07-26
[76] 웹사이트 The European AI Alliance https://ec.europa.eu[...] 2019-07-26
[77] 웹사이트 Policy and investment recommendations for trustworthy Artificial Intelligence https://ec.europa.eu[...] 2020-03-16
[78] 논문 Emerging Consensus on 'Ethical AI': Human Rights Critique of Stakeholder Guidelines 2021-07
[79] 웹사이트 EU Tech Policy Brief: July 2019 Recap https://cdt.org/blog[...] 2019-08-09
[80] 논문 AI-deploying organizations are key to addressing 'perfect storm' of AI risks https://doi.org/10.1[...] 2022-05-29
[81] 뉴스 Why the world needs a Bill of Rights on AI https://www.ft.com/c[...] 2023-03-19
[82] 논문 Artificial intelligence, bias and clinical safety 2019-03
[83] 논문 Posthuman Rights: Dimensions of Transhuman Worlds
[84] 논문 Artificial Personal Autonomy and Concept of Robot Rights http://cyberleninka.[...] 2017-05-10
[85] 논문 The artificial intelligence entity as a legal person 2023
[86] 뉴스 Robots could demand legal rights http://news.bbc.co.u[...] 2010-01-03
[87] 뉴스 Human rights for robots? We're getting carried away https://web.archive.[...] The Times of London 2010-05-02
[88] 웹사이트 Saudi Arabia bestows citizenship on a robot named Sophia https://techcrunch.c[...] 2017-10-27
[89] 웹사이트 Pretending to give a robot citizenship helps no one https://www.theverge[...] 2019-01-10
[90] 서적 Close engagements with artificial companions: key social, psychological, ethical and design issues John Benjamins Pub. Co 2010
[91] 논문 Learning from the Failure of Autonomous and Intelligent Systems: Accidents, Safety, and Sociotechnical Sources of Risk https://onlinelibrar[...] 2022-09
[92] 논문 Functionally effective conscious AI without suffering 2020
[93] 논문 Artificial Suffering: An Argument for a Global Moratorim on Synthetic Phenomenology 2021-02
[94] arXiv Could a Large Language Model be Conscious? 2023-03
[95] 논문 Animal sentience and the precautionary principle https://www.wellbein[...] 2024-07-08
[96] 논문 Sharing the World with Digital Minds https://nickbostrom.[...] 2021-08
[97] 뉴스 The intelligent monster that you should let eat you https://www.bbc.com/[...] BBC News 2021-02-12
[98] 기타
[99] 논문 Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence 2019-01
[100] 서적 Computer Power and Human Reason W.H. Freeman & Company
[100] 서적 Machines Who Think A. K. Peters
[101] arXiv Ethical Artificial Intelligence 2015-11-17
[102] 뉴스 Google's Self-Driving Car Caused Its First Crash https://www.wired.co[...] 2019-07-26
[103] 뉴스 Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian https://www.theguard[...] 2019-07-26
[104] 웹사이트 Who is responsible when a self-driving car has an accident? https://futurism.com[...] 2019-07-26
[105] 웹사이트 Autonomous Car Crashes: Who – or What – Is to Blame? https://knowledge.wh[...] Radio Business North America Podcasts 2019-07-26
[106] 웹사이트 Driverless Cars Gone Wild https://www.thebalan[...] 2019-05-29
[107] 논문 Who Killed Elaine Herzberg? http://link.springer[...] Springer International Publishing 2020-11-11
[108] 간행물 Self-driving car dilemmas reveal that moral choices are not universal 2018-10
[109] 웹사이트 Regulations for driverless cars https://www.gov.uk/g[...] 2019-07-26
[110] 웹사이트 Automated Driving: Legislative and Regulatory Action – CyberWiki https://cyberlaw.sta[...] 2019-07-26
[111] 웹사이트 Autonomous Vehicles {{!}} Self-Driving Vehicles Enacted Legislation http://www.ncsl.org/[...] 2019-07-26
[112] 간행물 Incorporating Ethics into Artificial Intelligence https://doi.org/10.1[...] 2017-12-01
[113] 뉴스 Call for debate on killer robots http://news.bbc.co.u[...] BBC News 2009-08-03
[114] 뉴스 Science New Navy-funded Report Warns of War Robots Going "Terminator" http://www.dailytech[...] dailytech.com 2009-02-17
[115] 웹사이트 AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study http://research.micr[...] Association for the Advancement of Artificial Intelligence 2009-07-26
[116] 서적 AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense United States. Defense Innovation Board
[117] 뉴스 New Navy-funded Report Warns of War Robots Going "Terminator" http://www.dailytech[...] dailytech.com 2009-02-17
[118] 뉴스 Navy report warns of robot uprising, suggests a strong moral compass https://www.engadget[...] engadget.com 2009-02-18
[119] 간행물 The future of war: could lethal autonomous weapons make conflict more ethical? http://link.springer[...] 2020-11-11
[120] 간행물 On the moral responsibility of military robots 2013-06
[121] 웹사이트 We can train AI to identify good and evil, and then use it to teach us morality https://qz.com/12440[...] 2019-07-26
[122] 뉴스 South Korea developing new stealthy drones to support combat aircraft https://www.japantim[...] 2023-06-14
[123] 웹사이트 AI Principles https://futureoflife[...] 2017-08-11
[124] 웹사이트 Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic https://www.theatlan[...] 2017-03-06
[125] 웹사이트 Musk, Hawking Warn of Artificial Intelligence Weapons https://blogs.wsj.co[...] 2017-08-04
[126] 웹사이트 Potential Risks from Advanced Artificial Intelligence https://www.openphil[...] 2024-04-07
[127] 웹사이트 The Idea of China: Chinese Thinkers on Power, Progress, and People https://ecfr.eu/publ[...] European Council on Foreign Relations 2024-07-22
[128] 웹사이트 International military AI summit ends with 60-state pledge https://www.theregis[...] 2023-02-17
[129] 뉴스 Scientists Worry Machines May Outsmart Man https://www.nytimes.[...] 2017-02-24
[130] 서적 Intelligence Explosion and Machine Ethics https://intelligence[...] Springer 2012
[131] 서적 Ethical Issues in Advanced Artificial Intelligence http://www.nickbostr[...] International Institute for Advanced Studies in Systems Research / Cybernetics 2003
[132] 서적 Superintelligence: paths, dangers, strategies Oxford University Press 2017
[133] 간행물 Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing http://www.sciencedi[...] 2020-11-29
[134] 서적 Complex Value Systems in Friendly AI https://intelligence[...] 2011
[135] 서적 Human Compatible: Artificial Intelligence and the Problem of Control Viking 2019-10-08
[136] 간행물 Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent https://www.worldsci[...] 2020-11-29
[137] 서적 Moral Machines: From Value Alignment to Embodied Virtue https://oxford.unive[...] Oxford University Press 2020-11-29
[138] 간행물 Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach 2019
[139] 간행물 How to Design AI for Social Good: Seven Essential Factors 2020
[140] 웹사이트 NeMo Guardrails https://github.com/N[...] 2024-12-06
[141] 웹사이트 Llama Guard: LLM-based Input-Output Safeguard for Human-AI Conversations https://ai.meta.com/[...] 2024-12-06
[142] 논문 AI Ethics by Design: Implementing Customizable Guardrails for Responsible AI Development
[143] 웹사이트 NVIDIA NeMo Guardrails https://docs.nvidia.[...] 2024-12-06
[144] 논문 Llama Guard: LLM-based Input-Output Safeguard for Human-AI Conversations
[145] 논문 Building Guardrails for Large Language Models
[146] 웹사이트 Friendly AI via Human Emotion https://www.academia[...] 2014-00-00
[147] 간행물 The Markov blankets of Life: autonomy, active inference and the free energy principle http://dx.doi.org/10[...] 2024-12-15
[148] 뉴스 Facebook, Google, Amazon create group to ease AI concerns https://money.cnn.co[...] 2020-08-18
[149] 간행물 Locating the work of artificial intelligence ethics https://onlinelibrar[...] 2023-07-21
[150] 웹사이트 Ethics guidelines for trustworthy AI https://ec.europa.eu[...] European Commission 2020-02-20
[151] 웹사이트 White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future https://ec.europa.eu[...] 2021-03-18
[152] 웹사이트 OECD AI Policy Observatory https://www.oecd.ai/ 2021-03-18
[153] 서적 Recommendation on the Ethics of Artificial Intelligence https://unesdoc.unes[...] UNESCO
[154] 뉴스 UNESCO member states adopt first global agreement on AI ethics https://www.helsinki[...] 2023-04-26
[155] 뉴스 The Obama Administration's Roadmap for AI Policy https://hbr.org/2016[...] 2021-03-16
[156] 웹사이트 Accelerating America's Leadership in Artificial Intelligence – The White House https://trumpwhiteho[...] 2021-03-16
[157] 웹사이트 Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications" https://www.federalr[...] 2020-11-28
[158] 웹사이트 CCC Offers Draft 20-Year AI Roadmap; Seeks Comments https://www.hpcwire.[...] 2019-07-22
[159] 웹사이트 Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog https://www.cccblog.[...] 2019-07-22
[160] 웹사이트 Non-Human Party https://nonhuman.par[...] 2021-09-19
[161] 뉴스 Интеллектуальные правила https://www.kommersa[...] Kommersant 2021-11-25
[162] 논문 When Will AI Exceed Human Performance? Evidence from AI Experts 2018-05-03
[163] 웹사이트 China wants to shape the global future of artificial intelligence https://www.technolo[...] 2020-11-29
[164] 간행물 AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations 2018-12-01
[165] 잡지 Joanna J. Bryson https://www.wired.co[...] 2023-01-13
[166] 웹사이트 New Artificial Intelligence Research Institute Launches https://engineering.[...] 2021-02-21
[167] 서적 Surviving the machine age: intelligent technology and the transformation of human work https://www.worldcat[...] Palgrave Macmillan Cham 2020-11-29
[168] 서적 Automation and utopia: human flourishing in a world without work https://www.worldcat[...] Harvard University Press
[169] 웹사이트 TUM Institute for Ethics in Artificial Intelligence officially opened https://www.tum.de/n[...] 2020-11-29
[170] 웹사이트 Harvard works to embed ethics in computer science curriculum https://news.harvard[...] 2023-04-06
[171] 뉴스 When Bias Is Coded Into Our Technology https://www.npr.org/[...] 2021-12-22
[172] 간행물 How one conference embraced diversity 2018-12-12
[173] 뉴스 The 2020 Good Tech Awards https://www.nytimes.[...] 2021-12-21
[174] 웹사이트 Women in AI (#WAI) https://www.womenina[...] 2024-10-09
[175] 웹사이트 Holistic Intelligence for Global Good (HIGG) https://higg.world/ 2024-12-10
[176] 논문 Leibniz's Mill Argument Against Mechanical Materialism Revisited 2014
[177] 백과사전 Artificial Intelligence https://plato.stanfo[...] Metaphysics Research Lab, Stanford University 2023-12-08
[178] 서적 Information Technology and the Productivity Paradox: Assessing the Value of Investing in IT https://books.google[...] Oxford University Press 2024-02-21
[179] 서적 I, Robot Bantam
[180] 논문 Of, for, and by the people: the legal lacuna of synthetic persons 2017-09
[181] 웹사이트 Principles of robotics https://epsrc.ukri.o[...] UK's EPSRC 2019-01-10
[182] 웹사이트 Why We Need Friendly AI https://web.archive.[...] 2004-07
[183] 논문 Partners of Humans: A Realistic Assessment of the Role of Robots in the Foreseeable Future http://journals.sage[...] 2024-02-21
[184] 웹사이트 Evolving Robots Learn To Lie To Each Other http://www.popsci.co[...] Popular Science 2009-08-18
[185] 웹사이트 Better Made Up: The Mutual Influence of Science Fiction and Innovation https://www.nesta.or[...] Nesta 2024-05-03
[186] 웹사이트 Science-Fiction: A Mirror for the Future of Humankind https://revistaidees[...] 2023-12-08
[187] 서적 Alan Turing: The Enigma Vintage 2014
[188] 논문 On computable numbers, with an application to the Entscheidungsproblem 1936
[189] 웹사이트 Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service" https://readysteadyc[...] 2021-12-21
[190] 서적 AI narratives: a history of imaginative thinking about intelligent machines Oxford University Press 2020-11-11
[191] 논문 Sick, Slow, Cyborg: Crip Futurity in Mass Effect http://gamestudies.o[...] 2020-11-11
[192] 웹사이트 "Detroit: Become Human" Will Challenge your Morals and your Humanity https://coffeeordie.[...] 2021-12-07
[193] 서적 Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal? http://link.springer[...] Springer Netherlands 2020-11-11
[194] 논문 The Whiteness of AI 2020-08-06
[195] 웹사이트 Ethics of Artificial Intelligence and Robotics https://plato.stanfo[...] 2020-09-26
[196] 논문 The Roboethics Roadmap Scuola di Robotica 2011
[197] 백과사전 Ethics of Artificial Intelligence and Robotics https://plato.stanfo[...] Metaphysics Research Lab, Stanford University 2021-03-18
[198] 웹사이트 Machine Ethics http://uhaweb.hartfo[...] 2011-06-27
[199] 서적 Machine Ethics Cambridge University Press 2011-07
[200] 논문 Guest Editors' Introduction: Machine Ethics 2006-07
[201] 논문 Machine Ethics: Creating an Ethical Intelligent Agent 2007-12-15
[202] 논문 Philosophical Signposts for Artificial Moral Agent Frameworks https://philarchive.[...] 2017
[203] 서적 I, Robot Bantam
[204] 논문 Of, for, and by the people: the legal lacuna of synthetic persons 2017-09
[205] 웹사이트 Principles of robotics https://epsrc.ukri.o[...] UK's EPSRC 2019-01-10
[206] 웹사이트 Evolving Robots Learn To Lie To Each Other http://www.popsci.co[...] Popular Science 2009-08-18
[207] 웹사이트 Science New Navy-funded Report Warns of War Robots Going "Terminator" http://www.dailytech[...] dailytech.com 2009-02-17
[208] 웹사이트 AAAI Presidential Panel on Long-Term AI Futures 2008–2009 Study http://research.micr[...] Association for the Advancement of Artificial Intelligence 2009-07-26
[209] 뉴스 Scientists Worry Machines May Outsmart Man https://www.nytimes.[...] 2017-02-24
[210] 웹사이트 The Coming Technological Singularity: How to Survive in the Post-Human Era http://www-rohan.sds[...] Department of Mathematical Sciences, San Diego State University 1993
[211] 웹아카이브 Article at Asimovlaws.com https://web.archive.[...] Asimovlaws.com 2012-05-24
[212] 논문 Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue] https://ieeexplore.i[...] 2019-03
[213] 뉴스 The Moral Code https://www.foreigna[...] 2015-12-07
[214] 서적 Moral Machines: Teaching Robots Right from Wrong Oxford University Press 2008-11
[215] 웹사이트 The Ethics of Artificial Intelligence http://www.nickbostr[...] Cambridge Press
[216] 웹사이트 Ethics for Artificial Intelligences http://santoslang.wo[...]
[217] 웹사이트 The Regulation of AI – Should Organizations Be Worried? Ayanna Howard https://sloanreview.[...]
[218] 논문 The global landscape of AI ethics guidelines 2020-09-02
[219] 논문 A Unified Framework of Five Principles for AI in Society 2019-07-02
[220] 웹아카이브 Open Source AI. https://web.archive.[...] 2016-03-04
[221] 웹아카이브 OpenCog: A Software Framework for Integrative Artificial General Intelligence. https://web.archive.[...] 2016-03-04
[222] 웹아카이브 Inside OpenAI, Elon Musk’s Wild Plan to Set Artificial Intelligence Free https://web.archive.[...] Wired 2016-04-27
[223] 웹사이트 P7001 – Transparency of Autonomous Systems https://standards.ie[...] IEEE
[224] 잡지 MICROSOFT CALLS FOR FEDERAL REGULATION OF FACIAL RECOGNITION https://www.wired.co[...] 2018-07-13
[225] 웹사이트 The General Data Protection Regulation Cross-industry innovation https://www2.deloitt[...] Deloitte 2017-06
[226] 웹사이트 UN artificial intelligence summit aims to tackle poverty, humanity's 'grand challenges' https://news.un.org/[...] 2017-06-07
[227] 웹사이트 Artificial intelligence – Organisation for Economic Co-operation and Development http://www.oecd.org/[...]
[228] 웹사이트 The European AI Alliance https://ec.europa.eu[...] 2018-06-14
[229] 웹사이트 Policy and investment recommendations for trustworthy Artificial Intelligence https://ec.europa.eu[...] 2019-06-26
[230] 웹사이트 EU Tech Policy Brief: July 2019 Recap https://cdt.org/blog[...]
[231] 논문 AI-deploying organizations are key to addressing 'perfect storm' of AI risks https://doi.org/10.1[...] 2022-05-24
[232] 뉴스 Why the world needs a Bill of Rights on AI https://www.ft.com/c[...] 2021-10-18
[233] 웹사이트 The case for fairer algorithms – Iason Gabriel https://medium.com/@[...] 2018-03-14
[234] 웹사이트 5 unexpected sources of bias in artificial intelligence http://social.techcr[...] 2016-12-10
[235] 웹사이트 Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead https://www.technolo[...]
[236] 웹사이트 Artificial intelligence and bias: Four key challenges https://www.brooking[...] 2019-01-03
[237] 뉴스 Facial Recognition Is Accurate, if You're a White Guy https://www.nytimes.[...] 2018-02-09
[238] 논문 Racial disparities in automated speech recognition 2020-04-07
[239] 뉴스 Amazon scraps secret AI recruiting tool that showed bias against women https://www.reuters.[...] 2018-10-10
[240] 논문 Bias in computer systems 1996-07
[241] 웹사이트 Eliminating bias in AI https://techxplore.c[...]
[242] 웹사이트 Google's DeepMind Has An Idea For Stopping Biased AI https://www.forbes.c[...]
[243] 웹사이트 Machine Learning Fairness https://developers.g[...]
[244] 웹사이트 AI and bias – IBM Research – US https://www.research[...]
[245] 논문 Data Statements for Natural Language Processing: Toward Mitigating System Bias and Enabling Better Science 2018-12
[246] arXiv Datasheets for Datasets 2018
[247] 웹사이트 Trustworthy Artificial Intelligence and Process Mining: Challenges and Opportunities https://deepai.org/p[...] 2021-10-06
[248] 웹사이트 Google's AI chief says forget Elon Musk's killer robots, and worry about bias in AI systems instead https://www.technolo[...]
[249] 웹사이트 Where in the World is AI? Responsible & Unethical AI Examples https://map.ai-globa[...]
[250] 논문 Posthuman Rights: Dimensions of Transhuman Worlds
[251] 논문 Artificial Personal Autonomy and Concept of Robot Rights http://cyberleninka.[...]
[252] 사전 The American Heritage Dictionary of the English Language, Fourth Edition https://www.ahdictio[...]
[253] 뉴스 Robots could demand legal rights http://news.bbc.co.u[...] 2006-12-21
[254] 뉴스 Human rights for robots? We're getting carried away http://www.timesonli[...] The Times of London 2007-04-24
[255] 웹사이트 A Robot Code of Ethics https://www.the-scie[...] The Scientist
[256] 서적 The Singularity is Near Penguin Books
[257] 뉴스 The Big Question: Should the human race be worried by the rise of robots? https://web.archive.[...] Independent Newspaper
[258] 웹사이트 Loebner Prize Contest Official Rules — Version 2.0 http://loebner03.ham[...]
[259] 웹사이트 Saudi Arabia bestows citizenship on a robot named Sophia https://techcrunch.c[...] 2017-10-26
[260] 웹사이트 Pretending to give a robot citizenship helps no one https://www.theverge[...] 2017-10-30
[261] 서적 Close engagements with artificial companions: key social, psychological, ethical and design issues John Benjamins Pub. Co 2010
[262] 논문 Is artificial intelligence more persuasive than humans? A meta-analysis
[263] 인용
[264] 논문 Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence 2019-01
[265] 서적 Computer Power and Human Reason W.H. Freeman & Company
[265] 서적 Machines Who Think http://www.pamelamc.[...] A. K. Peters, Ltd.
[266] arXiv Ethical Artificial Intelligence 2015-11-17
[267] 뉴스 Google's Self-Driving Car Caused Its First Crash https://www.wired.co[...] 2016-02-29
[268] 뉴스 Self-driving Uber kills Arizona woman in first fatal crash involving pedestrian https://www.theguard[...] 2018-03-19
[269] 웹사이트 Who is responsible when a self-driving car has an accident? https://futurism.com[...]
[270] 웹사이트 Autonomous Car Crashes: Who – or What – Is to Blame? https://knowledge.wh[...]
[271] 웹사이트 Driverless Cars Gone Wild https://www.thebalan[...]
[272] 서적 Who Killed Elaine Herzberg? http://link.springer[...] Springer International Publishing 2020
[273] 논문 Self-driving car dilemmas reveal that moral choices are not universal 2018-10
[274] 웹사이트 Regulations for driverless cars https://www.gov.uk/g[...]
[275] 웹사이트 Automated Driving: Legislative and Regulatory Action – CyberWiki https://cyberlaw.sta[...]
[276] 웹사이트 Autonomous Vehicles Self-Driving Vehicles Enacted Legislation http://www.ncsl.org/[...]
[277] 뉴스 Call for debate on killer robots http://news.bbc.co.u[...] BBC News 2009-08-03
[278] 뉴스 Robot Three-Way Portends Autonomous Future https://www.wired.co[...] wired.com 2009-08-13
[279] 서적 AI principles: recommendations on the ethical use of artificial intelligence by the Department of Defense
[280] 뉴스 New Navy-funded Report Warns of War Robots Going "Terminator" http://www.dailytech[...] dailytech.com 2009-02-17
[281] 뉴스 Navy report warns of robot uprising, suggests a strong moral compass https://www.engadget[...] engadget.com 2009-02-18
[282] 논문 The future of war: could lethal autonomous weapons make conflict more ethical? http://link.springer[...] 2020-03-00
[283] 논문 On the moral responsibility of military robots 2013-06-00
[284] 웹사이트 We can train AI to identify good and evil, and then use it to teach us morality https://qz.com/12440[...] 2018-04-05
[285] 웹사이트 AI Principles https://futureoflife[...] 2017-08-11
[286] 웹사이트 Why Artificial Intelligence Can Too Easily Be Weaponized – The Atlantic https://www.theatlan[...] 2015-08-14
[287] 웹사이트 Musk, Hawking Warn of Artificial Intelligence Weapons https://blogs.wsj.co[...] 2015-07-27
[288] 보고서 Potential risks from advanced artificial intelligence http://www.givewell.[...] 2015-00-00
[289] 웹사이트 Inside The Mind Of A.I. https://think.kera.o[...] 2017-12-05
[290] 서적 Intelligence Explosion and Machine Ethics https://intelligence[...] Springer 2012-00-00
[291] 서적 Ethical Issues in Advanced Artificial Intelligence http://www.nickbostr[...] International Institute for Advanced Studies in Systems Research / Cybernetics 2003-00-00
[292] 논문 Evaluating future nanotechnology: The net societal impacts of atomically precise manufacturing http://www.sciencedi[...] 2018-06-01
[293] 서적 Complex Value Systems in Friendly AI https://intelligence[...] 2011-00-00
[294] 서적 Human Compatible: Artificial Intelligence and the Problem of Control Viking 2019-10-08
[295] 논문 Unpredictability of AI: On the Impossibility of Accurately Predicting All Actions of a Smarter Agent https://www.worldsci[...] 2020-03-01
[296] 서적 Moral Machines: From Value Alignment to Embodied Virtue https://oxford.unive[...] Oxford University Press 2020-09-17
[297] 논문 Beneficial Artificial Intelligence Coordination by Means of a Value Sensitive Design Approach 2019-00-00
[298] 논문 How to Design AI for Social Good: Seven Essential Factors 2020-00-00
[299] 뉴스 Facebook, Google, Amazon create group to ease AI concerns https://money.cnn.co[...] CNNMoney 2016-09-28
[300] 웹사이트 Ethics guidelines for trustworthy AI https://ec.europa.eu[...] European Commission 2019-04-08
[301] 웹사이트 White Paper on Artificial Intelligence – a European approach to excellence and trust | Shaping Europe's digital future https://ec.europa.eu[...] null
[302] 웹사이트 OECD AI Policy Observatory https://www.oecd.ai/
[303] 뉴스 The Obama Administration's Roadmap for AI Policy https://hbr.org/2016[...] Harvard Business Review 2016-12-21
[304] 웹사이트 Accelerating America's Leadership in Artificial Intelligence – The White House https://trumpwhiteho[...] null
[305] 웹사이트 Request for Comments on a Draft Memorandum to the Heads of Executive Departments and Agencies, "Guidance for Regulation of Artificial Intelligence Applications" https://www.federalr[...] 2020-01-13
[306] 웹사이트 CCC Offers Draft 20-Year AI Roadmap; Seeks Comments https://www.hpcwire.[...] 2019-05-14
[307] 웹사이트 Request Comments on Draft: A 20-Year Community Roadmap for AI Research in the US » CCC Blog https://www.cccblog.[...] 2019-05-13
[308] 뉴스 Интеллектуальные правила https://www.kommersa[...] Kommersant 2021-11-25
[309] 논문 When Will AI Exceed Human Performance? Evidence from AI Experts 2018-05-03
[310] 웹사이트 China wants to shape the global future of artificial intelligence https://www.technolo[...] 2018-03-16
[311] 논문 AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations 2018-12-01
[312] 웹사이트 Joanna J. Bryson https://www.wired.co[...] null
[313] 웹사이트 New Artificial Intelligence Research Institute Launches https://engineering.[...] 2017-11-20
[314] 서적 Surviving the machine age: intelligent technology and the transformation of human work https://www.worldcat[...] 2017-03-15
[315] 서적 Automation and utopia: human flourishing in a world without work https://www.worldcat[...] 2019-00-00
[316] 웹사이트 TUM Institute for Ethics in Artificial Intelligence officially opened https://www.tum.de/n[...] 2020-11-29
[317] 웹사이트 Harvard works to embed ethics in computer science curriculum https://news.harvard[...] 2023-04-06
[318] 웹사이트 AI Principles https://futureoflife[...] 2023-04-06
[319] 뉴스 When Bias Is Coded Into Our Technology https://www.npr.org/[...] 2021-12-22
[320] 간행물 How one conference embraced diversity https://www.nature.c[...] 2021-12-22
[321] 뉴스 The 2020 Good Tech Awards https://www.nytimes.[...] 2021-12-21
[322] 웹사이트 Science-Fiction: A Mirror for the Future of Humankind https://revistaidees[...] Centre d'estudis de temes contemporanis (CETC) 2021-06-10
[323] 웹사이트 Leibniz’s Mill Argument: Against Mechanical Materialism Revisited https://quod.lib.umi[...] 2014
[324] 웹사이트 Artificial Intelligence https://plato.stanfo[...] The Stanford Encyclopedia of Philosophy 2021-06-10
[325] 서적 Alan Turing: The Enigma Vintage 2014
[326] 웹사이트 Love, Death & Robots season 2, episode 1 recap - "Automated Customer Service" https://readysteadyc[...] 2021-12-21
[327] 서적 AI narratives: a history of imaginative thinking about intelligent machines https://www.worldcat[...] 2020-11-11
[328] 간행물 Sick, Slow, Cyborg: Crip Futurity in Mass Effect http://gamestudies.o[...] 2020-11-11
[329] 웹사이트 "Detroit: Become Human" Will Challenge your Morals and your Humanity https://coffeeordie.[...] 2021-12-07
[330] 간행물 Re-Designing Humankind: The Rise of Cyborgs, a Desirable Goal? http://link.springer[...] Springer Netherlands 2020-11-11
[331] 간행물 The Whiteness of AI 2020-08-06



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com