인공지능
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
인공지능(AI)은 기계를 인간처럼 지능적으로 행동하게 만드는 연구 분야로, 인간의 지능 능력을 컴퓨터 시스템, 소프트웨어, 알고리즘 등을 통해 구현하는 기술을 의미한다. AI는 인간처럼 사고하는 시스템, 행동하는 시스템, 이성적으로 사고하는 시스템, 행동하는 시스템으로 분류되며, 자연어 처리, 전문가 시스템, 기계 학습, 심층 학습 등 다양한 기술을 포함한다.
AI는 1956년 다트머스 회의에서 학문으로 시작되어, 전문가 시스템의 상업적 성공과 딥러닝의 발전을 거치며 붐을 겪었다. 1990년대부터는 실용적인 문제 해결에 집중하면서 괄목할 만한 성장을 이루었고, 딥 블루, 왓슨, 알파고 등의 성공적인 사례가 등장했다. 2020년대 이후에는 생성형 AI가 급부상하며 제4차 AI 붐이 시작되었다는 평가도 나온다.
AI는 검색 엔진, 추천 시스템, 자율 주행 차량 등 다양한 분야에 응용되고 있으며, 의료, 금융, 군사, 농업 등 여러 산업에서 활용되고 있다. 그러나 AI의 발전은 개인 정보 보호, 저작권, 기술 대기업의 독점, 전력 소비, 가짜 정보, 알고리즘 편향, 투명성 부족, 악의적 행위자, 기술적 실업, 존재적 위험 등 다양한 윤리적 문제들을 야기한다.
AI의 발전과 함께, 이러한 문제들을 해결하기 위한 정책 및 규제 마련 노력이 이루어지고 있으며, 유럽 연합(EU)에서는 AI법을 제정하고, 국제적으로 AI 안전 정상회의가 개최되는 등 국제 협력도 이루어지고 있다. AI의 미래는 초지능, 트랜스휴머니즘과 같은 개념으로 예측되며, 픽션에서도 중요한 주제로 다루어지고 있다.
더 읽어볼만한 페이지
- 컴퓨터 과학의 미해결 문제 - 이산 로그
이산 로그는 유한군에서 이산 거듭제곱의 지수를 찾는 역함수로, 소수 p를 법으로 하는 정수 모듈러 곱셈 그룹에서 계산적으로 풀기 어려운 문제이며, 현대 암호 시스템의 안전성 기반이지만 양자 알고리즘으로 효율적 해결이 가능하여 양자 내성 암호 연구가 필요하다. - 컴퓨터 과학의 미해결 문제 - P-NP 문제
P-NP 문제는 계산 복잡도 이론에서 P와 NP 복잡도 종류의 관계에 대한 미해결 문제로, 컴퓨터 과학과 수학에 혁명적인 변화를 가져올 것으로 예상되며 암호학, 최적화, 인공지능 등 다양한 분야에 큰 영향을 미칠 수 있다. - 초개체 - 가이아 이론
가이아 이론은 지구를 생물권, 대기권, 수권, 지권이 상호작용하며 항상성을 유지하는 하나의 거대한 자기조절 시스템으로 보는 이론으로, 지구 시스템 과학의 연구 대상이자 환경 운동 등 다양한 영역에 영향을 미치고 있다. - 초개체 - 생물권
생물권은 지구 표면의 생명체 서식 영역을 의미하며, 지구의 지권, 수권, 대기권과 함께 생태권을 구성하고, 다양한 환경에서 생명체가 존재하며, 인공 생물권과 외계 생물권, 그림자 생물권 등의 개념도 존재한다. - 컴퓨터 공학 - 전자공학
전자공학은 다이오드와 트라이오드의 발명으로 시작되어 트랜지스터와 집적 회로를 거쳐 컴퓨터와 디지털 기술 발전을 이끌었으며, 현재는 다양한 세부 분야로 발전하고 있다. - 컴퓨터 공학 - 컴퓨터 과학
컴퓨터 과학은 컴퓨터와 관련된 현상을 연구하는 학문으로, 계산 이론, 하드웨어 및 소프트웨어 설계, 문제 해결 등을 포괄하며, 수학, 공학 등 여러 분야와 융합하여 발전해 왔다.
인공지능 | |
---|---|
기본 정보 | |
![]() | |
주요 목표 | |
주요 목표 | 지식 추론 계획 기계 학습 자연어 처리 컴퓨터 비전 로봇공학 인공 일반 지능 |
접근 | |
접근 방법 | 심볼릭 딥 러닝 베이즈 네트워크 진화 알고리즘 |
철학 | |
철학적 논점 | 윤리 실존적 위험 튜링 테스트 중국어 방 통제 문제 친절한 AI |
역사 | |
역사적 개요 | 연표 진행상황 AI 겨울 |
기술 | |
기술적 요소 | 애플리케이션 프로젝트 프로그래밍 언어 |
용어 | |
관련 용어 | 용어 |
추가 정보 | |
관련 분야 | 기계 학습 신경과학 |
관련 항목 | AI 효과 재귀적 자기 개선 인공지능 안전 범용 게임 대결 전이 신뢰 모델 기호 처리 상황 대응적 접근법 인공지능 처리 시스템 통합 혼합형 인공지능 |
응용 | 응용 의료 정신 의료 음악 금융 군사 계획 산업 정부 생물정보학 지구과학 미술 물리학 |
철학 및 윤리 | 철학 규제 제어 문제 |
역사 | 진화 인공지능 시대 인공지능 겨울 인공지능 붐 연표 |
주요 사건 | Logic Theorist (1955) 퍼셉트론 (1958) General Problem Solver (1959) Prolog (1972) 딥 블루 대 가리 카스파로프 (1996-1997) 알파고 대 이세돌 (2016) |
전망 | 예측 규제 인공지능 법 |
기타 | 가정용 로봇 비교 계획 챗봇 딥 러닝 미술가 화제 용어집 |
2. 인공지능의 정의 및 분류
초기 인공지능 연구에 대한 대표적인 정의는 다트머스 회의에서 존 매카시가 제안한 "기계를 인간 행동의 지식에서와 같이 행동하게 만드는 것"이다.[477] 그러나 이 정의는 범용인공지능(AGI, 강한 인공지능)에 대한 고려를 하지 못한 것으로 평가받는다. 인공지능의 또 다른 정의는 인공적인 장치들이 가지는 지능이다. 거의 대부분 정의들이 인간처럼 사고하는 시스템, 인간처럼 행동하는 시스템, 이성적으로 사고하는 시스템 그리고 이성적으로 행동하는 시스템이라는 4개의 분류로 분류된다.[477] 인공지능의 작동 방식이 의사 결정과 문제 해결, 학습에 있어 사람의 생각이나 행동과 유사할수록 강한 인공지능으로 분류되고, 논리에 의해 만들어지는 합리적인 생각이나 행동에 가까울수록 약한 인공지능으로 분류된다.[478]
인간의 지능 능력을 컴퓨터 상에서 구현하는 다양한 기술·소프트웨어 집합·컴퓨터 시스템·알고리즘이라고도 한다.[251] 주요 특화형 AI로는,
- 전문가의 논리, 지식이나 조건에 의한 판단을 모방하는 전문가 시스템, 지식 그래프(ナレッジグラフ), 인과 추론
- 데이터에서 특정 패턴을 검출·추출, 예측, 분류하는 통계적 기계 학습 및 심층 학습(영상 인식·음성 인식·수치 예측·고장 진단)
- 데이터의 특징량을 압축하여 다른 정보를 만들어내는 심층 학습(VAE, 확산 모델)
- 우수한 개체를 자연 도태로 선별하는 유전 알고리즘
- 최선의 수를 탐색(몬테카를로 트리 탐색, 다익스트라 알고리즘)
등이 있다.[251]
출처 | 정의·설명 |
---|---|
일본어 사전 『광사전(広辞苑)』 | |
백과사전 『브리태니커 백과사전(ブリタニカ百科事典)』 | |
일본 인공지능학회(人工知能学会) 논문 “교양 지식으로서의 AI” | |
학술 논문(学術論文) “심층 학습과 인공지능” | |
학술 논문 “인공지능 사회의 마땅한 모습을 찾아서” |
2. 1. 강인공지능과 약인공지능
초기 인공지능 연구는 다트머스 회의에서 존 매카시가 제안한 "기계를 인간 행동의 지식에서와 같이 행동하게 만드는 것"이라는 정의로 대표된다.[477] 그러나 이 정의는 범용인공지능(AGI, 강한 인공지능)에 대한 고려를 하지 못한 것으로 평가받는다. 인공지능은 인간처럼 사고하는 시스템, 인간처럼 행동하는 시스템, 이성적으로 사고하는 시스템, 이성적으로 행동하는 시스템의 네 가지로 분류된다.[477] 사람의 생각이나 행동과 유사하면 강한 인공지능, 논리에 의해 만들어지는 합리적인 생각이나 행동에 가까울수록 약한 인공지능으로 분류된다.[478]인공 일반 지능(Artificial General Intelligence)을 갖춘 기계는 인간 지능과 유사한 폭넓고 다재다능한 능력으로 다양한 문제를 해결할 수 있어야 한다.[35] 현대 인공지능은 특정 문제에 대한 해결에 집중하여 성공을 거두었지만, 인공 일반 지능의 하위 분야는 이 영역을 독점적으로 연구한다.
생명정보과학자·신경과학자 합원 카즈유키(合原一幸) 편저 『인공지능은 이렇게 만들어진다』에 따르면, AI의 급격한 발전과 함께 “기술적 특이점(Technological Singularity), 싱귤래리티” 사상이 논의되고 있지만, 이는 “수학”적인 이야기는 아니다. 이 책은 “애초에 싱귤래리티와 관련된 논의에서 ‘인간의 뇌를 넘는다’는 주장 자체가 제대로 정의되어 있지 않다”고 지적한다. 실제 뇌는 디지털과 아날로그가 융합된 “하이브리드계”이며, 신경막에는 다양한 “잡음”이 존재하고, 이 잡음이 포함된 아날로그량에 의해 뇌 내 뉴런의 “카오스”가 만들어지기 때문에, 디지털로 기술하는 것은 “매우 어렵다”고 한다. 물론, 인공지능이 인간을 능가하는 것을 기대해서는 안 된다는 학자도 있다.[470]
2. 1. 1. 약인공지능
약인공지능(weak AI)은 사진에서 물체를 찾거나 소리를 듣고 상황을 파악하는 것과 같이 기존에 인간은 쉽게 해결할 수 있으나 컴퓨터로 처리하기에는 어려웠던 각종 문제를 컴퓨터로 수행하게 만드는데 중점을 두고 있다. 한참 막연한 인간 지능을 목표로 하기보다는 더 현실적으로 실용적인 목표를 가지고 개발되고 있는 인공지능이라고 할 수 있으며, 일반적인 지능을 가진 무언가라기보다는 특정한 문제를 해결하는 도구로써 활용된다.[4][5][6][7][33]2. 1. 2. 강인공지능 (AGI)
강인공지능(strong AI) 또는 '''인공 일반 지능'''(artificial general intelligence, AGI)은 인간처럼 실제로 사고하여 문제를 해결할 수 있는 "일반 지능"을 인공적으로 구현하려는 시도이다. 오늘날 이 분야의 연구는 주로 미리 정의된 규칙의 모음을 이용해서 지능을 흉내내는 컴퓨터 프로그램을 개발하는 것에 맞추어져 있다. 강한 인공지능 분야의 발전은 여전히 미약하지만, 인간과 같은 지능이라는 목표를 어떻게 정의하는지에 따라 어느 정도 발전이 이루어지고 있다고도 볼 수 있다.존 설이나 휴버트 드라이퍼스와 같은 몇몇 철학자들은 몸이 아닌 기계에 인간의 지능이나 의식을 구현하는 작업의 실현 가능성에 대한 철학적 바탕을 두고 논쟁을 벌였다. 설은, 튜링 테스트의 통과 여부는 사람의 기준으로 볼 때 기계가 의식을 갖추었다는 판단의 필요 조건이 되지 못한다는 중국어 방에 대한 논증으로 유명하다. 드라이퍼스는 그의 저서 "컴퓨터가 할 수 없는 것들: 인공적인 추론에 대한 비평"에서 의식이라는 것은 룰이나 논리 기반 시스템 또는 물리적인 형태를 가지고 있지 않은 시스템에서 찾을 수 없으나, 신경망(neural network)이나 그 유사한 메커니즘을 이용하는 로보틱 시스템은 인공지능을 실현할 수 있는 가능성이 있다고 주장했다.
다른 철학자들은 엇갈린 관점을 고수한다. 많은 사람들이 약한 인공지능 정도는 가능하다고 보지만, 또한 많은 사람들이 강한 인공지능을 지지하고 있는 것도 사실이다. 대니얼 C. 데넷은 그의 '의식에 대한 설명'에서 만일 마법의 불꽃이나 영혼이 없다면 인간은 기계에 불과하다며, 지능에 대해서만 인간이라는 기계가 다른 실현 가능한 모든 기계와 다르게 특별 취급을 받아야할 이유가 무엇인가 묻고 있다.
어떤 철학자들은 우리가 약한 인공지능을 가능한 것으로 받아들인다면, 강한 인공지능 역시 받아들여야 한다고 주장한다. 지능은 외견상 보이는 것을 가리키는 것이지 진정한 실체가 아니라는 약한 인공지능의 입장은 많은 비판을 받고 있다. 그러나 이에 반하는 손쉬운 예를 사이먼 블랙번의 철학 입문서 "생각"에서 찾을 수 있다. 블랙번은 당신이 지능적으로 보이지만, 그 지능이 실존하는가에 대해서 말할 수 있는 방법이 없다고 지적한다. 그는 우리는 단지 믿음 또는 신념 위에서 그것을 다룰 뿐이라고 이야기한다.
강한 인공지능을 지지하는 사람들은 인공지능에 반대하는 사람들의 논증이 결국은 아래와 같은 주장을 조합한 것이라고 주장한다.
# 특권에 바탕을 둔 오만함으로 인해 인간에게는 (기계에는 없는) 마법의 불꽃이 있다는 주장 (예를 들면, 신에 의해 주어진 영혼)
# 지능은 기계로는 성취될 수 없는 그 무엇이라는 주장.
강한 인공지능을 뒷받침하는 논증(따라서 반대하는 사람은 이 논증을 논박해야 한다.)은 다음과 같다.
# 인간의 마음은 유한 상태 기계(Finite State Machine)이고, 따라서 처치-튜링 이론은 뇌에 적용 가능하다.
# 뇌는 순수한 하드웨어이다.(말하자면 고전적인 컴퓨터처럼 동작한다.)
# 인간의 마음은 오로지 뇌를 통해서만 존재한다.
로저 펜로즈를 포함한 몇몇 학자들은 지능에 처치-튜링 명제의 적용이 가능하지 않다고 논박한다. 특히 펜로즈는 인간의 마음에는 물리적인 속성을 뛰어넘는 무언가가 있다고 이야기하며, 그의 주장은 우리의 우주 안에서 초연산(hypercomputation)이 가능하다는 논증에 바탕을 두고 있다. 양자역학과 뉴턴 역학에 따르면 이러한 초연산은 가능하지 않지만, 특별한 시공간에서는 가능한 것으로 생각되기도 한다. 그러나 이는 소수의 주장이며, 우리의 우주는 그러한 초연산이 가능할 정도로 꼬이지(convoluted) 않았다는 많은 학자들의 합의가 존재한다.
인공 일반 지능(Artificial General Intelligence)을 갖춘 기계는 인간 지능(human intelligence)과 유사한 폭넓고 다재다능한 능력으로 다양한 문제를 해결할 수 있어야 한다.[35]
인공지능 연구자들은 인공 일반 지능과 초지능의 목표를 직접 추구할지, 아니면 이러한 해결책들이 장기적인 목표로 이어질 것이라는 희망을 가지고 가능한 한 많은 특정 문제를 해결할지(좁은 AI)에 대해 의견이 분분합니다. 일반 지능은 정의하기 어렵고 측정하기 어려우며, 현대 인공지능은 특정 문제에 대한 특정 해결책에 집중함으로써 더욱 검증 가능한 성공을 거두었습니다. 인공 일반 지능의 하위 분야는 이 영역을 독점적으로 연구합니다.
2006년 딥러닝의 발명과 2010년 이후 빅데이터 수집 환경의 정비, GPU의 고성능화에 따른 컴퓨팅 자원의 확보를 통해, 2012년 딥러닝이 이미지 처리 콘테스트에서 다른 방법들을 압도적인 차이로 제치고 우승함으로써, 기술적 특이점이라는 개념은 전 세계 전문가들의 주목을 빠르게 받게 되었고, 현실적인 가능성으로 받아들여지게 되었다.
딥러닝의 발명과 빠른 보급에 따라, 연구 개발 현장에서는 데미스 허사비스가 이끄는 DeepMind를 필두로, Vicarious, OpenAI, IBM Cortical Learning Center, 전뇌 아키텍처, PEZY Computing, OpenCog, GoodAI, NNAISENSE, IBM SyNAPSE, Nengo, 중국과학원 자동화연구소 등, '''범용 인공지능'''(AGI)을 개발하는 프로젝트들이 다수 시작되었다. 이러한 연구 개발 현장에서는 뇌를 역설계하여 구축된 신경과학과 기계 학습을 결합하는 접근 방식이 유망하다고 여겨지고 있다.[405]
2017년 10월, 제프리 힌턴에 의해 요소 간의 상대적인 위치 관계까지 포함하여 학습할 수 있는 '''CapsNet(캡슐 네트워크)'''이 제안되었다.[406]
2018년 3월 16일 국제대학 GLOCOM의 제안에 따르면, 문제 해결형 AI를 활용함으로써 사회 변혁에 기여할 수 있다고 분석되었다.[407]
2018년 8월, OpenAI는 호기심을 구현하고, 게임 점수, 목표, 보상 없이 목적 없는 탐색을 하는 AI를 공개했다. 기존 AI 중 가장 인간다운 AI라고 평가받았다.[408]
2018년 9월, MIT 링컨 연구소는 기존의 블랙박스였던 신경망의 추론 과정을 명확하게 알 수 있는 아키텍처를 개발했다.[409]
2019년, BERT와 같은 언어 모델을 통해, 심층 학습에서는 어렵다고 여겨졌던 자연어 처리 분야에서 큰 발전이 있었고, Wikipedia 등을 사용한 독해 테스트에서 인간을 능가하는 수준에 이르렀다.[410]
3. 인공지능의 역사
기계적 또는 "형식적" 추론에 대한 연구는 고대 철학자들과 수학자들에 의해 시작되었다. 논리에 대한 연구는 앨런 튜링의 계산 이론으로 이어졌는데, 이 이론은 기계가 "0"과 "1"처럼 단순한 기호들을 섞어서 생각할 수 있는 모든 수학적 추론 형태를 시뮬레이션할 수 있다는 것을 시사했다.[210] 이것은 사이버네틱스, 정보 이론 및 신경생물학에서 동시에 이루어진 발견과 함께 연구자들로 하여금 "전자 두뇌"를 만드는 가능성을 고려하게 만들었다.[208] 그들은 인공지능의 일부가 될 몇몇 연구 분야를 개발했는데,[209] 예를 들어 1943년 맥컬럭과 피츠가 "인공 뉴런"을 설계한 것, 그리고 "기계 지능"이 가능하다는 것을 보여주는 튜링의 1950년 영향력 있는 논문 '계산 기계와 지능'이 있다. 이 논문에서 튜링 테스트를 소개했다.[230][210]
인공지능 연구 분야는 1956년 워크숍에서 다트머스 대학교에서 설립되었다.[211] 참석자들은 1960년대 인공지능 연구의 선두주자가 되었다. 그들과 그들의 학생들은 언론이 "놀라운" 것이라고 묘사한 프로그램들을 만들었다. 컴퓨터는 체커 전략을 배우고, 대수 방정식의 단어 문제를 풀고, 논리적 정리를 증명하고, 영어로 말했습니다.[212] 1950년대 후반과 1960년대 초 영국과 미국의 여러 대학에 인공지능 연구소가 설립되었다.[210]
1960년대와 1970년대 연구자들은 자신들의 방법이 결국 일반 지능을 가진 기계를 만드는 데 성공할 것이라고 확신했고, 이것을 그들의 분야의 목표로 여겼다. 1965년 허버트 사이먼은 "20년 안에 기계는 사람이 할 수 있는 모든 일을 할 수 있을 것"이라고 예측했다.[213] 1967년 마빈 민스키는 "한 세대 안에…'인공지능'을 만드는 문제가 상당 부분 해결될 것"이라고 동의했다.[214] 그러나 그들은 문제의 어려움을 과소평가했다. 1974년 미국과 영국 정부는 비판에 대한 응답으로, 제임스 라이트힐 경에 대한 비판과 미 의회의 지속적인 압력으로 탐험적인 연구를 중단했다. 그리고 더 생산적인 프로젝트를 위한 자금 조달을 했다. 민스키와 페이퍼트의 책 ''퍼셉트론''은 인공 신경망이 실제 문제를 해결하는 데 결코 유용하지 않다는 것을 증명하는 것으로 이해되었으며, 따라서 이 접근 방식을 완전히 불신하게 만들었다. 인공지능 프로젝트에 대한 자금을 얻기가 어려운 시기인 "인공지능 겨울"이 뒤따랐다.[215]
1980년대 초, 전문가 시스템의 상업적 성공으로 인공지능 연구가 부활했다.[216] 이것은 인간 전문가의 지식과 분석 기술을 시뮬레이션하는 인공지능 프로그램의 한 형태이다. 1985년까지 인공지능 시장은 10억 달러를 넘어섰다. 동시에 일본의 제5세대 컴퓨터 프로젝트는 미국과 영국 정부가 학문적 연구에 대한 자금 지원을 재개하도록 했다.[217] 그러나 1987년 리스프 머신 시장의 붕괴로 인공지능은 다시 한번 불신에 빠졌고, 더 길고 지속적인 두 번째 겨울이 시작되었다.[218]
이 시점까지 인공지능 자금의 대부분은 계획, 목표, 신념 및 알려진 사실과 같은 정신적 객체를 나타내는 고급 기호를 사용하는 프로젝트에 사용되었다. 1980년대에 일부 연구자들은 이 접근 방식이 인간 인지의 모든 과정, 특히 지각, 로봇 공학, 학습 및 패턴 인식을 모방할 수 있을지 의심하기 시작했고, "하위 기호" 접근 방식을 조사하기 시작했다. 로드니 브룩스는 일반적으로 "표현"을 거부하고 움직이고 생존하는 기계를 직접 설계하는 데 집중했다. 구현된 인공지능에 대한 접근 방식은 한스 모라벡과 로드니 브룩스에 의해 옹호되었으며, 많은 이름으로 불렸다. 누벨 AI, 발달 로봇 공학.[219] 주데아 펄, 로프티 자데 등은 정확한 논리가 아닌 합리적인 추측을 통해 불완전하고 불확실한 정보를 처리하는 방법을 개발했다.[52] 그러나 가장 중요한 발전은 제프리 힌튼 등에 의해 "연결주의"를 포함한 신경망 연구의 부활이이었다.[220] 1990년 얀 르쿤은 합성곱 신경망이 손으로 쓴 숫자를 인식할 수 있다는 것을 성공적으로 보여주었는데, 이는 신경망의 많은 성공적인 응용 프로그램 중 첫 번째였다.
인공지능은 1990년대 후반과 21세기 초 형식 수학적 방법을 활용하고 특정 문제에 대한 특정 해결책을 찾음으로써 점차 명성을 회복했다. 이러한 "협소한" 그리고 "형식적인" 초점을 통해 연구자들은 검증 가능한 결과를 생성하고 다른 분야(예: 통계학, 경제학 및 수학)와 협력할 수 있었다.[221] 2000년까지 인공지능 연구자들이 개발한 솔루션이 널리 사용되었지만, 1990년대에는 "인공지능"으로 거의 묘사되지 않았다(AI 효과로 알려진 경향).[222]
그러나 일부 학계 연구자들은 인공지능이 다재다능하고 완전히 지능적인 기계를 만드는 원래 목표를 더 이상 추구하지 않는다는 우려를 표명했다. 2002년경부터 그들은 여러 기관이 2010년대까지 잘 지원받는 하위 분야인 인공 일반 지능(또는 "AGI")을 설립했다.[35]
심층 학습은 2012년에 업계 기준을 지배하기 시작했고 전 분야에 걸쳐 채택되었다.[223]
많은 특정 작업의 경우 다른 방법이 버려졌다. 심층 학습의 성공은 하드웨어 개선(더 빠른 컴퓨터,[224] 그래픽 처리 장치, 클라우드 컴퓨팅)과 대량의 데이터에 대한 접근(기획된 데이터 세트 포함, 예: ImageNet)에 기반했다.[225] 심층 학습의 성공은 인공지능에 대한 관심과 자금의 엄청난 증가로 이어졌다. 2015년에서 2019년 사이에 기계 학습 연구량(총 간행물로 측정)이 50% 증가했다.
2016년에 공정성 문제와 기술의 오용 문제가 기계 학습 회의의 중심에 놓였고, 간행물이 크게 증가했으며 자금이 마련되었고 많은 연구자들이 이러한 문제에 다시 집중했다. 정렬 문제는 심각한 학문적 연구 분야가 되었다.
10년대 후반과 2020년대 초, AGI 기업들이 엄청난 관심을 불러일으키는 프로그램을 제공하기 시작했다. 2015년 딥마인드가 개발한 알파고는 세계 챔피언 바둑 기사를 이겼다. 이 프로그램은 게임의 규칙만 가르쳤고 전략을 스스로 개발했다. GPT-3은 2020년 오픈AI가 출시한 대규모 언어 모델이며 고품질의 인간과 같은 텍스트를 생성할 수 있다.[226] 이러한 프로그램과 기타 프로그램은 대기업이 인공지능 연구에 수십억 달러를 투자하기 시작한 공격적인 인공지능 붐을 불러일으켰다. AI Impacts에 따르면, 2022년경 미국에서만 매년 약 500억 달러가 "인공지능"에 투자되었으며 새로운 미국 컴퓨터 과학 박사 졸업생의 약 20%가 "인공지능"을 전공했다. 2022년에 약 80만 개의 "인공지능" 관련 미국 일자리 공석이 있었다.
인공지능 분야에서는 컴퓨터의 초기 시대인 1950년대부터 연구 개발이 계속되어 왔으며, 제1차 '''탐색과 추론'''과 제2차 '''지식 표현'''이라는 패러다임으로 두 차례의 붐이 일었지만, 사회가 기대하는 수준에 도달하지 못함에 따라 각 붐 이후 침체기를 겪었다.[254]
2010년경부터 연간 4.2배의 성능 향상을 달성하는 새로운 스케일링 법칙이 시작되었다. 컴퓨터 성능 향상에 따라 파라미터 수와 데이터셋의 규모를 확장함으로써 비연속적으로 발생한 현상이다.[255]
2012년 이후, AlexNet(Alexnet)의 등장으로 이미지 처리 분야에서 딥러닝의 유용성이 전 세계적으로 인정받으면서 연구가 급속히 활발해지고 제3차 인공지능 붐이 도래하였다.[256] 2016년부터 2017년에 걸쳐 딥러닝과 강화 학습(Q러닝, 정책 경사 방법)을 도입한 AI가 완전 정보 게임인 바둑 등의 최고 기사, 그리고 불완전 정보 게임인 포커의 세계 최고 수준의 플레이어도 꺾으면서[257][258], 마작에서는 "Microsoft Suphx(Super Phoenix)"가 온라인 대전 사이트 "천봉(天鳳)(온라인 게임)"에서 AI로서는 처음으로 10단에 도달하는 등 최첨단 기술로 주목받았다.[259][260] 제3차 인공지능 붐의 주요 혁명은 자연어 처리, 센서를 이용한 이미지 처리 등 시각적 측면이 특히 두드러지지만, 사회학, 윤리학, 기술 개발, 경제학 등 여러 분야에도 큰 영향을 미치고 있다.[261]
제3차 인공지능 붐이 계속되는 가운데, 2022년 11월 30일에 OpenAI에서 출시된 생성 AI인 ChatGPT가 질문에 대한 유연한 답변으로 주목을 받으면서, 기업 간 생성 AI 개발 경쟁이 시작[262][252]되고, 적극적으로 업무에 활용되기 시작했다.[263] 이러한 사회 현상을 제4차 인공지능 붐이라고 부르는 사람들도 나타나고 있다.[264]
한편, 스튜어트 러셀(Stuart Russell) 등의 『에이전트 접근 방식 인공지능』은 인공지능의 주요 위험으로 치사적인 자율 무기, 감시와 설득, 편향된 의사 결정, 고용에 대한 영향, 안전 중시 응용, 사이버 보안을 들고 있다. 또한 러셀 등은 『네이처(Nature)』에서 인공지능에 의한 생물의 번영과 자멸의 가능성[265] 및 윤리적 과제에 대해서도 논하고 있다.[266][267] 마이크로소프트는 "AI for Good Lab"(선한 AI 연구소)를 설립하고, e러닝 서비스 "DeepLearning.AI"와 제휴하고 있다.[268]
복잡한 현실 세계에 대응할 수 있는 성능을 가진 컴퓨터 개발과 상징 기반 문제 및 프레임 문제 해결이 큰 장벽이 되어 왔다. 오랫동안 인공지능 구축이 시도되어 왔지만, 제1차 붐에서 등장한 "탐색과 추론"이나 제2차 붐에서 등장한 "지식 표현"이라는 패러다임에 기반한 AI는 현실 세계와 비교하여 단순한 문제만 다룰 수 있었기 때문에 사회적으로 큰 영향력을 가지지는 못했다.[370][371] 제3차 이후 붐에서는 고성능 AI가 등장하여 AI 위협론, AI의 본격적인 사회적 확산, AI와의 공존 방법 등이 논의되고 있다.[372]
3. 1. 인공지능 이론의 발전
초기 인공지능 연구는 심리학에 대한 실험적 접근이었으며, 언어 지능을 밝혀내는 것이 주요 목표였다. 튜링 테스트가 대표적인 예이다.[480]로보틱스와 집합적 지식 등 언어 지능 외의 다른 시도들도 있었다. 이들은 환경 처리와 의사 결정 일치에 중점을 두었으며, 지능적 행동 구성 방식을 찾기 위해 생물학, 정치과학에서 영감을 얻었다. 인공지능 과학은 사회적 계획성과 인지 능력은 떨어지지만 복잡한 인식 방법을 가진 동물, 특히 곤충(로봇으로 모방하기 쉬운)을 포함한 동물학에서 시작되었다.[481] 여러 생명체의 모든 논리 구조를 가져오는 것은 이론적으로 가능하지만, 수치화 및 기계화는 쉽지 않다.
인공지능 학자들은 동물이 인간보다 모방하기 쉽다고 주장한다. 그러나 동물의 지능을 만족하는 계산 모델은 없다. 워런 매컬러의 신경 행동에서 내재적 사고의 논리적 계산[479], 앨런 튜링의 기계와 지능의 계산[480], J. C. R. 리클라이더의 인간과 컴퓨터의 공생[481]은 기계 지능 개념에 관한 독창적인 논문들이다. 존 루커스의 지성, 기계, 괴델[482]과 같은 논리학과 철학 기반의 기계 지능 가능성을 부인한 초기 논문들도 있다.[483]
인공지능 연구에 기반을 둔 실질적인 작업이 결실을 맺으면서, 인공지능 지지자들은 인공지능 반대자들이 과거에는 '지능적'이라고 주장했던 컴퓨터 체스, 바둑, 음성 인식 등의 작업에 대해 말을 바꾸며 인공지능의 업적을 깎아내린다고 비난했다. 그들은 이러한 연구 목표 변경이 '지능'을 '인간은 할 수 있지만, 기계는 할 수 없는 어떤 것'으로 정의하는 역할을 한다고 지적했다.
존 폰 노이만은 1948년에 기계가 생각하는 것은 불가능하다는 강의를 듣고 "당신은 기계가 할 수 없는 어떤 것이 있다고 주장한다. 만일 당신이 그 기계가 할 수 없는 것이 무엇인지를 정확하게 이야기해준다면, 나는 언제든지 그 일을 수행할 수 있는 기계를 만들 수 있다."라고 말했다. 폰 노이만은 이미 그전에 모든 처리 절차는 (범용) 컴퓨터에 의해 시뮬레이션 될 수 있다고 말하며 처치-튜링 이론을 언급했다.
1969년에 매카시와 헤이스는 논문 "인공지능 관점에서 바라본 철학적인 문제들"에서 프레임 문제를 언급하였다.
3. 2. 인공지능의 탄생(1943-1956)
1940년대 후반과 1950년대 초반에 이르러서 수학, 철학, 공학, 경제 등 다양한 영역의 과학자들에게서 인공적인 두뇌의 가능성이 논의되었다. 1956년에 이르러서, 인공지능이 학문 분야로 들어섰다.; 인공두뇌학과 초기 신경 네트워크
당시 신경학의 최신 연구는 실제 뇌가 뉴런으로 이루어진 전기적인 네트워크라고 보았다. 노버트 위너는 인공두뇌학을 전기적 네트워크의 제어와 안정화로 묘사했으며, 클로드 섀넌의 정보 과학은 디지털 신호로 묘사했다. 또 튜링의 계산 이론은 어떤 형태의 계산도 디지털로 나타낼 수 있음을 보였다. 이런 여러 밀접한 연관에서, 인공두뇌의 전자적 구축에 대한 아이디어가 나온 것이다.[484] 윌리엄 그레이 윌터의 거북이 로봇은 이 아이디어를 중요하게 포함한 연구의 예이다. 이 기계는 컴퓨터를 사용하지 않고 아날로그 회로를 이용했지만, 디지털의 전자적, 상징적 추리를 보여주기엔 충분했다.[485]
월터 피츠와 워런 매컬럭은 인공 신경망에 기인한 네트워크를 분석하고 그들이 어떻게 간단한 논리적 기능을 하는지 보여주었다. 그들은 후에 신경 네트워크[486]라 부르는 기술을 첫번째로 연구한 사람이다. 마빈 민스키는 1951년 첫번째 신경 네트워크 기계인 SNARC[487]를 구축했다. 민스키는 향후 50년동안 인공지능의 가장 중요한 지도적, 혁신적 인물 중 하나가 되었다.
; 튜링 테스트
1950년 앨런 튜링은 생각하는 기계의 구현 가능성에 대한 분석이 담긴, 인공지능 역사에서 혁혁한 논문을 발표했다.[488] 그는 "생각"을 정의하기 어려움에 주목해, 그 유명한 튜링 테스트를 고안했다. 텔레프린터를 통한 대화에서 기계가 사람인지 기계인지 구별할 수 없을 정도로 대화를 잘 이끌어 간다면, 이것은 기계가 "생각"하고 있다고 말할 충분한 근거가 된다는 것이었다.[489] 튜링 테스트는 인공 지능에 대한 최초의 심도 깊은 철학적 제안으로 평가받는다.
; 게임 인공지능
1951년에 맨체스터 대학의 페란티 마크 1(Ferranti Mark 1) 기계를 사용하여 크리스토퍼 스트레이(Christopher Strachey)는 체커 프로그램을 작성했고, 디트리히 프린츠(Dietrich Prinz)는 체스 프로그램을 작성했다.[490] 아서 새뮤얼이 1950년대 중반과 1960년대 초반에 개발한 체커 프로그램은 결국 존경받는 아마추어에 도전할 수 있는 충분한 기술적 발전을 이룩했다.[491] 1950년대부터 게임 플레이 프로그램은 인공지능의 가장 발전된 기술을 시연하고 시험하는 데 사용되어 왔다.[96]
; 상징 추론과 논리 이론
1950년대 중반, 디지털 컴퓨터의 등장으로 기계가 수를 다루듯 기호를 조작하여 인간처럼 사고하는 기계를 만들 수 있다는 새로운 접근 방식이 나타났다.[492] 1956년, 앨런 뉴얼과 허버트 사이먼은 "논리 이론"을 구현했는데,[493] 이 프로그램은 버트런드 러셀과 앨프리드 노스 화이트헤드의 '수학 원리'에 나오는 52개의 정리 중 38개를 증명하고, 일부는 더 새롭고 간결한 증명 방법을 발견했다.[494]
; 다트머스 컨퍼런스 1956년: AI의 탄생
1956년[495]에 열린 다트머스 컨퍼런스는 마빈 민스키와 존 매카시, 그리고 IBM의 수석 과학자인 클로드 섀넌과 네이선 로체스터가 개최했다. 컨퍼런스는 "학습의 모든 면 또는 지능의 다른 모든 특성로 기계를 정밀하게 기술할 수 있고 이를 시물레이션 할 수 있다"[496]라는 주장을 포함하여 제안을 제기했다. 참가자는 레이 솔로모노프(Ray Solomonoff), 올리버 셀프리지, 트렌처드 모어, 아서 새뮤얼, 앨런 뉴얼과 허버트 사이먼으로, 그들 모두 수십년동안 인공지능 연구에서 중요한 프로그램을 만들어온 사람들이었다.[497] 컨퍼런스에서 앨런 뉴얼과 허버트 사이먼은 "논리 이론"을 소개했고, 존 매카시는 Artificial Intelligence를 그들의 연구를 칭하는 이름으로 받아들이길 설득했다.[498] 1956년 다트머스 컨퍼런스는 AI 라는 이름, 목표점, 첫번째 성공과 이를 이룬 사람들, 그리고 넓은 의미의 AI의 탄생을 포함하는 순간이었다.[499]
3. 2. 1. 인공두뇌학과 초기 신경 네트워크
당시 신경학의 최신 연구는 실제 뇌가 뉴런으로 이루어진 전기적인 네트워크라고 보았다. 위너는 인공두뇌학을 전기적 네트워크의 제어와 안정화로 묘사했으며, 섀넌의 정보 과학은 디지털 신호로 묘사했다. 또 튜링의 계산 이론은 어떤 형태의 계산도 디지털로 나타낼 수 있음을 보였다. 이런 여러 밀접한 연관에서, 인공두뇌의 전자적 구축에 대한 아이디어가 나온 것이다.[484] 월터의 거북이 로봇은 이 아이디어를 중요하게 포함한 연구의 예이다. 이 기계는 컴퓨터를 사용하지 않고 아날로그 회로를 이용했지만, 디지털의 전자적, 상징적 추리를 보여주기엔 충분했다.[485]월터 피츠(Walter Pitts)와 워런 매컬러(Warren Sturgis McCulloch)는 인공 신경망에 기인한 네트워크를 분석하고 그들이 어떻게 간단한 논리적 기능을 하는지 보여주었다. 그들은 후에 신경 네트워크[486]라 부르는 기술을 첫번째로 연구한 사람이다. 피츠와 매컬러는 24살의 대학원생인 젊은 마빈 민스키를 만났고, 민스키는 1951년 첫번째 신경 네트워크 기계인 SNARC[487]를 구축했다. 민스키는 향후 50년동안 인공지능의 가장 중요한 지도적, 혁신적 인물 중 하나가 되었다.
3. 2. 2. 튜링 테스트
1950년 앨런 튜링은 생각하는 기계의 구현 가능성에 대한 분석이 담긴, 인공지능 역사에서 혁혁한 논문을 발표했다.[488] 그는 "생각"을 정의하기 어려움에 주목해, 그 유명한 튜링 테스트를 고안했다. 텔레프린터를 통한 대화에서 기계가 사람인지 기계인지 구별할 수 없을 정도로 대화를 잘 이끌어 간다면, 이것은 기계가 "생각"하고 있다고 말할 충분한 근거가 된다는 것이었다.[489] 튜링 테스트는 인공 지능에 대한 최초의 심도 깊은 철학적 제안으로 평가받는다.3. 2. 3. 게임 인공지능
1951년에 맨체스터 대학의 페란티 마크 1(Ferranti Mark 1) 기계를 사용하여 크리스토퍼 스트레이(Christopher Strachey)는 체커 프로그램을 작성했고, 디트리히 프린츠(Dietrich Prinz)는 체스 프로그램을 작성했다.[490] 아서 새뮤얼(Arthur Samuel)이 1950년대 중반과 1960년대 초반에 개발한 체커 프로그램은 결국 존경받는 아마추어에 도전할 수 있는 충분한 기술적 발전을 이룩했다.[491] 1950년대부터 게임 플레이 프로그램은 인공지능의 가장 발전된 기술을 시연하고 시험하는 데 사용되어 왔다.[96]3. 2. 4. 상징 추론과 논리 이론
1950년대 중반, 디지털 컴퓨터의 등장으로 기계가 수를 다루듯 기호를 조작하여 인간처럼 사고하는 기계를 만들 수 있다는 새로운 접근 방식이 나타났다.[492] 1956년, 앨런 뉴얼과 허버트 사이먼은 "논리 이론"을 구현했는데,[493] 이 프로그램은 버트런드 러셀과 앨프리드 노스 화이트헤드의 '수학 원리'에 나오는 52개의 정리 중 38개를 증명하고, 일부는 더 새롭고 간결한 증명 방법을 발견했다.[494]3. 2. 5. 다트머스 컨퍼런스 1956년: AI의 탄생
1956년[495]에 열린 다트머스 컨퍼런스는 마빈 민스키와 존 매카시, 그리고 IBM의 수석 과학자인 클로드 섀넌과 네이선 로체스터가 개최했다. 컨퍼런스는 "학습의 모든 면 또는 지능의 다른 모든 특성로 기계를 정밀하게 기술할 수 있고 이를 시물레이션 할 수 있다"[496]라는 주장을 포함하여 제안을 제기했다. 참가자는 레이 솔로모노프(Ray Solomonoff), 올리버 셀프리지, 트렌처드 모어, 아서 새뮤얼(Arthur Smuel), 앨런 뉴얼과 허버트 사이먼으로, 그들 모두 수십년동안 인공지능 연구에서 중요한 프로그램을 만들어온 사람들이었다.[497] 컨퍼런스에서 앨런 뉴얼과 허버트 사이먼은 "논리 이론"을 소개했고, 존 매카시는 Artificial Intelligence를 그들의 연구를 칭하는 이름으로 받아들이길 설득했다.[498] 1956년 다트머스 컨퍼런스는 AI 라는 이름, 목표점, 첫번째 성공과 이를 이룬 사람들, 그리고 넓은 의미의 AI의 탄생을 포함하는 순간이었다.[499]3. 3. 황금기(1956~1974년)
다트머스 회의 이후 인공지능(AI) 연구는 빠르게 발전했다.[500] 이 시기 개발된 프로그램들은 대수학 문제를 해결하고, 기하학의 정리를 증명했으며, 영어를 학습하는 등 "놀라운(astonishing)" 성과를 보여주었다.[500] 몇몇 사람들은 이러한 기계의 "지능적" 행동을 보고 AI로 모든 것이 가능할 것이라고 믿었다.[501]연구자들은 낙관론을 펼치며 20년 안에 완전한 지능을 갖춘 기계가 탄생할 것이라고 예측했다.[502] ARPA같은 정부 기관은 이 새로운 분야에 많은 자금을 지원했다.[503]
AI 연구 초기에는 다음과 같은 예측들이 있었다.
- 1958년, 사이먼(H. A. Simon)과 뉴얼: "10년 안에 디지털 컴퓨터가 체스 세계 챔피언을 이길 것이며, 중요한 새로운 수학적 정리를 발견하고 증명할 것이다."[515]
- 1965년, 사이먼: "20년 안에 기계가 사람이 할 수 있는 모든 일을 할 것이다."[516]
- 1967년, 마빈 민스키: "이번 세기에 AI를 만드는 문제는 거의 해결 될 것이다."[517]
- 1970년, 마빈 민스키: (Life 잡지를 통해서) "3~8년안에 우리는 평균정도의 인간 지능을 가지는 기계를 가지게 될 것입니다."[518]
1956년 여름, 다트머스 대학교(Dartmouth University)에서 존 매카시(John McCarthy)는 워크숍 제안서에서 "인공 지능(인공 지능/artificial intelligence영어)"이라는 용어를 처음 사용했다. 이 회의에는 올리버 셀프리지(Oliver Selfridge), 레이 솔로모노프(Ray Solomonoff), 마빈 민스키, 클로드 섀넌(Claude Shannon), 허버트 사이먼(Herbert Simon), 앨런 뉴웰(Allen Newell) 등이 참가했다. 존 매카시는 최초의 AI 관련 회의에서 "인공 지능"이라는 용어를 만들었고 프로그래밍 언어LISP영어를 개발했다. 앨런 튜링(Alan Turing)은 지능적인 행동에 대한 테스트 방법으로 "튜링 테스트"를 제안했다.
3. 4. AI의 첫번째 암흑기(1974-1980)
70년대에 이르자, 인공지능은 비판의 대상이 되었고 재정적 위기가 닥쳤다. AI 연구가들은 그들 눈앞에 있는 복잡한 문제를 해결하는데 실패했다. 연구가들의 엄청난 낙관론은 연구에 대한 기대를 매우 높여놓았고, 그들이 약속했던 결과를 보여주지 못하자, AI에 대한 자금 투자는 사라져버렸다.[525] 동시에, 신경망은 지난 10년동안 마빈 민스키의 퍼셉트론(시각과 뇌의 기능을 모델화한 학습 기계)에 대한 파괴적인 비판에 의해 완전히 중지되었다.[526] 그러나 70년대 후반의 AI에 대한 좋지 않은 대중의 인식에도 불구하고, 논리 프로그래밍, 상징 추론과 많은 여러 영역에서의 새로운 아이디어가 나타났다.[527]3. 4. 1. 문제
1970년대 초, AI 프로그램의 가능성은 제한적이었다. 모든 문제에 걸쳐 문제를 푸는 인상 깊은 작품들은 겨우 시험용 버전 정도였고, 어떤 의미에선 '장난감'에 가까웠다.[528] AI 연구는 70년대에 더 이상 극복할 수 없는 몇개의 근본적인 한계를 가지게 됐다.몇개의 한계를 통해 십여년 후에 극복되었고, 다른 몇 개는 오늘날까지 남아있다.[529]- 컴퓨터 능력의 한계: 정말 유용한 무언가를 이루기에는 메모리 또는 처리 속도가 충분하지 않았다. 예를 들어 로스 퀼리언(Ross Quillian)의 자연어 처리에서 성공적인 완수는 오직 20개의 단어 위에서 발휘되었는데, 이것은 메모리가 꽉 찼기 때문이었다.[530] 한스 모라벡은 1976년에 컴퓨터가 지능을 가지기엔 여전히 수백만 배 약하다고 논증했다. 그는 비유를 들었는데, AI가 컴퓨터 능력을 필요로 하는 것은 항공기가 마력을 필요로 하는 것과 같다는 것이었다. 컴퓨터 영상에 대해서, 모라벡은 간단하게 계산하여 실시간으로 사람의 망막을 모션 캡처하려면 범용 컴퓨터가 초당 10^9 명령어(1000MIPS)를 처리해야 할 것이라고 추측했다.[531] 2011년경 실용적인 컴퓨터 영상 프로그램은 10,000~1,000,000 MIPS를 요구한다. 1976년경 5백만에서 8백만 달러사이에 판매되던 가장 빠른 슈퍼컴퓨터인 Cray-1은 오직 80~130 MIPS였고, 당시 전형적인 데스크탑 컴퓨터는 겨우 1 MIPS 남짓이었다.
- 폭발적인 조합 수와 비용이성: 1972년에 리차트 카프(Hichard Karp)는 문제 해결에 지수적 시간이 요구되는 많은 문제를 보여주었다. 하찮은 문제일지라도 이런 문제의 최적의 해답을 찾는 데 상상할 수도 없는 컴퓨터의 시간이 요구되었다. 즉 지금까지 AI '장난감'에서 사용되었던 방법은 실제적으로 유용한 AI 시스템을 제작하는 데 용이하지 못했다.[532]
- 상징적 지식과 추론: 영상 처리나 자연어 처리 같은 많은 중요한 AI 프로그램은 실제 세상에 대한 간단하지만 어마어마한 양의 정보를 필요로 한다. 그래야 프로그램이 자신이 보고 있는 것이 무엇인지, 또는 자신이 듣고 있는 것이 무엇인지 아이디어를 찾을 수 있기 때문이다. 이 요구는 아기들의 세상에 대해 알아나가는 것과 유사하다. 연구가들은 곧 요구되는 정보의 양이 엄청나게 광대하다는 것을 발견했다. 1970년대의 누구도 이런 데이터가 포함된 데이터베이스를 만들지 못했고, 누구도 이런 데이터를 프로그램 혼자 터득하는 방법을 알지 못했다.[533]
- 모라벡의 역설: 이론을 제작하고 기하학적 문제를 해결하는 것은 컴퓨터에게 비교적 쉽지만, 얼굴을 인식하거나 장애물을 피해 방을 가로지르는 것은 엄청나게 어렵다. 이 설명은 왜 연구가들이 1970년대에 영상처리나 로봇에 대해 조금밖에 진전을 보이지 못했는지 아는 데 도움이 된다.[534]
- 프레임 문제, 자격 문제: 존 맥캐시와 같은 연구가들은 규칙이 규칙 스스로의 구조를 변경하지 못하면 관련 계획 또는 기본 추론 일반 공제를 나타낼 수 없다는 것을 발견했다.[535]
상징적 AI(또는 "GOFAI")는 사람들이 퍼즐을 풀고, 법적 추론을 표현하고, 수학을 할 때 사용하는 고차원적인 의식적인 추론을 시뮬레이션했습니다. 이들은 대수나 IQ 테스트와 같은 "지능적인" 작업에서 매우 성공적이었습니다. 1960년대에 뉴웰과 사이먼은 물리적 기호 체계 가설을 제안했습니다. "물리적 기호 체계는 일반적인 지능적인 행동에 필요하고 충분한 수단을 가지고 있다."[235]
하지만 상징적 접근 방식은 학습, 사물 인식 또는 상식적 추론과 같이 인간이 쉽게 해결하는 많은 작업에서는 실패했습니다. 모라벡의 역설은 고차원적인 "지능적인" 작업은 AI에게 쉬웠지만 저차원적인 "본능적인" 작업은 매우 어려웠다는 발견입니다.[236] 철학자 휴버트 드레이퍼스는 1960년대부터 주장해 왔습니다. 인간의 전문 지식은 의식적인 기호 조작이 아니라 무의식적인 본능에 의존하며, 명시적인 기호적 지식이 아니라 상황에 대한 "감각"에 의존한다고 말입니다.[237] 그의 주장은 처음 제시되었을 때 조롱당하고 무시되었지만, 결국 AI 연구는 그의 주장에 동의하게 되었습니다.
다니엘 크레비어는 "시간이 드레이퍼스의 몇몇 논평의 정확성과 통찰력을 증명했다. 그가 덜 공격적으로 주장을 제시했다면, 그가 제안한 건설적인 행동들이 훨씬 더 일찍 취해졌을 수도 있었다."라고 썼습니다.[7]
이 문제는 해결되지 않았습니다. 부상징적 추론은 알고리즘 편향과 같이 인간의 직관이 하는 것과 같은 많은 불가사의한 실수를 할 수 있습니다. 노엄 촘스키와 같은 비평가들은 일반적인 지능을 얻기 위해서는 상징적 AI에 대한 지속적인 연구가 여전히 필요하다고 주장합니다. 부분적으로 부상징적 AI는 설명 가능한 AI에서 벗어난 것이기 때문입니다. 현대 통계적 AI 프로그램이 특정 결정을 내린 이유를 이해하기 어렵거나 불가능할 수도 있습니다. 새롭게 등장하는 뉴로-심볼릭 인공지능 분야는 두 가지 접근 방식을 연결하려고 시도합니다.
3. 4. 2. 자금 지원의 중단
영국 정보나 DARPA, NRC같은 인공지능 연구자들에게 자금을 주던 기관들은 연구 진행의 부진에 실망했고 결국 AI에 관한 방향성을 가진 자금 지원을 끊었다. 1966년 기계를 이용한 번역을 비판하는 보고서가 ALPAC에 제출되었을 때부터 이런 흐름이 시작되었다. 총 2천만 달러를 지원한 NRC도 지원을 멈췄다.[536] 1973년 라이트힐 보고서는 "장대한 목표(grandios objectives)"를 성취하는 데 실패한 영국의 AI 연구의 상태에 대해 비난했고 결국 영국의 AI 연구소는 해체되었다(보고서는 특히 AI 연구의 실패의 원인이 폭발적인 조합의 수라고 언급했다[537]).[538] DARPA는 CMU의 음성을 이해하는 연구의 연구자들에게 심하게 실망했고 연간 3백만 달러의 지원을 취소했다.[539] 1974년에 이르자 AI 연구에대한 투자는 찾기 어려워졌다. 한스 모라벡은 그의 동료의 비현실적인 예측에 의한 위기를 비난했다. "많은 연구가들이 많은 연구자는 과장을 증가시키는 웹에 휘말렸다."[540] 그러나 여기엔 다른 이슈가 있다 : 1969년 맨스필드의 수정안의 통과이후, DARPA는 자금 지원에 대해 "비직접적인 기초 연구보다, 임무 완수에 직결된 연구"를 수행하라는 증가하는 압력을 받고 있었다. 창조성 높은 지원, 자유분방한 연구는 1960년대와 함께 떠났고 DARPA에서 다시 오지 않을 것이다. 대신, 자금은 자동조정 탱크나 전투 관리 시스템과 같은 분명한 프로젝트와 명확한 목표를 향할 것이다.[541]3. 4. 3. 캠퍼스 전역의 비판들
몇몇 철학자들은 인공지능 연구에 대해 강력하게 비판했다. 초기 비판자 중 한 명인 존 루커스는 괴델의 불완전성 정리를 근거로 컴퓨터 프로그램과 같은 시스템은 인간처럼 정확하게 행동할 수 없다고 주장했다.[542] 휴버트 드라이퍼스는 1960년대의 헛된 약속들을 비웃고 AI의 가정을 비판하며, 인간의 추론은 실제로는 "상징적 처리"가 거의 포함되지 않고 구현적, 본능적, 무의식적인 노하우에 의해 처리된다고 주장했다.[543][544]존 설이 1980년대에 제시한 중국어 방 문제는 프로그램이 실제로 상징을 '이해'하고 사용할 수 없음을 보여주려고 시도했다. 설은 만약 상징이 기계에게 아무 의미가 없다면, 기계는 생각하는 것이 아니라고 주장했다.[545]
이러한 비판은 AI 연구자들에게 큰 영향을 주지 못했다. 비용 이성과 상식적 지식에 관한 문제가 훨씬 더 시급하고 심각해 보였다. '노하우'와 '지향성'이 실제 프로그램을 만드는 데 어떻게 다른지가 불분명했다. 마빈 민스키는 드라이퍼스와 설을 향해 "그들은 오해했고, 무시될 것이다"라고 말했다.[546] MIT에서 가르쳤던 드라이퍼스는 냉대받았다. 그는 나중에 AI 연구자들에게 "나와 점심 식사할 용기도 없다"라고 평했다.[547] ELIZA의 제작자 조지프 와이젠바움은 그의 동료인 드라이퍼스가 전문적이지 않고 유치한 대우를 받는다고 느꼈다.
와이젠바움은 케네스 콜비가 쓴 DOCTOR와 임상 치료 챗봇에 대해 심각하게 의심하기 시작했다. 와이젠바움은 콜비가 그의 무심한 프로그램을 진지한 치료 도구로 여기는 것을 방해했다. 이 불화가 시작되고, 이 상황은 콜비가 와이젠바움을 프로그램에 대한 공로로 인정하지 않았을 때 도움이 되지 않았다. 1976년에 와이젠바움은 컴퓨터 능력과 인간 추론을 출판하며 인공 지능의 오용이 인간의 삶을 평가 절하시킬 수도 있다고 주장했다.[548]
3. 4. 4. 퍼셉트론과 연결망의 어두운 시대
1958년 마빈 민스키의 고등학교 시절 친구였던 프랭크 로젠블랫(Frank Rosenblatt)에 의해 뉴럴 네트워크 형태의 퍼셉트론이 도입되었다.[549] 다른 AI 연구자들과 마찬가지로, 그는 낙관론을 펼쳤고, "퍼셉트론은 결국 학습을 하고, 의사 결정을 하고, 언어 번역을 할 것이다"라고 예견했다.[549] 1960년대를 이끌던 패러다임 속의 연구 프로그램 수행은 1969년 민스키와 페퍼트의 책 퍼셉트론의 출판과 함께 갑자기 중지되었다.[549] 이 책은 퍼셉트론이 할 수 있는 일에 몇 가지 심각한 제한이 있음을, 또 프랭크의 예견은 심하게 과장되어 있음을 알렸다.[549] 이 책의 파급력은 압도적이었다. 향후 10년 동안 뉴럴 네트워크에 대한 거의 모든 연구가 중지되었다.[549] 결국, 뉴럴 네트워크 영역을 회복할 연구원의 새로운 세대가 그 후에 인공지능의 중요하고 유용한 부분을 내놓았다.[549] 로젠블랫은 이 책을 보지 못했는데, 그는 문제의 책이 출판되고 곧바로 보트 사고와 함께 사망했기 때문이다.[549]3. 4. 5. 깔끔이 : 논리, 프롤로그와 전문가 시스템
논리적 추론은 1958년 초에 인공지능 연구에서 존 매카시가 제안하여 도입되었다.[550] 1963년 알렌 로빈슨(J. Alan Robinson)은 간단하게 추론을 컴퓨터에 구현시키는 분해와 통일 알고리즘을 발견했다. 그러나 매카시와 그의 학생들이 60년대 후반에 했던 것과 같은 복잡하지 않은 구현은 본질적으로 다루기 힘들었는데, 간단한 정리를 증명하기 위해 천문학적 단계가 필요했다.[551] 더 성공적인 결실을 맺는 논리적 접근은 70년대 에딘벌 대학의 로버트 코왈스키(Robert Kowalski)가 개발했고 곧 프랑스의 연구가인 알라인 콜메루엘(Alain Colmerauer)과 성공적인 논리 프로그래밍 언어인 프롤로그를 만든 필립 오우셀(Philippe Roussel)과의 협업을 이끌어냈다.[552] 프롤로그는 다루기 쉬운 계산을 허용하는 논리의 부분을 사용한다. 규칙은 계속적으로 영향을 미쳤고, 에드워트 페이젠바움(Edward Feigenbaum)이 기대하던 시스템 기초를 제공했으며 알렌 뉴엘과 허버트 사이먼이 계속 연구하도록 만들었다. Soar과 인식에서의 통일 이론을 이끌었다.[553]논리적으로의 접근을 비판하는 지적은, 휴버트 드레이퍼스가 했던대로, 사람이 문제를 해결할 때 논리를 거의 사용하지 않는다는 것이었다. 피터 왓슨(Peter Waon), 엘리너 로시, 아모스 트버스키, 대니얼 카너먼을 비롯한 심리학자들이 이를 증명했다.[554] 존 매카시는 이에 대해서 이 증명이 무관하다고 답했다. 그는 정말 필요한 기계란 사람처럼 생각하는 것이 아니라 문제를 해결할 줄 아는 기계라고 일축했다.[555]
3. 4. 6. 지저분이 : 프레임과 스크립트
마빈 민스키, 시모어 페퍼트, 로저 섕크는 기계를 사람처럼 느껴지도록 만드는 "이야기 이해"와 "물체 인식" 문제를 해결하고자 했다. 이들은 "의자"나 "음식점" 같은 일반적인 개념을 사용할 때 사람들이 비논리적이지만 통용되는 가정을 한다는 점에 주목했다. 이러한 가정들은 논리적으로 표현하기 어려웠다. 제럴드 서스먼은 "본질적으로 부정확한 개념을 설명하기 위해 정확한 언어를 사용하는 순간 그들은 더 이상 부정확하다고 말할 수 없다"라고 표현했다.[556] 섕크는 이러한 "비논리적" 접근, 즉 "지저분이"가 매카시 등의 "깔끔이" 패러다임과 반대된다고 평했다.[557]1975년 세미나 보고서에서 민스키는 "지저분한" 연구자들이 상식적 가정을 포착하는 프레임워크를 사용한다고 언급했다. 예를 들어, "새"라는 개념을 떠올릴 때 "난다", "벌레를 먹는다"와 같은 사실들이 떠오르는데, 이는 항상 사실이 아니며 논리적으로 도출되지 않지만, 우리의 사고와 언어의 일부를 구성한다. 민스키는 이러한 구조를 "프레임"이라고 불렀다. 섕크는 프레임을 "스크립트"라고 칭하며, 영어로 된 짧은 이야기에 대한 답변을 가능하게 하는 데 사용했다.[558] 이후 객체지향 프로그래밍은 AI 연구에서 사용된 프레임의 '상속' 개념을 채택하게 된다.
3. 5. AI붐 (1980-1987)
1980년대에는 전문가 시스템이라고 일컫는 인공지능 프로그램의 형태가 전 세계적으로 사용되었고, 인공지능 검색에 초점이 맞춰졌다. 같은 시기에 일본 정부는 5세대 컴퓨터 프로젝트를 통해 인공지능에 적극적으로 투자하였다.[566] 1980년대에는 존 홉필드와 데이비드 루멜하트의 신경망 이론 복원이라는 또 다른 사건이 있었다.일본에서는 전문가 시스템 유행 이후 퍼지 신경망(뉴로퍼지)이 유행했다. 하지만 연구가 진행됨에 따라 계산 자원과 데이터 부족, 기호 접지 문제, 프레임 문제에 직면하여 산업의 모습을 획기적으로 바꿀 만한 AI에는 이르지 못했고, 늦어도 1994년경에는 붐이 종식되었다. 1994년 5월 25일에는 계측자동제어학회에서 제2차 AI 붐의 전모를 B5판 1391페이지에 걸쳐 학술 논문 수준의 상세도로 정리한 『뉴로・퍼지・AI 핸드북』이 출시되었다.[378] 이 책에서는 시스템, 정보, 제어 기술의 새로운 키워드인 뉴로・퍼지・AI의 기초부터 응용 사례까지를 모아 놓았다.[379]
이 당시, 1990년 2월 11일에 발매된 대히트 패미컴 게임인 『드래곤 퀘스트 IV 즐거운 나날들』에서도 최신 기술로서 학습하는 AI 탑재가 패키지에 기재되어 있는 것으로 보아, 엔터테인먼트를 통해 일반 가정에도 AI가 인지되고 침투하기 시작했음을 알 수 있다.[380] 이 AI는 패미컴으로서는 최고 수준이며, 다양한 평가치와 선행 예측 시뮬레이션과 규칙 기반을 결합하여 구축되어, 1990년이라는 디지털 게임의 AI로서는 매우 빠른 시기에 발표된 상당한 성과였다.[381]
3. 5. 1. 전문가 시스템의 발전
전문가 시스템은 특정 지식의 범위에 대해 문제를 해결해주거나 질문에 대답해주는 프로그램이며 전문가의 지식에서 파생 된 논리적 법칙을 사용하였다. 최초의 실험은 1965년 에드워드 파이젠바움과 '''레더버그에 의해''' Dendral이 시작하였고 이것은 분광계로부터 화합물을 식별하는 실험이었다. MYCIN은 1972년에 개발되었고 전염되는 혈액 질환을 진단하였다. 이러한 접근법(실험)은 타당성이 입증되었다.[559]전문가 시스템은 소규모의 지식 영역에 대해서는 스스로 제한을 둠으로써 상식 문제를 피하였다. 그리고 그들의 단순한 디자인은 프로그램을 만드는 것을 상대적으로 쉽게 하였다. 모든 프로그램은 유용성이 입증되어야 하지만 인공지능은 이 점을 달성할 수 없었다.[560]
1980년, XCON이라 불리는 전문가 시스템은 디지털 장비 회사인 CMU에서 완성되었다. 이 시스템은 매년 4천만 달러를 절약시켜주며 매우 큰 성과를 나타냈다.[561] 전 세계의 회사들은 1985년에 1억 달러 이상을 AI에 사용하여 이를 개발하고 전문가 시스템을 배포하였다. Symbolics, Lisp Machines과 같은 하드웨어 회사와 IntelliCorp, Aion 등의 소프트웨어 회사들이 이를 지원하면서 같이 성장하였다.[562]
3. 5. 2. 지식 혁명
전문가 지식들을 포함하면서 전문가 시스템의 힘은 두각을 나타내었다. 이것은 1970년대 내내 연구하였던 인공지능 연구 기법의 새로운 방향 중 일부분이었다. “AI 과학자들은 지능이란 것이 다른 방법들로 많은 양의 다양한 지식들을 사용하는 능력에 기반한 것이라고 의심하기 시작했다.”[563] 지식 기반 시스템과 지식 공학은 1980년대 AI 연구자들의 메인 포커스가 되었다.[564]3. 5. 3. 돈은 되돌아온다 : 5세대 프로젝트
1981년, 일본의 국제 무역 및 산업 부서(현 경제산업성)는 5세대 컴퓨터 프로젝트를 위해 8억 5천만 달러를 확보했다.[566] 이들의 목표는 기계가 사람처럼 프로그램을 작성하고, 대화를 수행하며, 언어를 번역하고, 그림을 해석할 수 있는 시스템과 언어를 개발하는 것이었다. 이들은 프로젝트를 위한 기본 컴퓨터 언어로 Prolog를 선택했다.[566]다른 나라들도 독자적인 프로그램을 개발했다. 영국은 3억 5천만 달러를 들여 Alvey 프로젝트를 시작했다.[567] 미국 회사들의 컨소시엄은 정보 기술과 인공지능 분야의 대규모 프로젝트에 투자하기 위해 마이크로 전자공학과 컴퓨터 기술 협력(Microelectronics and Computer Technology Corporation)이라는 형태를 취했다.[567][568] 또한 1984년부터 1988년 사이에 미국 국방고등연구계획국(DARPA)은 전략적 컴퓨팅 계획(Strategic Computing Initiative)을 설립하고 인공지능에 대한 투자를 세 배로 늘렸다.[569] 일본의 막대한 투자에 미국과 영국이 크게 자극받아 인공지능 연구에 뛰어든 것은 냉전 시대 기술 경쟁의 한 단면을 보여준다. 특히, 일본이 인공지능 개발에 적극적으로 나선 것은 한국의 정보통신 산업 발전에도 적지 않은 영향을 미쳤다고 볼 수 있다.
3. 5. 4. 신경망 이론의 복귀
1982년, 물리학자 존 홉필드(John Hopfield)는 (현재 ‘홉필드 넷’이라고 불리는) 완전히 새로운 방식으로 정보를 처리하고 배울 수 있는 신경망의 형태를 증명해냈다. 같은 시기에, 데이비드 루멜하트(David Rumelhart)는 (폴 워보스(Paul Werbos)에 의해 발견된) “역전파”라고 불리는 신경망을 개선하기 위한 새로운 방법을 알리고 있었다. 이러한 두 가지 발견은 1970년 이후 버려진 신경망 이론이라는 분야를 복구시켰다.[570][571]3. 6. AI의 두번째 암흑기 1987-1993
1980년대 후반, 전문가 시스템에 대한 과도한 기대와 실망, 그리고 특화된 AI 하드웨어 시장의 붕괴는 인공지능 연구에 다시 한번 침체기를 가져왔다.1974년, 전문가 시스템에 대한 열광적인 기대와 달리 실망스러운 결과들이 나타나면서, 투자가 중단되고 "AI 겨울"이라는 용어가 생겨났다.[574]
1987년에는 특화된 AI 하드웨어 시장이 갑작스럽게 붕괴되었다. 애플과 IBM의 데스크톱 컴퓨터 성능이 급격히 향상되면서, Symblics와 같은 회사들이 만든 고가의 Lisp 기기들보다 더 나은 성능을 제공하게 되었다. 이로 인해 Lisp 기기들의 존재 가치가 사라졌고, 1억 달러 규모의 시장이 하룻밤 사이에 붕괴되었다.[575]
최초의 성공적인 전문가 시스템인 XCON은 유지 비용이 너무 비싸고, 업데이트가 어려우며, 학습 능력이 부족하다는 문제점을 드러냈다. 또한, 일반적이지 않은 질문에 비정상적인 응답을 하는 "brittle" 문제로 인해, 결국 특수한 경우에만 유용하다는 한계를 보였다.[576]
1980년대 후반, Strategic Computing Initiative는 인공지능 투자를 삭감하는 데 큰 영향을 미쳤다. DARPA의 새로운 리더십은 인공지능이 "다음 파도"가 아니라고 판단하고, 즉각적인 결과를 낼 수 있는 프로젝트에 투자를 집중했다.[577]
1991년, 일본의 5세대 프로젝트는 1981년에 설정했던 목표를 달성하지 못했다. 대화를 계속 이어나가는 것과 같은 일부 목표는 2010년까지도 달성되지 못했다. 다른 인공지능 프로젝트와 마찬가지로, 기대가 실제 가능했던 것보다 훨씬 컸다.[578] 이러한 상황은 일본의 경제에 악영향을 주었으며, 잃어버린 10년의 원인 중 하나가 되었다.
한편, 1980년대 후반, 로드니 브룩스와 Hans Moravec와 같은 로봇 공학 연구자들은 인공지능에 대한 완전히 새로운 접근 방식을 주장하였다.
3. 6. 1. 몸통을 갖는 것의 중요성: Nouvellle AI and embodied reason
1980년대 후반, 몇몇 연구원들은 로봇 공학을 기반으로 인공지능에 대한 완전히 새로운 접근법을 지지했다.[579] 이들은 실제 지능을 보여주려면 기계에도 몸통이 필요하다고 믿었다. 즉, 기계 또한 이 세상에서 인식하고, 이동하고, 살아남고, 거래할 수 있어야 한다는 것이다. 이들은 이러한 감각 운동 기술이 상식적인 추론과 같은 더 높은 단계의 기술에 필요하며, 실제로 추상적인 추론은 인간의 가장 흥미롭거나 중요한 기술이 아니라고 보았다. 그래서 이들은 지능을 아래에서부터 구축해야 한다고 주장했다.[580]1990년에 발표된 논문 "Elephants Don't Play Chess"에서, 로봇 공학 연구자인 로드니 브룩스는 물리적 심볼 시스템 가설에 직접적으로 초점을 맞추어 심볼들이 항상 필요한 것은 아니라고 주장했다. 그는 "세계는 그 자체만으로 가장 훌륭한 모델이다. 이것은 항상 최신이며 모든 세부사항이 존재한다. 비결은 적절히 그리고 충분히 자주 감지하는 것이다."라고 말했다.[582] 80년대와 90년대에 많은 인지 과학자들 또한 사고방식의 심볼 처리 모델을 거부하고 추론에 몸통이 필수적이라고 주장했으며, 이러한 이론을 엠바디드 마인드/embodied mind영어 이론이라고 불렀다.[583]
3. 7. AI 1993-현재
AI는 1990년대부터 실용적인 문제 해결에 집중하며 괄목할 만한 성장을 이루었다. 특히 컴퓨터 성능 향상과 새로운 패러다임의 등장은 이러한 발전을 가속화했다.1997년 5월 11일, 딥 블루는 체스 세계 챔피언 가리 카스파로프를 꺾은 최초의 컴퓨터가 되었다.[586] 2005년에는 스탠퍼드 대학교의 로봇이 DARPA 그랜드 챌린지에서 사막 도로 131마일을 자율 주행하여 우승했고,[587] 2년 뒤 카네기 멜론 대학교(CMU) 팀은 DARPA 도시 챌린지에서 교통 법규를 준수하며 55마일을 자율 주행했다.[588] 2011년 2월, 왓슨은 퀴즈쇼 제퍼디!에서 인간 챔피언들을 압도적으로 이겼다.[589] 이러한 성과는 숙련된 엔지니어들의 기술과 컴퓨터 성능의 발전 덕분이었다.[590] 무어의 법칙에 따라 컴퓨터 성능은 꾸준히 향상되었고, 이는 AI 발전의 중요한 기반이 되었다.[591]
1990년대에는 '지능형 에이전트'라는 새로운 패러다임이 등장했다.[592] 이는 주데아 펄, 앨런 뉴얼 등 연구자들이 결정론과 경제성 개념을 도입하면서 구체화되었다.[594] 지능형 에이전트는 환경을 인식하고 성공 확률을 최대화하는 행동을 하는 시스템으로, 인간, 조직, 간단한 프로그램까지 포함하는 개념이다. 이는 AI 연구를 "지능형 에이전트에 대한 연구"로 정의하며, 인간 지능을 넘어선 모든 종류의 지능 연구를 포괄한다.[595] 지능형 에이전트 패러다임은 연구자들이 고립된 문제에 대한 다양하고 유용한 해결책을 찾도록 도왔고, 경제학, 제어 이론 등 다른 분야와의 협력도 촉진했다.[596]
AI 연구자들은 과거보다 정교한 수학적 도구를 활용하기 시작했다.[599] 주데아 펄의 1988년 저서는 결정론과 확률을 AI에 도입하는 데 큰 영향을 주었다.[602] 베이즈 네트워크, 숨겨진 마르코프 모델, 정보 이론, 확률론적 모델링 등 새로운 도구들이 활용되었고, 신경망 네트워크와 진화 알고리즘과 같은 연산 지능적 패러다임을 위한 정밀한 수학적 모형도 개발되었다.[603]
추론, 계획, 학습, 지각, 로봇공학 등 AI의 여러 문제에서 불확실한 정보를 다루기 위해 확률 이론과 경제학의 방법이 사용되었다.[52] 의사결정 이론, 의사결정 분석,[53] 정보 가치 이론[54] 등이 활용되었고, 마르코프 의사결정 과정,[55] 동적 의사결정 네트워크,[61] 게임 이론, 메커니즘 디자인[56]과 같은 모델이 개발되었다. 베이즈 네트워크[57]는 추론,[58] 학습,[59] 계획,[60] 지각[61] 등에 사용되었다. 확률적 알고리즘은 지각 시스템이 시간에 따라 발생하는 프로세스를 분석하는 데 도움을 주었다(예: 숨겨진 마르코프 모델, 칼만 필터).[61]

AI는 데이터 마이닝, 산업 로봇공학, 논리학,[605] 음성 인식,[606] 은행 소프트웨어,[607] 의학적 진단, 구글 검색 엔진[608] 등 여러 기술 산업[609]에 활용되며 어려운 문제들을 해결했다.[604] 그러나 이러한 성과에도 불구하고 AI 분야는 낮은 신뢰를 받았다. 많은 혁신이 컴퓨터 과학의 도구로 여겨졌고,[610] 1990년대 많은 연구자들은 투자 유치 등을 위해 프로젝트를 다른 이름으로 불렀다. 2005년 뉴욕 타임즈는 컴퓨터 과학자와 소프트웨어 엔지니어들이 인공지능이라는 용어를 피했다고 보도했다.[612][613][614]
일본 기상청은 1977년부터 기상 수치 모델 보정에 기계 학습을 활용했다.[394] 칼만 필터, 로지스틱 회귀, 선형 중회귀, 클러스터링 등이 사용되었다. 또한 베이즈 추정, 마르코프 연쇄 몬테카를로 방법, 가우스 과정 회귀 등을 통해 지진 관련 예측 및 감지 능력을 향상시켰다.[395]
2005년, 레이 커즈와일은 저서에서 2045년경 기술적 특이점이 도래할 것이라고 주장했다.
2010년대에는 빅데이터 처리 환경이 갖춰지면서 AI 연구가 다시 크게 발전했다. 2010년 영국 이코노미스트지는 "빅데이터"라는 용어를 제창했고, 왓슨은 퀴즈 프로그램 제퍼디!에서 인간을 이겼다.[396]
2013년, 국립정보학연구소와 후지쓰 연구소 연구팀은 "동로보쿤"이 도쿄대학 입시 모의고사에 도전했다고 발표했다. 요요기제미나르는 "도쿄대 합격은 어렵지만 사립대학에는 합격할 수준"이라고 평가했다.[397]
2015년 10월, 딥마인드는 알파고를 개발하여 인간 프로 바둑 기사를 꺾었다.[398] 이후 심층 학습이 주목받기 시작했다.
2016년 10월, 딥마인드는 디퍼렌셔블 뉴럴 컴퓨터를 발표했고,[399] 11월에는 원샷 학습을 가능하게 하는 심층 학습 시스템을,[400] 2017년 6월에는 관계 추론 능력을 가진 시스템을 개발했다.[401] 2017년 8월에는 심볼 그라운딩 문제를 해결했다.[402]
AI는 불완전 정보 게임인 포커에서도 인간을 이겼다.[403] 구글은 단일 소프트웨어로 100만 종류 이상의 작업을 실행 가능한 AI를 개발 중이라고 밝혔다.[404]
2020년에는 OpenAI가 '''Transformer'''를 채택한 GPT-3을 개발, Reddit에서 사람과 대화를 이어갔다.[411] DeepMind는 AlphaFold2로 단백질 구조 예측에서 큰 성과를 거두었다.[412]
최첨단 AI 연구에서는 2년마다 1000배 크기의 모델이 등장하고 있다.[413] 2020년 시점에서 일부 AI 알고리즘 발전은 정체되었다는 메타 분석도 있다.[414]
2021년 4월, NVIDIA는 수년 내에 100조 매개변수를 가진 AI 모델이 등장할 것이라고 예상했다.[415] 5월, 마이크로소프트 리서치는 32조 매개변수의 AI를 시험했다.[416] 6월, 중국은 1조 7500억 개 매개변수를 가진 "우다오 2.0"을 발표했다.[417]
2021년 6월, 구글은 강화 학습을 통해 인간보다 우수한 칩(TPU 4.0) 플로어플랜을 생성했다.[418] 8월, 하르트무트 네벤은 양자 컴퓨터 발전이 AI에 큰 영향을 미칠 것이라고 언급했다.[419]
2021년 8월, DeepMind는 범용 심층 학습 모델 "'''Perceiver'''"를 개발했다.[420] 10월, Google Brain은 다중 모달 AI 모델 "'''Pathways'''"를 개발 중이라고 발표했다.[421]
2022년, 대규모 신경망에 의식이 존재하는지에 대한 논쟁이 일어났다.[422] 2월, DeepMind는 "'''AlphaCode'''"를 발표했다.[423] 4월, Google은 범용 언어 모델 '''PaLM'''을 완성했다.[424] 이후, '''Minerva'''[425]와 '''Parti'''[426]를 발표했다.
2022년 5월 12일, DeepMind는 통합 모델 "'''Gato'''"를 발표했다.[427] Nando de Freitas는 "지금은 규모가 전부입니다"라고 주장했지만,[428] 과장 광고라는 비판도 있다.[429]
2022년 5월, Google 챗봇 LaMDA 시험에 참가한 엔지니어 블레이크 레모인은 LaMDA에 의식이 있다고 주장했지만, Google로부터 정직 처분을 받았다.[430]
2022년 8월, 이미지 생성 AI Midjourney의 작품이 미술품 평가회에서 우승했다.[431] 10월, DeepMind는 행렬 곱셈 알고리즘을 도출하는 "'''AlphaTensor'''"를 개발했다.[432]
2022년 11월 30일, OpenAI가 ChatGPT를 출시하며 '''제4차 AI 붐'''이 시작되었다는 의견이 있다.[264][434]
2022년 12월, Google은 "'''Flan-PaLM'''"을 개발, 미국 의사 면허 시험 등에서 높은 성적을 기록했다. 로봇 행동 학습 모델 "'''Robotics Transformer 1(RT-1)'''"도 개발했다.[436]
2023년 1월 11일, DeepMind는 "'''DreamerV3'''"를 발표했다.[437] 5월 11일, 일본 정부는 "AI 전략 회의" 첫 회의를 열었다.[438] 12월, Google은 "'''Gemini'''"를 발표했다.[439]
2024년 5월, OpenAI는 '''GPT-4o'''를 ChatGPT에 구현했다.[440]
2018년경에는 AI가 육체 노동, 단순 작업을 대체하고 예술적·창조적 작업은 인간의 영역으로 남을 것이라는 예상이 있었지만,[441][442] 2020년대 초반부터 AI는 예술 분야에 빠르게 진출하고 있다. 번역, 의사 결정, 법률 상담 등 고도의 기술 분야에도 응용되고 있다.[446][443] 2023년 시점에서 육체 노동, 단순 작업 활용은 자동 창고 제어,[444] 바둑 기보 작성[445] 등에 그치고 있다. 테슬라는 이족 보행 로봇Tesla Bot에 범용 인공지능을 탑재하여 단순 노동을 담당하게 할 계획이다.
인공지능은 현재 질의응답, 의사결정 지원, 수요 예측, 음성 인식, 음성 합성, 기계 번역, 과학 기술 계산, 문서 요약 등 다양한 분야에 활용되고 있다.[446][447][253][448]
3. 7. 1. 성공 사례와 무어의 법칙
1997년 5월 11일, 딥 블루는 당시 체스 세계 챔피언이던 가리 카스파로프를 이긴 최초의 체스 플레이 컴퓨터가 되었다.[586] 2005년 스탠퍼드의 로봇은 DARPA 그랜드 챌린지에서 연습해 보지 않은 사막 도로 131마일을 자동으로 운전하여 우승하였다.[587] 2년 뒤, CMU의 한 팀은 DARPA 도시 챌린지에서 모든 교통 법규를 지키고 교통 혼잡 속에서 자동으로 55 마일의 길을 찾았다.[588] 2011년 2월, 퀴즈 쇼 Jeopardy!에 출전한 IBM의 응답 시스템 왓슨은 상당히 여유롭게 두 챔피언을 이겼다.[589]이러한 인공지능 프로그램들의 성공은 혁신적인 새로운 패러다임 때문이 아니라, 숙련된 엔지니어들의 기술과 매우 뛰어난 성능을 가진 오늘날의 컴퓨터 덕분이었다.[590] 실제로, Deep Blue의 컴퓨터는 1951년 Christopher가 체스 하는 법을 가르친 마크 1보다 1천만 배 빨랐다.[591] 이 엄청난 성능 향상은 무어의 법칙에 의해 측정되는데, 무어의 법칙은 2년마다 컴퓨터의 메모리 속도와 양이 두 배씩 늘어난다는 이론이다. 컴퓨터 성능의 근본적인 문제는 느리지만 서서히 극복되고 있었다.
3. 7. 2. 지능형 에이전트
1990년대 동안에는 ‘지능형 에이전트’라고 불리는 새로운 패러다임이 다 방면에서 수용되고 있었다.[592] 이전의 연구자들이 'divide and conquer' 모듈러를 제안하고 AI에 접근하였지만,[593] 지능형 에이전트는 Judea Pearl, Allen Newell 등 다른 이들이 AI를 연구하는데 있어서 결정론과 경제성이라는 개념을 가져오기 전까지 현대식 형태를 갖추지 못했다.[594] 경제학자들의 합리적 에이전트라는 정의와 컴퓨터 과학자들의 객체 혹은 모듈러 정의가 합쳐졌을 때 지능형 에이전트의 패러다임이 완성되었다.지능형 에이전트 시스템은 환경을 인식하고 성공을 가장 극대화할 수 있는 행동을 취한다. 이러한 정의에 의하면 인간과 인간의 조직처럼, 예를 들어 회사처럼 특정 문제를 해결하는 간단한 프로그램을 지능형 에이전트라고 한다. 지능형 에이전트는 AI 연구자를 “the study of intelligent agents"로 정의한다. 이것은 AI의 정의의 일부를 일반화한 것이다. 이것은 인간의 지능을 넘어 모든 종류의 지능의 연구를 추구한다.[595]
이러한 패러다임은 당시 연구자들이 고립 문제에 대해 연구하고 다양하고 유용한 해결법을 찾도록 해주었다. 또한 서로서로 문제와 해결책을 공통의 언어로 표현하였고 추상적 에이전트를 사용한 경제학이나 제어 이론 등과 같은 다른 개념에도 사용되었다. 어떤 연구자들은 지능형 에이전트의 상호 작용에서 더 다양하고 지능적인 시스템을 만들기로 하였고 완전한 에이전트 아키텍처가 되기를 바랐다.[596] 이것이 21세기의 보편적인 교과서들이 인공 지능을 정의하는 방식이다.[597][598] "작용자"는 세상을 인지하고 행동하는 모든 것을 의미한다. 합리적 작용자는 목표 또는 선호도를 가지고 있으며, 이를 달성하기 위해 행동한다.
3. 7. 3. 깔끔함의 승리
AI 연구자들은 과거보다 더욱 정교한 수학적 도구를 사용하여 개발하기 시작했다.[599] AI가 해결해야 할 많은 문제들이 수학, 경제학, 오퍼레이션 연구 등의 분야에서 이미 연구되고 있었고, 공유된 수학적 언어는 여러 분야 간의 협력, 좋은 평판, 측정 및 증명이 가능한 결과들의 성취를 이끌어냈다. AI는 더욱 엄격한 과학 학문이 되었다.이는 혁명 그 자체였으며 "깔끔함"의 승리였다.[600][601]
주데아 펄의 1988년 저서는 AI에 결정론과 확률을 도입하는데 큰 영향을 주었다.[602] 베이즈 네트워크, 숨겨진 마르코프 모델, 정보 이론, 확률론적 모델링과 같은 새로운 도구들과 기존의 고전적 방법들이 최적화되었다. 신경망 네트워크와 진화 알고리즘과 같은 연산 지능적 패러다임을 위한 더 정밀한 수학적 모형이 개발되었다.[603]
추론, 계획, 학습, 지각, 로봇공학 등 인공지능(AI)의 많은 문제에서 에이전트는 불완전하거나 불확실한 정보를 가지고 동작해야 한다. AI 연구자들은 확률 이론과 경제학의 방법을 사용하여 이러한 문제를 해결하기 위한 여러 도구를 고안했다.[52] 의사결정 이론, 의사결정 분석[53] 및 정보 가치 이론[54]을 사용하여 에이전트가 어떻게 선택하고 계획할 수 있는지 분석하는 정확한 수학적 도구가 개발되었다. 이러한 도구에는 마르코프 의사결정 과정[55], 동적 의사결정 네트워크[61], 게임 이론 및 메커니즘 디자인[56]과 같은 모델이 포함된다.
베이즈 네트워크[57]는 추론( 베이즈 추론 알고리즘 사용),[58] 학습( 기대-최대화 알고리즘 사용),[59] 계획(의사결정 네트워크 사용)[60] 및 지각(동적 베이즈 네트워크 사용)[61]에 사용할 수 있는 도구이다.
확률적 알고리즘은 데이터 스트림에 대한 필터링, 예측, 평활화 및 설명 찾기에도 사용할 수 있으므로 지각 시스템이 시간에 따라 발생하는 프로세스(예: 숨겨진 마르코프 모델 또는 칼만 필터)를 분석하는 데 도움이 된다.[61]
3. 7. 4. 조용한 발전
AI 연구자들이 최초로 개발한 알고리즘은 거대한 시스템의 일부로 나타나기 시작했다. AI는 매우 어려운 문제[604]들을 해결했고 데이터 마이닝, 산업 로봇공학, 논리학[605], 음성 인식[606], [151]은행 소프트웨어,[607]의학적 진단, 구글 검색 엔진[608] 등 여러 기술들은 기술 산업[609]에 매우 유용하다는 것이 증명되었다.AI 분야는 이러한 성공에 대해 매우 낮은 신뢰를 받았다. AI의 훌륭한 혁신 중 대부분은 컴퓨터 과학의 도구에서 또 다른 기능으로 세분화되었다.[610]Nick Bostrom은 "A lot of cutting edge AI has filtered into general applications, often without being called AI because once something becomes useful enough and common enough it's not labeled AI anymore."라고 말했다.[611]
1990년대 AI 분야의 많은 연구자들이 고의로 자신의 프로젝트를 다른 이름으로 불렀다. 일부 이러한 현상은 그들의 분야가 AI와 근본적으로 다르다고 여겼기 때문이거나 또는 새로운 이름이 투자받기 쉬웠기 때문일 것이라고 한다. 적어도 상업 분야에서는 연구자에 대해 AI winter에 있었던 실패했던 계약이 꼬리표처럼 따라다녔고 2005년에 뉴욕 타임즈에서는 “컴퓨터과학과 소프트웨어 엔지니어들은 광기에 싸인 몽상가처럼 보일 두려움 때문에 인공지능이란 용어를 피했다.” 라고 소개되었다.[612][613][614]
4. 인공지능의 응용 분야
인공지능은 검색 엔진(예: 구글 검색), 온라인 광고 타겟팅, 추천 시스템(넷플릭스, 유튜브 또는 아마존에서 제공), 인터넷 트래픽 유도, 타겟 광고(애드센스, 페이스북), 가상 비서(예: 시리 또는 알렉사), 자율 주행 차량(여기에는 드론, ADAS 및 자율 주행 자동차 포함), 자동 언어 번역(마이크로소프트 번역기, 구글 번역), 안면 인식(애플의 페이스 ID 또는 마이크로소프트의 딥페이스와 구글의 페이스넷) 및 이미지 라벨링(페이스북, 애플의 아이포토 및 틱톡에서 사용) 등 2020년대 필수 응용 프로그램의 대부분에 사용됩니다. 인공지능의 배치는 최고 자동화 책임자(CAO)가 감독할 수 있습니다.
다른 많은 시스템들이 한때 인공지능의 활발한 연구 주제였던 기술들에 바탕을 두고 만들어졌다. 그 예들은 다음과 같다:
- 체스를 두는 컴퓨터인 딥 블루(Deep Blue)의 성능 향상 버전(비공식적 명칭: 디퍼 블루(Deeper Blue)이 당시 세계 체스 챔피언 가리 카스파로프를 물리쳤다. (1997년)
- 체커스 게임에서 Chinook은 사람과 기계를 통합한 세계 챔피언을 차지했다. (1994년)
- 불확실한 상황에서 추론을 수행하는 기술인 퍼지 논리가 공장의 제어 시스템에서 광범위하게 사용되고 있다.
- 전문가 시스템이 산업적으로 이용되고 있다.
- 아직은 인간 번역사에 미치지 못하지만, 시스트란(Systran)과 같은 자동번역기가 광범위하게 사용되고 있다.
- 인공신경망이 침입 탐지 시스템에서 컴퓨터 게임까지 다양한 분야에 사용되고 있다.
- 광학 문자 판독 시스템은 무작위로 생성된 타자 문서를 텍스트 형태로 변환시킬 수 있다.
- 필기체 인식 시스템이 수백만의 PDA에서 사용되고 있다.
- 음성 인식 기술은 상업적으로 이용 가능하고 광범위하게 적용되고 있다.
- 컴퓨터 대수 시스템인 매스매티카나 Macsyma와 같은 시스템들은 흔하게 사용되고 있다.
- Machine vision 시스템들이 하드웨어 검사나 보안분야와 같은 다양한 산업 현장에서 이용되고 있다.
인공지능 분야와 과학 소설 분야에서는 인공지능 시스템이 인간 전문가의 판단을 대체하리라는 예상이 계속해서 제기되어 왔다. 오늘날에는 몇몇 공학이나 의약 조제 같은 특정 분야에서 전문가 시스템이 인간 전문가의 판단을 보조하거나 대체하고 있다.
의료 및 의학 연구에 인공지능(AI)을 적용하면 환자 치료와 삶의 질을 향상시킬 수 있다.[81] 히포크라테스 선서의 관점에서 볼 때, 의료 전문가는 AI를 사용하여 환자를 더 정확하게 진단하고 치료할 수 있다면 윤리적으로 AI를 사용해야 한다.[82][83]
의학 연구에서 AI는 빅데이터를 처리하고 통합하는 중요한 도구입니다. 이는 오가노이드 및 조직 공학 개발에 특히 중요하며, 이러한 개발은 제작 과정에서 핵심 기술로 현미경 영상을 사용한다.[84] AI가 다양한 연구 분야에 할당된 자금의 불균형을 해소할 수 있다는 제안이 있었다.[84] 새로운 AI 도구는 생의학적으로 관련된 경로에 대한 이해를 심화시킬 수 있습니다. 예를 들어, 알파폴드 2(2021)는 몇 달이 아니라 몇 시간 만에 3차원 단백질 구조를 근사할 수 있는 능력을 보여주었습니다.[85] 2023년에는 AI 기반 약물 발견이 두 가지 유형의 약물 내성 박테리아를 죽일 수 있는 항생제 계열을 찾는 데 도움이 되었다는 보고가 있었습니다.[86] 2024년 연구자들은 기계 학습을 사용하여 파킨슨병 치료제 검색을 가속화했습니다. 그들의 목표는 알파-시누클레인(파킨슨병을 특징짓는 단백질)의 응집 또는 집합을 차단하는 화합물을 식별하는 것이었습니다. 그들은 초기 선별 과정을 10배 속도를 높이고 비용을 1,000배 줄일 수 있었습니다.[87][88]
의료 현장에서는 AI가 많이 활용되고 있으며, 가장 빨리 도입된 것은 영상 진단이라고 알려져 있다. 엑스선이나 MRI 영상의 이상 부분을 감지함으로써 질병의 누락 발견과 조기 발견에 도움이 되고 있다. 또한, AI가 차트의 기록 내용과 환자의 문진 결과 등을 분석할 수 있도록 자연어 처리 기술의 발전도 진행되고 있다. 앞으로는 게놈 분석에 의한 질병 진단, 레セプト(진료비 청구서)의 자동 작성, 신약 개발 등이 가능해질 것으로 기대되고 있다.[298]
또한, 증례가 적은 희귀 질환의 경우, 환자의 개인 정보 보호가 중요해지므로, 데이터를 암호화한 상태로 통계 분석을 수행하는 안전한 연산 기술에 AI를 활용하여 데이터의 전처리, 학습, 추론을 할 수 있도록 하는 연구가 진행되고 있다.[299]
|}}
1950년대부터 게임 플레이 프로그램은 인공지능의 가장 발전된 기술을 시연하고 시험하는 데 사용되어 왔다.[96] 딥 블루는 1997년 5월 11일 세계 체스 챔피언인 가리 카스파로프를 이긴 최초의 컴퓨터 체스 시스템이 되었다.[97] 2011년, ''제퍼디!'' 퀴즈쇼 시범 경기에서 IBM의 질의응답 시스템, 왓슨은 ''제퍼디!''의 두 최고 챔피언인 브래드 러터와 켄 제닝스를 상당한 차이로 물리쳤다.[98] 2016년 3월, 알파고는 바둑 챔피언 이세돌과의 대결에서 5판 중 4판을 이겨 바둑에서 프로 바둑 기사를 핸디캡 없이 이긴 최초의 컴퓨터 바둑 시스템이 되었다. 그리고 2017년에는 세계 최고의 바둑 기사인 커제를 꺾었다.[99] 다른 프로그램들은 불완전 정보 게임, 예를 들어 포커 플레이 프로그램 플루리버스를 처리한다.[100] 딥마인드는 체스, 바둑 또는 아타리 게임을 플레이하도록 훈련될 수 있는 강화 학습 모델인 뮤제로와 같이 점점 더 일반적인 모델을 개발했다.[101] 2019년, 딥마인드의 알파스타는 지도에서 일어나는 일에 대한 불완전한 지식을 포함하는 특히 어려운 실시간 전략 게임인 스타크래프트 II에서 그랜드마스터 수준에 도달했다.[102] 2021년, 인공지능 에이전트가 플레이스테이션 그란 투리스모 대회에 참가하여 심층 강화 학습을 사용하여 세계 최고의 그란 투리스모 드라이버 4명을 이겼다.[103] 2024년, 구글 딥마인드는 화면 출력을 관찰하여 이전에 본 적 없는 9개의 오픈월드 비디오 게임을 자율적으로 플레이하고 자연어 명령에 따라 짧고 구체적인 작업을 실행할 수 있는 SIMA라는 유형의 AI를 소개했다.[104]
바둑 AI는 인간끼리, AI끼리의 대국으로부터 학습하여 새로운 전법을 만들어내고 있지만, 프로 기사(인간)의 감각으로는 불가해하지만 실제로 두어보면 유용하다는 점이 있다.
수학에서는 공식적인 단계별 추론의 특수한 형태가 사용된다.[105] 반면, ''GPT-4 Turbo'', ''Gemini Ultra'', ''Claude Opus'', ''LLaMa-2'' 또는 ''Mistral Large''와 같은 대규모 언어 모델(LLM)은 확률적 모델로 작동하며, 환각 형태의 잘못된 답을 생성할 수 있다. 따라서 이러한 모델은 학습할 수 있는 방대한 수학 문제 데이터베이스뿐만 아니라, 새로운 문제에 대한 답변을 개선하고 수정 사항으로부터 학습하기 위한 지도 학습 미세 조정 또는 사람이 주석을 단 데이터로 훈련된 분류기와 같은 방법도 필요하다.[106] 2024년 연구에 따르면 일부 언어 모델의 경우 훈련 데이터에 포함되지 않은 수학 문제를 푸는 추론 능력의 성능이 낮았으며, 훈련 데이터와 약간만 차이가 나는 문제에서도 그러했다.[107]
대안적으로, 정리 증명을 포함하여 결과에 대한 정확도가 더 높은 수학 문제 해결을 위한 전용 모델들이 개발되었는데, 여기에는 Google DeepMind의 ''Alpha Tensor'', ''Alpha Geometry'', ''Alpha Proof''[108], eleuther의 ''Llemma''[109] 또는 ''Julius''가 있다.[110]
자연어를 사용하여 수학 문제를 설명할 때, 변환기는 이러한 프롬프트를 Lean과 같은 형식 언어로 변환하여 수학적 과제를 정의한다.
일부 모델은 까다로운 문제를 해결하고 벤치마크 테스트에서 좋은 결과를 얻도록 개발되었고, 다른 모델은 수학 교육 도구로 사용되도록 개발되었다.[111]
금융은 인공지능(AI) 도구가 가장 빠르게 도입되고 있는 분야 중 하나입니다. 소매 온라인뱅킹부터 투자 자문 및 보험에 이르기까지, 자동화된 "로보 어드바이저(robot advisers)"가 수년 동안 사용되어 왔습니다.[112]
세계 연금 전문가인 니콜라스 피르즐리(Nicolas Firzli)와 같은 전문가들은 AI 기반의 혁신적인 금융 상품 및 서비스가 등장하기에는 아직 이르다고 주장합니다. "AI 도구의 도입은 단순히 일들을 더 자동화할 뿐입니다. 이 과정에서 은행, 재무 계획 및 연금 자문 분야에서 수만 개의 일자리가 사라질 것입니다. 하지만 그것이 [예를 들어, 정교한] 연금 혁신의 새로운 물결을 일으킬 것이라고는 확신할 수 없습니다."[113]
다양한 국가들이 AI 군사 기술을 배치하고 있다.[114] 주요 응용 분야는 지휘통제, 통신, 센서, 통합 및 상호운용성을 강화하는 것이다.[115] 연구는 정보 수집 및 분석, 물류, 사이버 작전, 정보 작전, 그리고 반자율 및 자율 주행 차량을 목표로 하고 있다.[114] AI 기술은 센서와 효과기의 조정, 위협 탐지 및 식별, 적 위치 표시, 표적 획득, 유인 및 무인 팀이 포함된 네트워크 전투 차량 간의 분산된 합동 화력의 조정 및 충돌 방지를 가능하게 한다.[115]
AI는 이라크, 시리아, 이스라엘 및 우크라이나의 군사 작전에 사용되어 왔다.[114][116][117][118]
AI를 탑재한 수확 로봇을 도입함으로써, 중노동인 농작업의 부담을 줄이거나, 병해충이 발생한 곳을 AI로 정확하게 찾아내어 농약 살포량을 최소한으로 줄일 수 있다. 또한, AI로 사전에 수확량을 정확하게 예측할 수 있다면 출하량 조정에도 도움이 된다.[300]
구글(Google)은 농작물 스캐닝과 생육 기록을 수행하는 농업 AI 로봇 "Don Roverto"를 개발했다. 많은 묘목의 개체 식별을 수행하고 실험을 반복함으로써, 열악한 환경에서도 견딜 수 있는 기후 변화에 강한 종자를 즉시 찾아낼 수 있다.[301]
또한, 세계적인 관심과 사회 공헌이라는 관점에서도 인공지능은 국제연합(UN)이 추진하는 지속가능발전목표(SDGs) 달성에 기여할 수 있다.[302]
}}
어린이의 온라인 안전에 인공지능을 활용하는 것은 유엔과 유럽 연합에서 지속적으로 주목하고 있다.[303][304]
또한, 2세 아동의 읽기장애 진단 등 아동 발달에도 기여하고 있다.[305]
특정 산업이나 기관의 특정 문제를 해결하는 데 사용되는 수천 가지의 성공적인 AI 애플리케이션도 있다. 2017년 조사에 따르면 5개 기업 중 1개 기업이 일부 제품이나 프로세스에 "AI"를 통합했다고 보고했다.[129] 몇 가지 예로는 에너지 저장, 의료 진단, 군사 물류, 사법 결정 결과 예측 애플리케이션, 대외 정책 또는 공급망 관리가 있다.
피난 및 재해 관리를 위한 AI 애플리케이션이 증가하고 있다. AI는 GPS, 비디오 또는 소셜 미디어의 과거 데이터를 사용하여 대규모 및 소규모 피난에서 사람들이 어떻게 피난했는지 여부와 방법을 조사하는 데 사용되었다. 또한 AI는 실시간 피난 상황에 대한 실시간 정보를 제공할 수 있다.[130][131][132]
농업에서 AI는 농부들이 관개, 비료, 살충제 처리 또는 수확량 증가가 필요한 지역을 식별하는 데 도움이 되었다. 농학자들은 연구 개발에 AI를 사용한다. AI는 토마토와 같은 작물의 숙성 시간을 예측하고, 토양 수분을 모니터링하고, 농업 로봇을 작동하고, 예측 분석을 수행하고, 가축 돼지의 울음소리 감정을 분류하고, 온실을 자동화하고, 질병과 해충을 감지하고, 물을 절약하는 데 사용되었다.
인공 지능은 증가하는 양의 사용 가능한 데이터와 애플리케이션을 분석하는 데 사용되며, 주로 "분류, 회귀, 클러스터링, 예측, 생성, 발견 및 새로운 과학적 통찰력 개발"에 사용된다. 예를 들어, 외계 행성을 발견하고, 태양 활동을 예측하고, 중력파 천문학에서 신호와 계측 효과를 구별하는 데 사용된다. 또한 우주 탐사를 포함한 우주 활동, 우주 임무 데이터 분석, 우주선의 실시간 과학적 결정, 우주 파편 회피 및 더욱 자율적인 운영 등에 사용될 수 있다.
2024년 인도 선거 기간 동안, 특히 동맹 (때로는 사망한) 정치인들의 딥페이크를 만들어 유권자들과 더 잘 소통하고 연설을 여러 지역 언어로 번역함으로써 승인된 AI 생성 콘텐츠에 5천만 달러가 사용되었다.[133]
이나 인공지능의 산물인 챗GPT와 유사한 언어 모델은, 반대로 지금 뇌신경과학 연구의 이해에 기여하고 있다.[296][297]
}}
음악 분야에서는 기존 곡을 학습하여 특정 작곡가의 스타일을 모방하여 작곡하는 자동 작곡 소프트웨어가 등장하고 있다. 또한 에 사용되는 터치 위치를 나타낸 악보를 음악으로부터 자동 생성하는 등 분야에 특화된 시스템도 개발되고 있다.[312] 또한 특정 음성을 학습시켜 성우의 일을 대체하거나,[313] 특정 캐릭터나 가수의 목소리로 노래하게 하는 등의 작업이 이루어지고 있으며, 규제 및 규칙 제정의 필요성에 대한 논의가 진행되고 있다.[314][315][316] 또한 앞서 언급한 음성 학습을 이용하여 하나의 트랙에서 특정 악기나 노래 소리를 추출하는 "디믹스(demix)"라는 기술도 등장하고 있으며,[317] 비치 보이스와 비틀즈 등은 이를 활용하여 트랙 수가 적었던 시대의 음악을 리믹스하여 새로운 스테레오 믹스를 만들거나,[318][319] 세션 테이프가 폐기되거나 멀티 테이프 음원에 누락이 있어 모노로만 존재했던 음악을 스테레오로 제작하는 등의 작업을 하고 있다. 2023년에 비틀즈가 발표한 싱글 「나우 앤 젠」에서는 존 레논이 1970년대에 녹음한 카세트 테이프에서 보컬을 추출하는 데 사용되었다.[320][321]
이미지 생성 기술로는 VAE, GAN, 확산 모델 등 크게 세 가지가 있다. 회화 분야에서는 컨셉 아트 배경이나 애니메이션의 중간 그림 자동 생성, 흑백 만화의 자동 채색 등 인간의 작업을 보조하는 AI가 실현되고 있다.[322][323][324] AI에 자연어로 지정하여 일러스트를 생성하는 서비스(스테이블 디퓨전 등)도 등장하고 있다.[325] 이러한 인공지능을 이용하여 제작된 그림은 "인공지능 아트(Artificial intelligence art)"라고 불리지만, 학습 데이터로 사용된 저작물의 지적 재산권 등을 둘러싸고 심각한 우려가 확산되고 있다.[326]
인공지능은 멸종 위기 언어와 생물 다양성 보호에도 응용되고 있다.[268] 학술적으로 구조화된 문헌 검토로서 일반적으로 높은 품질의 증거로 간주되는 통계적 문헌 분석이나, 학술적 분위기 때문에 발표되지 못한 연구 등의 문제를 고려한 체계적인 관점을 제공하는 것 외에,[327] 더 나아가 인공지능과 자연어 처리 기능을 이용한 엄격하고 투명성 높은 분석을 통해 과학적 재현성 위기를 어느 정도 해결하려는 시도를 하고 있다.[328]
스포츠 분야에서는 AI가 선수의 부상 위험과 팀의 성과를 예측하는 데 도움이 된다.[329]
메타 분석에 따르면, AI가 정치적 의사 결정을 하는 것은 2020년 시점에서는 학계에서 아직 주목받지 못했고, AI와 정치 관련 주제는 학계에서 빅데이터와 소셜 미디어에서의 정치적 문제에 대한 연구가 중심이었다.[330] 인공지능에 의한 인류 멸망의 위험을 우려하는 목소리가 있지만,[331][332] 반면 평화를 증진하기 위한 문화적 응용도 존재한다.[333] 체계적 검토 중에는 인공지능의 인간을 이해하는 능력을 빌려야만 기술이 인류에 진정한 공헌을 할 수 있다고 분석하는 것도 있다.[334]
기계 학습과 심층 학습은 특화된 AI로서 과학 분야에서 활용되고 있다.
- 단백질 접힘의 고정밀 예측[449]
- 자연어 처리를 이용한 RNA 코돈 배열 분석[450]
- 기상 물리 과정식의 매개변수 역추정 및 기상 모델의 최적 통합[451]
- 판구조 경계의 마찰 매개변수 추정, 미끄러짐량, 발생 사이클을 학습시켜 지진 발생 시기 예측[452]
- iPS 세포의 생사 등의 상태, 분화와 미분화, 암화 등의 비표지 판별[453]
- 방대한 논문·공개 특허에서 화합물의 물성치와 제법을 추출하여 지식 베이스화할 수 있는 화학 검색 엔진[454]
- 약제, 분자 탐색, 활성 화합물 구조의 자동 제안[455]
- 우주의 대규모 구조의 편향을 가져온 초기 물리적 매개변수를 추정, 우주 전체의 3D 시뮬레이션 효율화[456]
- 이미지 분류 CNN을 사용한 마우스 뇌 신경의 자동 분류, 회로 자동 매핑[457]
- GAN과 회귀 모델을 이용한 복잡 재료계(충전제나 첨가제)의 특성 예측[458]
- CAD 설계 기법 중 하나인 토폴로지 최적화에서 제약 조건과 해석 결과의 인과 관계 추출[459]
- 제일 원리 계산(DFT 계산)보다 10만 배 이상 빠른, 55개 원소의 임의 조합의 원자 구조를 높은 정확도로 재현할 수 있는 원자 시뮬레이터를 이용한 재료 탐색[460]
- 유체역학 방정식을 사용하지 않는 유체 시뮬레이션[461]
- 의료 진단용 시각 언어 모델[462]
- 로봇의 동작 생성[463]
- 과학적 재현성 위기를 해결하기 위한 논문의 엄밀성과 투명성 분석[464]
- 코딩 자동화[465]
2022년 가을 챗GPT(ChatGPT)가 공개된 이후로, 생성 AI 활용이 일상화되고 있다. 인공지능은 여전히 지시(전문 용어로 프롬프트라고 한다)에 대해 잘못된 답변을 하는 경우가 많기 때문에, 잘못된 답변을 억제하기 위한 과도기적 방법으로 프롬프트 엔지니어링이라는 기법이 활용되고 있다. 인공지능 성능의 가속적인 향상을 고려할 경우, 늦어도 2020년대 안에는 인간과의 대화와 동등한 수준의 질문 응답이 가능해지므로, 프롬프트에 대한 인공지능 특유의 고안은 불필요해질 전망이다.[306]
2023년 4월 자동차 자율주행은 레벨 4(일정 조건 하에서 완전히 자동화된 공도 주행)가 허용되었다. 부키엔현 영평사정(永平寺町)에서는 실증 실험에 성공했으며, 2023년도 중에 운전 허가를 신청하는 방향으로 검토하고 있다.[307]
2023년 10월, 『네이처(Nature)』지에서 위키피디아의 신뢰성이 인공지능에 의해 향상될 가능성이 제시되었다.[308][309]
2023년 현재, 인공지능을 이용한 서비스가 일상생활에 침투하고 있다. PC와 스마트폰의 이미지 인식을 통한 생체 인증이나 음성 인식을 통한 어시스턴트 기능은 이미 일반적인 서비스가 되었다. AI 스피커가 보급되고 있으며, 중국산 청소 로봇에 자율 주행 기술이 응용되고 있다.[310] 인공지능은 태풍 피해 예측, 지진 피해자 지원, 건강을 위한 대기 오염 파악 등에도 응용되고 있다.[268] 그러나 교육에 대한 AI 도입은 장점만 있는 것이 아니라, 비판적 사고와 창의적 사고, 나아가 인격 능력을 저하시킨다는 단점도 있다.[311]
==== 생성형 AI ====

2020년대 초, 생성형 AI가 널리 주목받기 시작했다.[119][120] 생성형 AI(GenAI)는 생성 모델을 사용하여 텍스트, 이미지, 비디오 또는 기타 데이터를 생성하는 AI이며,[121][122] 종종 프롬프트에 반응한다. ChatGPT, Midjourney, DALL-E, Stable Diffusion 등 다양한 생성형 AI 모델이 등장했다.
생성적 사전 훈련 변환기(GPT)는 문장 내 단어 간의 의미 관계를 기반으로 텍스트를 생성하는 대규모 언어 모델(LLM)이다.[76] 텍스트 기반 GPT 모델은 인터넷에서 가져온 방대한 텍스트 말뭉치를 사전 훈련하며, 이 과정에서 세상에 대한 지식을 축적하고 사람과 같은 텍스트를 생성할 수 있다.[76] 현재 모델 및 서비스에는 제미니(이전 명칭: 바드), 챗GPT, 그록, 클로드, 코파일럿 및 LLaMA가 포함된다.[77] 다중 모달 GPT 모델은 이미지, 비디오, 사운드 및 텍스트와 같은 다양한 유형의 데이터를 처리할 수 있다.
2023년 3월 기준, 미국 성인의 58%가 ChatGPT에 대해 들어봤고 14%는 사용해 본 적이 있다.[123] Midjourney, DALL-E, Stable Diffusion과 같은 AI 기반 텍스트투이미지 생성기의 현실성과 사용 편의성이 향상되면서 AI 생성 사진의 바이럴 현상이 나타났다. 흰색 퍼 코트를 입은 프란치스코 교황의 가짜 사진, 허구적인 도널드 트럼프의 체포, 펜타곤 공격 사건 조작 사진 등이 널리 주목을 받았으며, 전문 창작 예술 분야에서도 사용되고 있다.[124][125]
2020년에는 OpenAI가 기반 모델로 '''Transformer'''를 채택한 1750억 매개변수를 가진 자연어 처리 프로그램 GPT-3을 개발했으며, 미국의 게시판 사이트 Reddit에서 1주일 동안 아무도 눈치채지 못하고 사람과 게시글 작성 및 대화를 이어갔다.[411]
2022년 11월 30일, OpenAI가 GPT-3.5를 사용한 ChatGPT를 출시했다. 전 세계적으로 기존보다 압도적으로 인간에 가까운 답변을 하는 질의응답 시스템으로 화제가 되어, 산관학을 巻き込んだブーム을 일으켰다. 매우 사용하기 편리한 ChatGPT의 등장으로 AI의 실무 응용이 폭발적으로 가속화될 것으로 예상되었기 때문에, 이를 '''제4차 AI 붐'''의 시작으로 보는 의견도 있다.[264][434]
일반적으로 2018년경에는 AI가 육체 노동이나 단순 작업을 대체하고, 예술적·창조적 작업이 "인간의 영역"이 될 것이라고 예상되어 왔지만,[441][442] 실제로는 2020년대 초반부터 예술 분야에 급속도로 진출하고 있다는 것은 학계에서조차 예상하지 못했던 부분이 있다.[441][442]
==== 에이전트 ====
인공지능(AI) 에이전트는 환경을 인지하고, 자율적으로 의사결정을 내리고, 특정 목표를 달성하기 위해 행동하도록 설계된 소프트웨어 개체이다.[126][127][128] 이러한 에이전트는 사용자, 환경 또는 다른 에이전트와 상호 작용할 수 있다. AI 에이전트는 가상 비서, 챗봇, 자율 주행 차량, 게임 시스템, 산업용 로봇을 포함한 다양한 응용 프로그램에 사용된다.[126][127] AI 에이전트는 프로그래밍, 사용 가능한 컴퓨팅 자원 및 하드웨어 제한 내에서 작동한다. 즉, 정의된 범위 내에서 작업을 수행하도록 제한되며, 메모리와 처리 능력이 제한적이다. 실제 응용 프로그램에서 AI 에이전트는 종종 의사 결정 및 행동 실행에 시간 제약을 받는다. 많은 AI 에이전트는 학습 알고리즘을 통합하여 경험이나 훈련을 통해 시간이 지남에 따라 성능을 향상시킬 수 있다. 기계 학습을 사용하여 AI 에이전트는 새로운 상황에 적응하고 지정된 작업에 대한 행동을 최적화할 수 있다.[126][127][128]
4. 1. 생성형 AI
2020년대 초, 생성형 AI가 널리 주목받기 시작했다.[119][120] 생성형 AI(GenAI)는 생성 모델을 사용하여 텍스트, 이미지, 비디오 또는 기타 데이터를 생성하는 AI이며,[121][122] 종종 프롬프트에 반응한다. ChatGPT, Midjourney, DALL-E, Stable Diffusion 등 다양한 생성형 AI 모델이 등장했다.생성적 사전 훈련 변환기(GPT)는 문장 내 단어 간의 의미 관계를 기반으로 텍스트를 생성하는 대규모 언어 모델(LLM)이다.[76] 텍스트 기반 GPT 모델은 인터넷에서 가져온 방대한 텍스트 말뭉치를 사전 훈련하며, 이 과정에서 세상에 대한 지식을 축적하고 사람과 같은 텍스트를 생성할 수 있다.[76] 현재 모델 및 서비스에는 제미니(이전 명칭: 바드), 챗GPT, 그록, 클로드, 코파일럿 및 LLaMA가 포함된다.[77] 다중 모달 GPT 모델은 이미지, 비디오, 사운드 및 텍스트와 같은 다양한 유형의 데이터를 처리할 수 있다.
2023년 3월 기준, 미국 성인의 58%가 ChatGPT에 대해 들어봤고 14%는 사용해 본 적이 있다.[123] Midjourney, DALL-E, Stable Diffusion과 같은 AI 기반 텍스트투이미지 생성기의 현실성과 사용 편의성이 향상되면서 AI 생성 사진의 바이럴 현상이 나타났다. 흰색 퍼 코트를 입은 프란치스코 교황의 가짜 사진, 허구적인 도널드 트럼프의 체포, 펜타곤 공격 사건 조작 사진 등이 널리 주목을 받았으며, 전문 창작 예술 분야에서도 사용되고 있다.[124][125]
2020년에는 OpenAI가 기반 모델로 '''Transformer'''를 채택한 1750억 매개변수를 가진 자연어 처리 프로그램 GPT-3을 개발했으며, 미국의 게시판 사이트 Reddit에서 1주일 동안 아무도 눈치채지 못하고 사람과 게시글 작성 및 대화를 이어갔다.[411]
2022년 11월 30일, OpenAI가 GPT-3.5를 사용한 ChatGPT를 출시했다. 전 세계적으로 기존보다 압도적으로 인간에 가까운 답변을 하는 질의응답 시스템으로 화제가 되어, 산관학을 巻き込んだブーム을 일으켰다. 매우 사용하기 편리한 ChatGPT의 등장으로 AI의 실무 응용이 폭발적으로 가속화될 것으로 예상되었기 때문에, 이를 '''제4차 AI 붐'''의 시작으로 보는 의견도 있다.[264][434]
일반적으로 2018년경에는 AI가 육체 노동이나 단순 작업을 대체하고, 예술적·창조적 작업이 "인간의 영역"이 될 것이라고 예상되어 왔지만,[441][442] 실제로는 2020년대 초반부터 예술 분야에 급속도로 진출하고 있다는 것은 학계에서조차 예상하지 못했던 부분이 있다.[441][442]
4. 2. 에이전트
인공지능(AI) 에이전트는 환경을 인지하고, 자율적으로 의사결정을 내리고, 특정 목표를 달성하기 위해 행동하도록 설계된 소프트웨어 개체이다.[126][127][128] 이러한 에이전트는 사용자, 환경 또는 다른 에이전트와 상호 작용할 수 있다. AI 에이전트는 가상 비서, 챗봇, 자율 주행 차량, 게임 시스템, 산업용 로봇을 포함한 다양한 응용 프로그램에 사용된다.[126][127] AI 에이전트는 프로그래밍, 사용 가능한 컴퓨팅 자원 및 하드웨어 제한 내에서 작동한다. 즉, 정의된 범위 내에서 작업을 수행하도록 제한되며, 메모리와 처리 능력이 제한적이다. 실제 응용 프로그램에서 AI 에이전트는 종종 의사 결정 및 행동 실행에 시간 제약을 받는다. 많은 AI 에이전트는 학습 알고리즘을 통합하여 경험이나 훈련을 통해 시간이 지남에 따라 성능을 향상시킬 수 있다. 기계 학습을 사용하여 AI 에이전트는 새로운 상황에 적응하고 지정된 작업에 대한 행동을 최적화할 수 있다.[126][127][128]5. 인공지능의 윤리적 문제
인공지능의 발전은 여러 윤리적 문제를 야기한다.
==== 위험과 피해 ====
인공지능의 부정적 영향으로 현존 일자리의 감소, 시스템 오류 발생과 이에 따른 보상, 인간 노동력에 대한 경시, 전투 로봇과 같은 자율 살상 무기에 대한 윤리적인 문제 등이 있다.[472]
===== 개인정보보호 및 저작권 =====
기계 학습에는 방대한 양의 데이터가 필요하다. 이 데이터를 얻기 위해 사용되는 방법은 개인정보보호, 감시, 저작권과 관련된 우려를 불러일으킨다.
기술 기업들은 사용자로부터 온라인 활동, 위치 정보 데이터, 비디오, 음성 등 광범위한 데이터를 수집하고 있다. 예를 들어, 음성 인식 알고리즘을 구축하기 위해 아마존은 수백만 건의 개인적인 대화를 녹음하고, 임시직 노동자들에게 그 내용을 기록하도록 허용했다. 이러한 광범위한 감시에 대한 의견은 불가피한 악으로 여기는 사람부터 명백히 비윤리적이며 개인정보 침해라고 생각하는 사람까지 다양하다.
AI 개발자들은 이러한 방법이 가치 있는 애플리케이션을 제공하는 유일한 방법이라고 주장한다. 그리고, 데이터를 얻으면서 개인정보를 보호하는 몇 가지 방법이 개발되었다. 2016년 이후, 일부 개인정보보호 전문가들은 공정성의 관점에서 개인정보보호를 보기 시작했다. 전문가들은 "'무엇을 알고 있느냐'는 문제에서 '그것을 가지고 무엇을 하느냐'는 문제로 초점을 옮겼다"고 한다.
생성형 AI는 이미지나 소스 코드 등의 영역을 포함하여 라이선스를 취득하지 않고 저작권으로 보호되는 작품으로 훈련되는 경우가 많으며, 그 출력물은 공정 이용의 법리를 근거로 사용된다. 전문가들 사이에서는 이러한 논리가 법정에서 어느 정도, 어떤 상황에서 통용될 수 있는지에 대한 의견이 분분하다. 관련 법리는 "저작권으로 보호되는 작품의 사용 목적과 성격" 또는 "저작권으로 보호되는 작품의 잠재적 시장에 대한 영향"을 포함할 수 있다.[335] 콘텐츠가 스크래핑되는 것을 원하지 않는 웹사이트 소유자는 robots.txt 파일로 그 뜻을 나타낼 수 있다.[336] 2023년, 존 그리샴과 조너선 프랜젠을 포함한 저명한 작가들은 생성형 AI 훈련에 자신의 작품을 사용했다며 AI 기업을 고소했다. 또 다른 논의되는 접근 방식은 인간 저자에게 공정한 귀속과 보상을 보장하기 위해 인공지능에 의해 생성된 창작물을 보호하는 독자적인 시스템을 구상하는 것이다.[337]
===== 기술 대기업의 독점 =====
상업용 인공지능 분야는 알파벳, 아마존, 애플, 메타, 마이크로소프트 등 거대 기술 기업들이 지배하고 있다.[358][359][360] 이들 기업 중 일부는 데이터센터의 기존 클라우드 인프라와 막대한 컴퓨팅 자원의 상당 부분을 점유하고 있어 시장 지배력을 더욱 강화할 수 있다.[361][362] 이러한 독과점 구조는 인공지능 시장의 공정한 경쟁을 저해하고, 소규모 기업이나 신생 기업의 혁신적인 기술 개발을 방해하는 걸림돌로 작용할 수 있다는 점에서 우려를 낳고 있다.
===== 전력 수요 및 환경 영향 =====
국제에너지기구(IEA)는 2024년 1월, 데이터센터와 인공지능, 암호화폐의 전력 소비량을 예측하는 보고서를 발표했다. 이 보고서에 따르면, 이러한 용도의 전력 수요는 2026년까지 두 배로 증가하여 일본 전체 전력 사용량에 필적할 가능성이 있다고 한다.[346]
AI에 의한 막대한 전력 소비는 화석연료 사용 증가의 원인이며, 구형 화력발전소의 폐쇄를 지연시킬 가능성이 있다. 미국 전역에서 데이터센터 건설이 급증하고 있으며, 주요 기술 기업(Microsoft, Meta, Google, Amazon 등)은 막대한 전력 소비자이다. 챗GPT 검색에는 Google 검색의 10배의 전력 소비량이 필요하다. 대기업들은 원자력발전부터 지열발전, 핵융합에 이르기까지 전력원 확보에 박차를 가하고 있다. 기술 기업들은 장기적으로 AI가 궁극적으로 환경 친화적으로 될 것이라고 주장하지만, 현재로서는 해결의 기미가 보이지 않는다. AI가 전력망을 더 효율적이고 "지능적"으로 만들고, 원자력 발전의 성장을 돕고, 전체적인 탄소 배출량을 줄일 것이라고 주장한다.[347]
AI용 반도체의 최대 기업인 엔비디아(Nvidia)의 CEO인 젠슨 황(Jensen Huang)은 "원자력 발전이 좋은 선택"이라고 말했다.[348] 엔비디아가 투자한 클라우드 게임 서비스 기업 유비투스(Ubitus)는 일본 국내에서 생성 AI용 데이터센터 신설을 위해 원자력 발전소 인근 부지를 찾고 있으며, CEO인 곽영창(웨슬리 꾸오/Wesley Kuo영어)은 원자력 발전소가 "가장 효율적이고, 저렴하며, 안정적인 전력으로 AI에 적합하다"고 말했다.[349] 마이크로소프트(Microsoft)는 쓰리마일섬 원자력발전소 1호기를 재가동하여 20년 동안 AI 기술과 데이터센터에 전력을 공급받는 계약을 미국의 대형 전력 회사인 콘스텔레이션 에너지(Constellation Energy)와 체결했다.[350] 구글(Google)과 아마존(Amazon.com)도 AI 데이터센터의 전력원으로 원자로에서의 전력 구매에 나서고 있다.[351] 한편, 후쿠시마 제1 원자력 발전소 사고의 주변 피해 지역은 재생에너지를 이용한 AI 데이터센터의 거점이 되고 있다.[352]
2024년 골드만삭스(Goldman Sachs)의 연구 논문 "AI 데이터센터와 미래의 미국 전력 수요 급증"에서는 "미국의 전력 수요는 지난 1세대 동안 볼 수 없었던 성장을 경험할 가능성이 높다"고 언급하며, 2030년까지 미국의 데이터센터가 미국의 전력의 8%를 소비할 것이라고 예측하고 있다. (2022년에는 3%)[353] 데이터센터의 전력 수요는 점점 증가하고 있으며, 전력 공급망이 한계에 도달할 가능성이 있다. 대형 기술 기업 등은 AI를 사용함으로써 전력망을 최대한 활용할 수 있다고 주장하고 있다.[354]
===== 가짜 정보 =====
유튜브와 페이스북 등은 사용자를 콘텐츠로 유도하기 위해 추천 시스템을 사용한다. 그 인공지능 프로그램에는 사용자 참여를 최적화한다는 목표가 주어졌다(즉, 유일한 목표는 사용자로 하여금 계속 시청하게 만드는 것이었다). 인공지능은 사용자가 가짜뉴스나 음모론, 극단적으로 당파적인 콘텐츠를 선택하는 경향이 있다는 것을 학습하고, 사용자로 하여금 계속 시청하게 하기 위해 그것을 추천했다. 사용자는 같은 주제의 콘텐츠를 더 많이 보는 경향이 있었기 때문에, 인공지능은 사용자를 필터 버블로 이끌었고, 같은 가짜뉴스를 지지하는 다른 콘텐츠를 반복적으로 접하게 되었다.[338] 이로 인해 많은 사용자가 가짜뉴스를 사실이라고 믿게 되었고, 궁극적으로 기업, 미디어, 정부에 대한 신뢰가 손상되었다. 인공지능은 목표를 극대화하는 것을 정확하게 학습했지만, 그 결과는 사회적으로 해롭게 되었다. 2016년 미국 대통령 선거 이후, 빅테크는 이 문제를 완화하기 위한 조치를 취했다.
2022년, 생성형 AI로 인해 실제 또는 인간이 만든 것과 구별할 수 없는 이미지, 음성, 비디오, 텍스트를 생성할 수 있게 되었다. 악의적인 사람들이 이 기술을 사용하여 대량의 가짜뉴스와 선전을 만들어낼 가능성이 있다. 인공지능의 선구자인 제프리 힌턴은 인공지능으로 인해 "권위주의적 지도자가 유권자를 대규모로 조작하는" 것을 가능하게 하는 위험에 대해 우려를 표명했다.
===== 알고리즘 편향과 공정성 =====
기계 학습 애플리케이션은 편향된 데이터로 학습하면 편향을 포함하게 된다.[341] 개발자는 편향의 존재를 인식하지 못할 수 있다. 훈련 데이터의 선택 방식이나 모델의 배포 방식에 따라 편향이 발생할 수 있다. 중대한 피해를 입힐 수 있는 결정을 내리는 데 편향된 알고리즘이 사용되는 경우(의료, 금융, 채용, 주택, 경찰 등) 해당 알고리즘은 차별을 초래할 수 있다.[341]
2015년 6월 28일, 구글 포토에 도입된 이미지 라벨 기능은 흑인 사진을 잘못 "고릴라"로 식별했다. 이 시스템은 흑인 이미지가 거의 포함되지 않은 데이터 세트로 훈련되었는데, 이는 "표본 크기 불일치"라고 불리는 문제이다. 구글(Google)은 "고릴라" 라벨링 자체를 방지함으로써 이 문제를 "해결"했다. 8년 후인 2023년에도 구글 포토는 고릴라를 식별하지 못했고, 애플(Apple), 페이스북(Facebook), 마이크로소프트(Microsoft), 아마존(Amazon)의 유사한 제품들도 식별하지 못했다.
COMPAS는 피고인의 재범 위험을 평가하기 위해 미국의 법원에서 널리 사용되는 상용 프로그램이다. 2016년, 프로퍼블리카(ProPublica)의 줄리아 앵그윈은 프로그램에 피고인의 인종에 대한 입력값이 포함되어 있지 않았음에도 불구하고 COMPAS가 인종적 편견을 보인다는 것을 발견했다. 백인과 흑인 모두의 오류율은 정확히 61%로 조정되었지만, 오류의 실제 양상은 달랐다. 시스템은 흑인의 재범 가능성을 지속적으로 과대 평가하고 백인의 재범 가능성을 과소 평가했다. 2017년, 여러 연구자들은 데이터 내 백인과 흑인의 기본 재범률이 다를 경우 COMPAS가 공정성의 가능한 모든 척도에 부합하는 것은 수학적으로 불가능함을 보였다.[342]
데이터에 문제가 있는 특징("인종"이나 "성별" 등)이 명시적으로 기재되어 있지 않더라도 프로그램은 편향된 결정을 내릴 수 있다. 이 특징은 다른 특징("주소", "쇼핑 내역", 또는 "이름" 등)과 상관관계가 있으며, 프로그램은 이러한 특징을 기반으로 "인종"이나 "성별"과 동일한 결정을 내린다.[343] 모리츠 하르트는 "이 연구 분야에서 가장 확실한 사실은 맹검에 의한 공정성은 작동하지 않는다는 것이다"라고 말했다.[344]
===== 투명성 부족 =====
많은 인공지능 시스템은 매우 복잡하여 설계자조차 어떻게 결정에 도달했는지 설명할 수 없다. 특히 심층 신경망에서는 입력과 출력 사이에 많은 비선형 관계가 존재한다. 그러나 일반적인 설명 가능성 기술도 존재한다.[339]
프로그램의 작동 방식을 정확히 모르면 프로그램의 정상 작동 여부를 확인할 수 없다. 기계 학습 프로그램이 엄격한 테스트를 통과했더라도 프로그래머의 의도와 다르게 학습한 사례가 많다. 예를 들어, 어떤 인공지능 시스템은 의료 전문가보다 더 정확하게 피부 질환을 식별할 수 있다고 평가되었지만, 크기가 표시된 이미지를 "암"으로 분류하는 경향이 강한 것으로 나타났다. 이는 악성 종양 이미지에 일반적으로 크기를 나타내는 눈금이 포함되어 있기 때문이다. 의료 자원을 효율적으로 배분하기 위해 설계된 또 다른 기계 학습 시스템은 실제로는 폐렴의 심각한 위험 요소인 천식에 대해, 천식 환자를 폐렴으로 사망할 "위험이 낮다"고 분류하는 것으로 나타났다. 이는 천식 환자는 의료 서비스를 받을 기회가 많기 때문에, 훈련 데이터에 따르면 사망할 가능성이 상대적으로 낮은 것으로 나타났기 때문이다. 천식과 폐렴 사망 위험의 낮음에 대한 상관관계는 사실이지만, 오해의 소지가 있었다.
알고리즘의 결정으로 피해를 입은 경우 설명받을 권리가 있다.[340] 예를 들어, 의사는 자신이 내린 결정의 배경에 대한 이유를 명확하고 완벽하게 설명해야 한다. 2016년, 유럽 연합의 일반 데이터 보호 규정 초기 초안에는 이 권리가 명시되어 있었다. 업계 전문가들은 이것이 해결책이 없는 미해결 문제라고 지적했다. 규제 당국은 그럼에도 피해는 현실이며, 문제에 해결책이 없다면 사용해서는 안 된다고 주장했다.
방위고등연구계획국(DARPA)은 이러한 문제를 해결하기 위해 2014년 XAI(설명 가능한 인공지능) 프로그램을 설립했다. 투명성 문제에는 몇 가지 해결책이 있다. SHAP은 각 특징의 출력에 대한 기여를 시각화하여 투명성 문제 해결을 시도했다. LIME은 더 단순하고 해석 가능한 모델로, 모델을 국소적으로 근사할 수 있다. 다중 작업 학습은 목표 분류 외에도 여러 출력을 제공한다. 이러한 다른 출력은 개발자가 네트워크가 무엇을 학습했는지 추론하는 데 도움이 된다. 역전파 , 딥드림 및 기타 생성 방법을 사용하면 개발자는 신경망의 다양한 계층이 무엇을 학습했는지 확인하고 네트워크가 무엇을 학습하고 있는지 나타내는 출력을 생성할 수 있다.
===== 악의적 행위자와 무기화된 AI =====
인공지능은 권위주의 국가, 테러리스트, 범죄자, 불량국가 등의 위협 행위자에게 유용한 도구를 많이 제공한다.
자율살상무기는 인간의 조작 없이 인간 표적을 식별하고, 선택하고, 공격하는 기계이다. 널리 이용 가능한 인공지능 도구는 위협 행위자에 의해 저렴한 자율무기 개발에 사용될 수 있으며, 대량 생산될 경우 대량살상무기가 될 가능성이 있다. 일반적인 전쟁에서 사용되더라도, 표적을 정확하게 식별할 가능성이 낮아 무고한 사람들을 살해할 가능성이 있다. 2014년, 중국을 포함한 30개국이 유엔 특정재래식무기협약에 따른 자율무기 금지를 지지했지만, 미국 등이 이에 동의하지 않았다. 2015년까지 50개국 이상이 전장용 로봇 연구를 수행하고 있다고 보고되었다.[355]
인공지능 도구를 사용하면 권위주의 국가가 다양한 방법으로 국민을 효율적으로 통제하는 것이 용이해진다. 얼굴 인식 및 음성 인식을 통해 광범위한 감시가 가능해진다. 이 데이터를 활용한 기계 학습을 통해 국가의 잠재적 적을 분류하고, 잠복을 방지할 수 있다. 추천 시스템은 선전이나 잘못된 정보를 퍼뜨려 효과를 극대화할 수 있다. 딥페이크와 생성형 AI는 잘못된 정보를 만들어내는 데 유용하다. 고도의 인공지능은 권위주의적인 중앙 집권적 의사결정을 시장 등 자유로운 분산형 시스템보다 경쟁력 있게 만들 수 있다. 이로 인해 디지털 전쟁과 고도의 스파이웨어 운영 비용이 감소한다. 이러한 기술은 2020년 이전부터 이용 가능했으며, AI 얼굴 인식 시스템은 이미 중국에서 대규모 감시에 사용되고 있다.[356][357]
인공지능이 위협 행위자 지원으로 이어질 가능성은 다른 많은 것들이 있지만, 그중에는 예측할 수 없는 것들도 있다. 예를 들어, 인공지능은 수 시간 만에 수만 가지의 유독 화합물의 분자 구조를 설계할 수 있다.
===== 기술적 실업 =====
지금까지 과학 기술은 일자리를 줄이기보다는 증가시키는 경향이 있었으나 경제학자들은 인공지능(AI)에 관해서는 미지의 영역이라고 인정한다. 경제학자들을 대상으로 한 설문에서 로봇과 AI의 사용 증가가 장기 실업자를 늘릴지에 대해 물은 결과 의견이 크게 분분했으며, 다만 늘어난 생산성이 재분배된다면 순이익이 될 수 있다는 데에 동의한다.[627]
또한 블루칼라 직종을 위협하던 종래의 자동화와 달리 인공지능에 의한 자동화는 많은 중산층의 화이트칼라 일자리도 위협할 수 있다는 점이 중대하게 받아들여진다.[628] 그 영향 범위도 매우 넓어서 법률 사무원에서 패스트푸드 다양한 직종이 큰 위기에 놓일 것이라 예측되는데, 한편으로 개인 건강 관리나 성직자 등 일부 직종은 오히려 수요가 증가할 수 있다고 예상된다.[629][630]
===== 존재적 위험 =====
인공지능의 급격한 발전은 인류의 미래에 대한 낙관적인 전망과 함께, 인공지능이 인간의 통제를 벗어나 인류를 위협할 수 있다는 존재적 위험에 대한 우려를 증폭시키고 있다. 이러한 우려는 단순한 공상과학 소설 속 이야기가 아니라, 저명한 과학자와 기술 전문가들의 진지한 경고를 통해 제기되고 있다.
스티븐 호킹 박사는 생전에 인공지능이 인류의 종말을 초래할 수 있다고 경고하며, 인공지능의 발전을 경계해야 한다고 주장했다. 빌 게이츠 마이크로소프트 창업자 역시 인공지능의 잠재적 위험성에 대해 우려를 표명하며, 이에 대한 논의와 대비가 필요하다고 강조했다. 일론 머스크 테슬라 CEO는 인공지능을 "인류 문명의 근본적인 위험"으로 규정하고, 인공지능 개발에 대한 규제와 안전장치 마련을 촉구하고 있다. 특히, 일론 머스크는 인공지능이 핵무기보다 더 위험할 수 있다고 경고하며, 국제적인 협력을 통해 인공지능의 위험을 관리해야 한다고 주장한다.
===== 윤리적 기계와 정렬 =====
우호적인 AI는 처음부터 위험을 최소화하고 인간에게 이익이 되는 선택을 하도록 설계된 기계이다. 이 용어를 만든 엘리에저 유드코프스키(Eliezer Yudkowsky)는 우호적인 AI 개발이 더 높은 연구 우선순위가 되어야 한다고 주장한다. 이는 상당한 투자가 필요할 수 있으며, AI가 존재론적 위험이 되기 전에 완료되어야 한다.
지능을 가진 기계는 자신의 지능을 사용하여 윤리적인 결정을 내릴 가능성이 있다. 기계 윤리 분야는 기계에 윤리적 원칙과 윤리적 딜레마를 해결하기 위한 절차를 제공한다. 기계 윤리 분야는 계산 도덕성이라고도 하며, 2005년 미국 인공지능 학회(AAAI)(AAAI) 심포지엄에서 설립되었다.
다른 접근 방식으로는 웬델 월러치(Wendell Wallach)의 "인공 도덕적 행위자"와 스튜어트 러셀(Stuart J. Russell)의 증명 가능하게 유익한 기계를 개발하기 위한 세 가지 원칙이 있다.
5. 1. 위험과 피해
인공지능의 부정적 영향으로 현존 일자리의 감소, 시스템 오류 발생과 이에 따른 보상, 인간 노동력에 대한 경시, 전투 로봇과 같은 자율 살상 무기에 대한 윤리적인 문제 등이 있다.[472]==== 개인정보보호 및 저작권 ====
기계 학습에는 방대한 양의 데이터가 필요하다. 이 데이터를 얻기 위해 사용되는 방법은 개인정보보호, 감시, 저작권과 관련된 우려를 불러일으킨다.
기술 기업들은 사용자로부터 온라인 활동, 위치 정보 데이터, 비디오, 음성 등 광범위한 데이터를 수집하고 있다. 예를 들어, 음성 인식 알고리즘을 구축하기 위해 아마존은 수백만 건의 개인적인 대화를 녹음하고, 임시직 노동자들에게 그 내용을 기록하도록 허용했다. 이러한 광범위한 감시에 대한 의견은 불가피한 악으로 여기는 사람부터 명백히 비윤리적이며 개인정보 침해라고 생각하는 사람까지 다양하다.
AI 개발자들은 이러한 방법이 가치 있는 애플리케이션을 제공하는 유일한 방법이라고 주장한다. 그리고, 데이터를 얻으면서 개인정보를 보호하는 몇 가지 방법이 개발되었다. 2016년 이후, 일부 개인정보보호 전문가들은 공정성의 관점에서 개인정보보호를 보기 시작했다. 전문가들은 "'무엇을 알고 있느냐'는 문제에서 '그것을 가지고 무엇을 하느냐'는 문제로 초점을 옮겼다"고 한다.
생성형 AI는 이미지나 소스 코드 등의 영역을 포함하여 라이선스를 취득하지 않고 저작권으로 보호되는 작품으로 훈련되는 경우가 많으며, 그 출력물은 공정 이용의 법리를 근거로 사용된다. 전문가들 사이에서는 이러한 논리가 법정에서 어느 정도, 어떤 상황에서 통용될 수 있는지에 대한 의견이 분분하다. 관련 법리는 "저작권으로 보호되는 작품의 사용 목적과 성격" 또는 "저작권으로 보호되는 작품의 잠재적 시장에 대한 영향"을 포함할 수 있다.[335] 콘텐츠가 스크래핑되는 것을 원하지 않는 웹사이트 소유자는 robots.txt 파일로 그 뜻을 나타낼 수 있다.[336] 2023년, 존 그리샴과 조너선 프랜젠을 포함한 저명한 작가들은 생성형 AI 훈련에 자신의 작품을 사용했다며 AI 기업을 고소했다. 또 다른 논의되는 접근 방식은 인간 저자에게 공정한 귀속과 보상을 보장하기 위해 인공지능에 의해 생성된 창작물을 보호하는 독자적인 시스템을 구상하는 것이다.[337]
==== 기술 대기업의 독점 ====
상업용 인공지능 분야는 알파벳, 아마존, 애플, 메타, 마이크로소프트 등 거대 기술 기업들이 지배하고 있다.[358][359][360] 이들 기업 중 일부는 데이터센터의 기존 클라우드 인프라와 막대한 컴퓨팅 자원의 상당 부분을 점유하고 있어 시장 지배력을 더욱 강화할 수 있다.[361][362] 이러한 독과점 구조는 인공지능 시장의 공정한 경쟁을 저해하고, 소규모 기업이나 신생 기업의 혁신적인 기술 개발을 방해하는 걸림돌로 작용할 수 있다는 점에서 우려를 낳고 있다.
==== 전력 수요 및 환경 영향 ====
국제에너지기구(IEA)는 2024년 1월, 데이터센터와 인공지능, 암호화폐의 전력 소비량을 예측하는 보고서를 발표했다. 이 보고서에 따르면, 이러한 용도의 전력 수요는 2026년까지 두 배로 증가하여 일본 전체 전력 사용량에 필적할 가능성이 있다고 한다.[346]
AI에 의한 막대한 전력 소비는 화석연료 사용 증가의 원인이며, 구형 화력발전소의 폐쇄를 지연시킬 가능성이 있다. 미국 전역에서 데이터센터 건설이 급증하고 있으며, 주요 기술 기업(Microsoft, Meta, Google, Amazon 등)은 막대한 전력 소비자이다. 챗GPT 검색에는 Google 검색의 10배의 전력 소비량이 필요하다. 대기업들은 원자력발전부터 지열발전, 핵융합에 이르기까지 전력원 확보에 박차를 가하고 있다. 기술 기업들은 장기적으로 AI가 궁극적으로 환경 친화적으로 될 것이라고 주장하지만, 현재로서는 해결의 기미가 보이지 않는다. AI가 전력망을 더 효율적이고 "지능적"으로 만들고, 원자력 발전의 성장을 돕고, 전체적인 탄소 배출량을 줄일 것이라고 주장한다.[347]
AI용 반도체의 최대 기업인 엔비디아(Nvidia)의 CEO인 젠슨 황(Jensen Huang)은 "원자력 발전이 좋은 선택"이라고 말했다.[348] 엔비디아가 투자한 클라우드 게임 서비스 기업 유비투스(Ubitus)는 일본 국내에서 생성 AI용 데이터센터 신설을 위해 원자력 발전소 인근 부지를 찾고 있으며, CEO인 곽영창(웨슬리 꾸오/Wesley Kuo영어)은 원자력 발전소가 "가장 효율적이고, 저렴하며, 안정적인 전력으로 AI에 적합하다"고 말했다.[349] 마이크로소프트(Microsoft)는 쓰리마일섬 원자력발전소 1호기를 재가동하여 20년 동안 AI 기술과 데이터센터에 전력을 공급받는 계약을 미국의 대형 전력 회사인 콘스텔레이션 에너지(Constellation Energy)와 체결했다.[350] 구글(Google)과 아마존(Amazon.com)도 AI 데이터센터의 전력원으로 원자로에서의 전력 구매에 나서고 있다.[351] 한편, 후쿠시마 제1 원자력 발전소 사고의 주변 피해 지역은 재생에너지를 이용한 AI 데이터센터의 거점이 되고 있다.[352]
2024년 골드만삭스(Goldman Sachs)의 연구 논문 "AI 데이터센터와 미래의 미국 전력 수요 급증"에서는 "미국의 전력 수요는 지난 1세대 동안 볼 수 없었던 성장을 경험할 가능성이 높다"고 언급하며, 2030년까지 미국의 데이터센터가 미국의 전력의 8%를 소비할 것이라고 예측하고 있다. (2022년에는 3%)[353] 데이터센터의 전력 수요는 점점 증가하고 있으며, 전력 공급망이 한계에 도달할 가능성이 있다. 대형 기술 기업 등은 AI를 사용함으로써 전력망을 최대한 활용할 수 있다고 주장하고 있다.[354]
==== 가짜 정보 ====
유튜브와 페이스북 등은 사용자를 콘텐츠로 유도하기 위해 추천 시스템을 사용한다. 그 인공지능 프로그램에는 사용자 참여를 최적화한다는 목표가 주어졌다(즉, 유일한 목표는 사용자로 하여금 계속 시청하게 만드는 것이었다). 인공지능은 사용자가 가짜뉴스나 음모론, 극단적으로 당파적인 콘텐츠를 선택하는 경향이 있다는 것을 학습하고, 사용자로 하여금 계속 시청하게 하기 위해 그것을 추천했다. 사용자는 같은 주제의 콘텐츠를 더 많이 보는 경향이 있었기 때문에, 인공지능은 사용자를 필터 버블로 이끌었고, 같은 가짜뉴스를 지지하는 다른 콘텐츠를 반복적으로 접하게 되었다.[338] 이로 인해 많은 사용자가 가짜뉴스를 사실이라고 믿게 되었고, 궁극적으로 기업, 미디어, 정부에 대한 신뢰가 손상되었다. 인공지능은 목표를 극대화하는 것을 정확하게 학습했지만, 그 결과는 사회적으로 해롭게 되었다. 2016년 미국 대통령 선거 이후, 빅테크는 이 문제를 완화하기 위한 조치를 취했다.
2022년, 생성형 AI로 인해 실제 또는 인간이 만든 것과 구별할 수 없는 이미지, 음성, 비디오, 텍스트를 생성할 수 있게 되었다. 악의적인 사람들이 이 기술을 사용하여 대량의 가짜뉴스와 선전을 만들어낼 가능성이 있다. 인공지능의 선구자인 제프리 힌턴은 인공지능으로 인해 "권위주의적 지도자가 유권자를 대규모로 조작하는" 것을 가능하게 하는 위험에 대해 우려를 표명했다.
==== 알고리즘 편향과 공정성 ====
기계 학습 애플리케이션은 편향된 데이터로 학습하면 편향을 포함하게 된다.[341] 개발자는 편향의 존재를 인식하지 못할 수 있다. 훈련 데이터의 선택 방식이나 모델의 배포 방식에 따라 편향이 발생할 수 있다. 중대한 피해를 입힐 수 있는 결정을 내리는 데 편향된 알고리즘이 사용되는 경우(의료, 금융, 채용, 주택, 경찰 등) 해당 알고리즘은 차별을 초래할 수 있다.[341]
2015년 6월 28일, 구글 포토에 도입된 이미지 라벨 기능은 흑인 사진을 잘못 "고릴라"로 식별했다. 이 시스템은 흑인 이미지가 거의 포함되지 않은 데이터 세트로 훈련되었는데, 이는 "표본 크기 불일치"라고 불리는 문제이다. 구글(Google)은 "고릴라" 라벨링 자체를 방지함으로써 이 문제를 "해결"했다. 8년 후인 2023년에도 구글 포토는 고릴라를 식별하지 못했고, 애플(Apple), 페이스북(Facebook), 마이크로소프트(Microsoft), 아마존(Amazon)의 유사한 제품들도 식별하지 못했다.
COMPAS는 피고인의 재범 위험을 평가하기 위해 미국의 법원에서 널리 사용되는 상용 프로그램이다. 2016년, 프로퍼블리카(ProPublica)의 줄리아 앵그윈은 프로그램에 피고인의 인종에 대한 입력값이 포함되어 있지 않았음에도 불구하고 COMPAS가 인종적 편견을 보인다는 것을 발견했다. 백인과 흑인 모두의 오류율은 정확히 61%로 조정되었지만, 오류의 실제 양상은 달랐다. 시스템은 흑인의 재범 가능성을 지속적으로 과대 평가하고 백인의 재범 가능성을 과소 평가했다. 2017년, 여러 연구자들은 데이터 내 백인과 흑인의 기본 재범률이 다를 경우 COMPAS가 공정성의 가능한 모든 척도에 부합하는 것은 수학적으로 불가능함을 보였다.[342]
데이터에 문제가 있는 특징("인종"이나 "성별" 등)이 명시적으로 기재되어 있지 않더라도 프로그램은 편향된 결정을 내릴 수 있다. 이 특징은 다른 특징("주소", "쇼핑 내역", 또는 "이름" 등)과 상관관계가 있으며, 프로그램은 이러한 특징을 기반으로 "인종"이나 "성별"과 동일한 결정을 내린다.[343] 모리츠 하르트는 "이 연구 분야에서 가장 확실한 사실은 맹검에 의한 공정성은 작동하지 않는다는 것이다"라고 말했다.[344]
==== 투명성 부족 ====
많은 인공지능 시스템은 매우 복잡하여 설계자조차 어떻게 결정에 도달했는지 설명할 수 없다. 특히 심층 신경망에서는 입력과 출력 사이에 많은 비선형 관계가 존재한다. 그러나 일반적인 설명 가능성 기술도 존재한다.[339]
프로그램의 작동 방식을 정확히 모르면 프로그램의 정상 작동 여부를 확인할 수 없다. 기계 학습 프로그램이 엄격한 테스트를 통과했더라도 프로그래머의 의도와 다르게 학습한 사례가 많다. 예를 들어, 어떤 인공지능 시스템은 의료 전문가보다 더 정확하게 피부 질환을 식별할 수 있다고 평가되었지만, 크기가 표시된 이미지를 "암"으로 분류하는 경향이 강한 것으로 나타났다. 이는 악성 종양 이미지에 일반적으로 크기를 나타내는 눈금이 포함되어 있기 때문이다. 의료 자원을 효율적으로 배분하기 위해 설계된 또 다른 기계 학습 시스템은 실제로는 폐렴의 심각한 위험 요소인 천식에 대해, 천식 환자를 폐렴으로 사망할 "위험이 낮다"고 분류하는 것으로 나타났다. 이는 천식 환자는 의료 서비스를 받을 기회가 많기 때문에, 훈련 데이터에 따르면 사망할 가능성이 상대적으로 낮은 것으로 나타났기 때문이다. 천식과 폐렴 사망 위험의 낮음에 대한 상관관계는 사실이지만, 오해의 소지가 있었다.
알고리즘의 결정으로 피해를 입은 경우 설명받을 권리가 있다.[340] 예를 들어, 의사는 자신이 내린 결정의 배경에 대한 이유를 명확하고 완벽하게 설명해야 한다. 2016년, 유럽 연합의 일반 데이터 보호 규정 초기 초안에는 이 권리가 명시되어 있었다. 업계 전문가들은 이것이 해결책이 없는 미해결 문제라고 지적했다. 규제 당국은 그럼에도 피해는 현실이며, 문제에 해결책이 없다면 사용해서는 안 된다고 주장했다.
방위고등연구계획국(DARPA)은 이러한 문제를 해결하기 위해 2014년 XAI(설명 가능한 인공지능) 프로그램을 설립했다. 투명성 문제에는 몇 가지 해결책이 있다. SHAP은 각 특징의 출력에 대한 기여를 시각화하여 투명성 문제 해결을 시도했다. LIME은 더 단순하고 해석 가능한 모델로, 모델을 국소적으로 근사할 수 있다. 은 목표 분류 외에도 여러 출력을 제공한다. 이러한 다른 출력은 개발자가 네트워크가 무엇을 학습했는지 추론하는 데 도움이 된다. 역전파 , 딥드림 및 기타 생성 방법을 사용하면 개발자는 신경망의 다양한 계층이 무엇을 학습했는지 확인하고 네트워크가 무엇을 학습하고 있는지 나타내는 출력을 생성할 수 있다.
==== 악의적 행위자와 무기화된 AI ====
인공지능은 권위주의 국가, 테러리스트, 범죄자, 불량국가 등의 위협 행위자에게 유용한 도구를 많이 제공한다.
자율살상무기는 인간의 조작 없이 인간 표적을 식별하고, 선택하고, 공격하는 기계이다. 널리 이용 가능한 인공지능 도구는 위협 행위자에 의해 저렴한 자율무기 개발에 사용될 수 있으며, 대량 생산될 경우 대량살상무기가 될 가능성이 있다. 일반적인 전쟁에서 사용되더라도, 표적을 정확하게 식별할 가능성이 낮아 무고한 사람들을 살해할 가능성이 있다. 2014년, 중국을 포함한 30개국이 유엔 특정재래식무기협약에 따른 자율무기 금지를 지지했지만, 미국 등이 이에 동의하지 않았다. 2015년까지 50개국 이상이 전장용 로봇 연구를 수행하고 있다고 보고되었다.[355]
인공지능 도구를 사용하면 권위주의 국가가 다양한 방법으로 국민을 효율적으로 통제하는 것이 용이해진다. 얼굴 인식 및 음성 인식을 통해 광범위한 감시가 가능해진다. 이 데이터를 활용한 기계 학습을 통해 국가의 잠재적 적을 분류하고, 잠복을 방지할 수 있다. 추천 시스템은 선전이나 잘못된 정보를 퍼뜨려 효과를 극대화할 수 있다. 딥페이크와 생성형 AI는 잘못된 정보를 만들어내는 데 유용하다. 고도의 인공지능은 권위주의적인 중앙 집권적 의사결정을 시장 등 자유로운 분산형 시스템보다 경쟁력 있게 만들 수 있다. 이로 인해 디지털 전쟁과 고도의 스파이웨어 운영 비용이 감소한다. 이러한 기술은 2020년 이전부터 이용 가능했으며, AI 얼굴 인식 시스템은 이미 중국에서 대규모 감시에 사용되고 있다.[356][357]
인공지능이 위협 행위자 지원으로 이어질 가능성은 다른 많은 것들이 있지만, 그중에는 예측할 수 없는 것들도 있다. 예를 들어, 인공지능은 수 시간 만에 수만 가지의 유독 화합물의 분자 구조를 설계할 수 있다.
==== 기술적 실업 ====
지금까지 과학 기술은 일자리를 줄이기보다는 증가시키는 경향이 있었으나 경제학자들은 인공지능(AI)에 관해서는 미지의 영역이라고 인정한다. 경제학자들을 대상으로 한 설문에서 로봇과 AI의 사용 증가가 장기 실업자를 늘릴지에 대해 물은 결과 의견이 크게 분분했으며, 다만 늘어난 생산성이 재분배된다면 순이익이 될 수 있다는 데에 동의한다.[627]
또한 블루칼라 직종을 위협하던 종래의 자동화와 달리 인공지능에 의한 자동화는 많은 중산층의 화이트칼라 일자리도 위협할 수 있다는 점이 중대하게 받아들여진다.[628] 그 영향 범위도 매우 넓어서 법률 사무원에서 패스트푸드 다양한 직종이 큰 위기에 놓일 것이라 예측되는데, 한편으로 개인 건강 관리나 성직자 등 일부 직종은 오히려 수요가 증가할 수 있다고 예상된다.[629][630]
==== 존재적 위험 ====
인공지능의 급격한 발전은 인류의 미래에 대한 낙관적인 전망과 함께, 인공지능이 인간의 통제를 벗어나 인류를 위협할 수 있다는 존재적 위험에 대한 우려를 증폭시키고 있다. 이러한 우려는 단순한 공상과학 소설 속 이야기가 아니라, 저명한 과학자와 기술 전문가들의 진지한 경고를 통해 제기되고 있다.
스티븐 호킹 박사는 생전에 인공지능이 인류의 종말을 초래할 수 있다고 경고하며, 인공지능의 발전을 경계해야 한다고 주장했다. 빌 게이츠 마이크로소프트 창업자 역시 인공지능의 잠재적 위험성에 대해 우려를 표명하며, 이에 대한 논의와 대비가 필요하다고 강조했다. 일론 머스크 테슬라 CEO는 인공지능을 "인류 문명의 근본적인 위험"으로 규정하고, 인공지능 개발에 대한 규제와 안전장치 마련을 촉구하고 있다. 특히, 일론 머스크는 인공지능이 핵무기보다 더 위험할 수 있다고 경고하며, 국제적인 협력을 통해 인공지능의 위험을 관리해야 한다고 주장한다.
==== 윤리적 기계와 정렬 ====
우호적인 AI는 처음부터 위험을 최소화하고 인간에게 이익이 되는 선택을 하도록 설계된 기계이다. 이 용어를 만든 엘리에저 유드코프스키(Eliezer Yudkowsky)는 우호적인 AI 개발이 더 높은 연구 우선순위가 되어야 한다고 주장한다. 이는 상당한 투자가 필요할 수 있으며, AI가 존재론적 위험이 되기 전에 완료되어야 한다.
지능을 가진 기계는 자신의 지능을 사용하여 윤리적인 결정을 내릴 가능성이 있다. 기계 윤리 분야는 기계에 윤리적 원칙과 윤리적 딜레마를 해결하기 위한 절차를 제공한다. 기계 윤리 분야는 계산 도덕성이라고도 하며, 2005년 미국 인공지능 학회(AAAI)(AAAI) 심포지엄에서 설립되었다.
다른 접근 방식으로는 웬델 월러치(Wendell Wallach)의 "인공 도덕적 행위자"와 스튜어트 러셀(Stuart J. Russell)의 증명 가능하게 유익한 기계를 개발하기 위한 세 가지 원칙이 있다. 구글(Google)은 2019년 3월, 인공지능 프로젝트를 윤리적으로 지도하기 위해 철학자, 정책 입안자, 경제학자, 기술 전문가 등으로 구성된 AI 윤리 위원회를 설립한다고 발표했다. 그러나 윤리 위원회에는 반과학적이며 반소수자적이고 지구 온난화 회의론을 지지하는 인물도 포함되어 있어 구글 직원들은 해임을 요청했다. 4월 4일, 구글은 윤리 위원회가 "기대대로 기능할 수 없다는 사실이 밝혀졌다"는 이유로 위원회 해산을 발표했다.
동양철학을 AI에 흡수시키려는 미야케 요이치로(三宅陽一郎)의 주제에 따라, 이구치 타카히토(井口尊仁)는 자신의 프로젝트인 "토리이(TORII)"를 언급하며, "우리는 애니미즘으로, 모든 것에 영혼적인 존재를 발견하는 문화를 가지고 있습니다"라고 미야케와 타테이시 츠네히로(立石従寛)에게 말한다. 애니미즘적인 인공지능 이론은 현대미술과, "선의 깨달음을 어떻게 AI에게 시키는가"를 논한 미야케의 『인공지능을 위한 철학 수업 동양철학편』에도 통한다.
전 구글 엔지니어인 앤써니 레반도프스키(Anthony Levandowski)는 2017년, AI를 신으로 하는 종교 단체 "Way of the Future(미래의 길)"를 설립했다. 이 단체의 사명은 "인공지능(AI)에 기반한 Godhead의 실현을 촉진하고 개발하며, Godhead의 이해와 숭배를 통해 사회에 기여하는 것"으로 추상적으로 표현되어 있으며, 많은 해외 언론은 SF영화나 역사 등과 연관지어 보도했다. 우버(Uber)와 구글의 Waymo는 레반도프스키가 자율 주행 관련 기밀 정보를 도용했다고 주장하며 소송을 진행하고 있는 한편, 레반도프스키는 우버의 전 CEO(트래비스 캘러닉(Travis Kalanick))에게 "봇 하나하나, 우리는 세계를 정복할 것이다"라고 말하는 등 야심적인 행동을 보였다.
2021년 메타 분석에 따르면, 인공지능 설계는 물론 학제 간이며, 감각의 한계에 따른 편견을 피하도록 주의하면서 우주의 다양한 물질과 생물의 특성을 이해해야 한다[466]
발명가 레이 커즈와일(Ray Kurzweil)이 말하길, 철학자 존 설(John Searle)이 제기한 강한 AI와 약한 AI 논쟁은 AI 철학 논의에서 뜨거운 화두이다[467]. 철학자 존 설(John Searle)과 다니엘 데닛(Daniel Dennett)에 따르면, 설의 "중국어 방"과 네드 블록(Ned Block) 등의 "중국인의 뇌"와 같은 기능주의에 비판적인 사고 실험은 진정한 의식이 형식 논리 시스템으로 구현될 수 없다고 주장한다[468][469].
5. 1. 1. 개인정보보호 및 저작권
기계 학습에는 방대한 양의 데이터가 필요하다. 이 데이터를 얻기 위해 사용되는 방법은 개인정보보호, 감시, 저작권과 관련된 우려를 불러일으킨다.기술 기업들은 사용자로부터 온라인 활동, 위치 정보 데이터, 비디오, 음성 등 광범위한 데이터를 수집하고 있다. 예를 들어, 음성 인식 알고리즘을 구축하기 위해 아마존은 수백만 건의 개인적인 대화를 녹음하고, 임시직 노동자들에게 그 내용을 기록하도록 허용했다. 이러한 광범위한 감시에 대한 의견은 불가피한 악으로 여기는 사람부터 명백히 비윤리적이며 개인정보 침해라고 생각하는 사람까지 다양하다.
AI 개발자들은 이러한 방법이 가치 있는 애플리케이션을 제공하는 유일한 방법이라고 주장한다. 그리고, 데이터를 얻으면서 개인정보를 보호하는 몇 가지 방법이 개발되었다. 2016년 이후, 일부 개인정보보호 전문가들은 공정성의 관점에서 개인정보보호를 보기 시작했다. 전문가들은 "'무엇을 알고 있느냐'는 문제에서 '그것을 가지고 무엇을 하느냐'는 문제로 초점을 옮겼다"고 한다.
생성형 AI는 이미지나 소스 코드 등의 영역을 포함하여 라이선스를 취득하지 않고 저작권으로 보호되는 작품으로 훈련되는 경우가 많으며, 그 출력물은 공정 이용의 법리를 근거로 사용된다. 전문가들 사이에서는 이러한 논리가 법정에서 어느 정도, 어떤 상황에서 통용될 수 있는지에 대한 의견이 분분하다. 관련 법리는 "저작권으로 보호되는 작품의 사용 목적과 성격" 또는 "저작권으로 보호되는 작품의 잠재적 시장에 대한 영향"을 포함할 수 있다.[335] 콘텐츠가 스크래핑되는 것을 원하지 않는 웹사이트 소유자는 robots.txt 파일로 그 뜻을 나타낼 수 있다.[336] 2023년, 존 그리샴과 조너선 프랜젠을 포함한 저명한 작가들은 생성형 AI 훈련에 자신의 작품을 사용했다며 AI 기업을 고소했다. 또 다른 논의되는 접근 방식은 인간 저자에게 공정한 귀속과 보상을 보장하기 위해 인공지능에 의해 생성된 창작물을 보호하는 독자적인 시스템을 구상하는 것이다.[337]
5. 1. 2. 기술 대기업의 독점
상업용 인공지능 분야는 알파벳, 아마존, 애플, 메타, 마이크로소프트 등 거대 기술 기업들이 지배하고 있다.[358][359][360] 이들 기업 중 일부는 데이터센터의 기존 클라우드 인프라와 막대한 컴퓨팅 자원의 상당 부분을 점유하고 있어 시장 지배력을 더욱 강화할 수 있다.[361][362] 이러한 독과점 구조는 인공지능 시장의 공정한 경쟁을 저해하고, 소규모 기업이나 신생 기업의 혁신적인 기술 개발을 방해하는 걸림돌로 작용할 수 있다는 점에서 우려를 낳고 있다.5. 1. 3. 전력 수요 및 환경 영향
국제에너지기구(IEA)는 2024년 1월, 데이터센터와 인공지능, 암호화폐의 전력 소비량을 예측하는 보고서를 발표했다. 이 보고서에 따르면, 이러한 용도의 전력 수요는 2026년까지 두 배로 증가하여 일본 전체 전력 사용량에 필적할 가능성이 있다고 한다.[346]AI에 의한 막대한 전력 소비는 화석연료 사용 증가의 원인이며, 구형 화력발전소의 폐쇄를 지연시킬 가능성이 있다. 미국 전역에서 데이터센터 건설이 급증하고 있으며, 주요 기술 기업(Microsoft, Meta, Google, Amazon 등)은 막대한 전력 소비자이다. 챗GPT 검색에는 Google 검색의 10배의 전력 소비량이 필요하다. 대기업들은 원자력발전부터 지열발전, 핵융합에 이르기까지 전력원 확보에 박차를 가하고 있다. 기술 기업들은 장기적으로 AI가 궁극적으로 환경 친화적으로 될 것이라고 주장하지만, 현재로서는 해결의 기미가 보이지 않는다. AI가 전력망을 더 효율적이고 "지능적"으로 만들고, 원자력 발전의 성장을 돕고, 전체적인 탄소 배출량을 줄일 것이라고 주장한다.[347]
AI용 반도체의 최대 기업인 엔비디아(Nvidia)의 CEO인 젠슨 황(Jensen Huang)은 "원자력 발전이 좋은 선택"이라고 말했다.[348] 엔비디아가 투자한 클라우드 게임 서비스 기업 유비투스(Ubitus)는 일본 국내에서 생성 AI용 데이터센터 신설을 위해 원자력 발전소 인근 부지를 찾고 있으며, CEO인 곽영창(웨슬리 꾸오/Wesley Kuo영어)은 원자력 발전소가 "가장 효율적이고, 저렴하며, 안정적인 전력으로 AI에 적합하다"고 말했다.[349] 마이크로소프트(Microsoft)는 쓰리마일섬 원자력발전소 1호기를 재가동하여 20년 동안 AI 기술과 데이터센터에 전력을 공급받는 계약을 미국의 대형 전력 회사인 콘스텔레이션 에너지(Constellation Energy)와 체결했다.[350] 구글(Google)과 아마존(Amazon.com)도 AI 데이터센터의 전력원으로 원자로에서의 전력 구매에 나서고 있다.[351] 한편, 후쿠시마 제1 원자력 발전소 사고의 주변 피해 지역은 재생에너지를 이용한 AI 데이터센터의 거점이 되고 있다.[352]
2024년 골드만삭스(Goldman Sachs)의 연구 논문 "AI 데이터센터와 미래의 미국 전력 수요 급증"에서는 "미국의 전력 수요는 지난 1세대 동안 볼 수 없었던 성장을 경험할 가능성이 높다"고 언급하며, 2030년까지 미국의 데이터센터가 미국의 전력의 8%를 소비할 것이라고 예측하고 있다. (2022년에는 3%)[353] 데이터센터의 전력 수요는 점점 증가하고 있으며, 전력 공급망이 한계에 도달할 가능성이 있다. 대형 기술 기업 등은 AI를 사용함으로써 전력망을 최대한 활용할 수 있다고 주장하고 있다.[354]
5. 1. 4. 가짜 정보
유튜브와 페이스북 등은 사용자를 콘텐츠로 유도하기 위해 추천 시스템을 사용한다. 그 인공지능 프로그램에는 사용자 참여를 최적화한다는 목표가 주어졌다(즉, 유일한 목표는 사용자로 하여금 계속 시청하게 만드는 것이었다). 인공지능은 사용자가 가짜뉴스나 음모론, 극단적으로 당파적인 콘텐츠를 선택하는 경향이 있다는 것을 학습하고, 사용자로 하여금 계속 시청하게 하기 위해 그것을 추천했다. 사용자는 같은 주제의 콘텐츠를 더 많이 보는 경향이 있었기 때문에, 인공지능은 사용자를 필터 버블로 이끌었고, 같은 가짜뉴스를 지지하는 다른 콘텐츠를 반복적으로 접하게 되었다.[338] 이로 인해 많은 사용자가 가짜뉴스를 사실이라고 믿게 되었고, 궁극적으로 기업, 미디어, 정부에 대한 신뢰가 손상되었다. 인공지능은 목표를 극대화하는 것을 정확하게 학습했지만, 그 결과는 사회적으로 해롭게 되었다. 2016년 미국 대통령 선거 이후, 빅테크는 이 문제를 완화하기 위한 조치를 취했다.2022년, 생성형 AI로 인해 실제 또는 인간이 만든 것과 구별할 수 없는 이미지, 음성, 비디오, 텍스트를 생성할 수 있게 되었다. 악의적인 사람들이 이 기술을 사용하여 대량의 가짜뉴스와 선전을 만들어낼 가능성이 있다. 인공지능의 선구자인 제프리 힌턴은 인공지능으로 인해 "권위주의적 지도자가 유권자를 대규모로 조작하는" 것을 가능하게 하는 위험에 대해 우려를 표명했다.
5. 1. 5. 알고리즘 편향과 공정성
기계 학습 애플리케이션은 편향된 데이터로 학습하면 편향을 포함하게 된다.[341] 개발자는 편향의 존재를 인식하지 못할 수 있다. 훈련 데이터의 선택 방식이나 모델의 배포 방식에 따라 편향이 발생할 수 있다. 중대한 피해를 입힐 수 있는 결정을 내리는 데 편향된 알고리즘이 사용되는 경우(의료, 금융, 채용, 주택, 경찰 등) 해당 알고리즘은 차별을 초래할 수 있다.[341]2015년 6월 28일, 구글 포토에 도입된 이미지 라벨 기능은 흑인 사진을 잘못 "고릴라"로 식별했다. 이 시스템은 흑인 이미지가 거의 포함되지 않은 데이터 세트로 훈련되었는데, 이는 "표본 크기 불일치"라고 불리는 문제이다. 구글(Google)은 "고릴라" 라벨링 자체를 방지함으로써 이 문제를 "해결"했다. 8년 후인 2023년에도 구글 포토는 고릴라를 식별하지 못했고, 애플(Apple), 페이스북(Facebook), 마이크로소프트(Microsoft), 아마존(Amazon)의 유사한 제품들도 식별하지 못했다.
COMPAS는 피고인의 재범 위험을 평가하기 위해 미국의 법원에서 널리 사용되는 상용 프로그램이다. 2016년, 프로퍼블리카(ProPublica)의 줄리아 앵그윈은 프로그램에 피고인의 인종에 대한 입력값이 포함되어 있지 않았음에도 불구하고 COMPAS가 인종적 편견을 보인다는 것을 발견했다. 백인과 흑인 모두의 오류율은 정확히 61%로 조정되었지만, 오류의 실제 양상은 달랐다. 시스템은 흑인의 재범 가능성을 지속적으로 과대 평가하고 백인의 재범 가능성을 과소 평가했다. 2017년, 여러 연구자들은 데이터 내 백인과 흑인의 기본 재범률이 다를 경우 COMPAS가 공정성의 가능한 모든 척도에 부합하는 것은 수학적으로 불가능함을 보였다.[342]
데이터에 문제가 있는 특징("인종"이나 "성별" 등)이 명시적으로 기재되어 있지 않더라도 프로그램은 편향된 결정을 내릴 수 있다. 이 특징은 다른 특징("주소", "쇼핑 내역", 또는 "이름" 등)과 상관관계가 있으며, 프로그램은 이러한 특징을 기반으로 "인종"이나 "성별"과 동일한 결정을 내린다.[343] 모리츠 하르트는 "이 연구 분야에서 가장 확실한 사실은 맹검에 의한 공정성은 작동하지 않는다는 것이다"라고 말했다.[344]
5. 1. 6. 투명성 부족
많은 인공지능 시스템은 매우 복잡하여 설계자조차 어떻게 결정에 도달했는지 설명할 수 없다. 특히 심층 신경망에서는 입력과 출력 사이에 많은 비선형 관계가 존재한다. 그러나 일반적인 설명 가능성 기술도 존재한다.[339]프로그램의 작동 방식을 정확히 모르면 프로그램의 정상 작동 여부를 확인할 수 없다. 기계 학습 프로그램이 엄격한 테스트를 통과했더라도 프로그래머의 의도와 다르게 학습한 사례가 많다. 예를 들어, 어떤 인공지능 시스템은 의료 전문가보다 더 정확하게 피부 질환을 식별할 수 있다고 평가되었지만, 크기가 표시된 이미지를 "암"으로 분류하는 경향이 강한 것으로 나타났다. 이는 악성 종양 이미지에 일반적으로 크기를 나타내는 눈금이 포함되어 있기 때문이다. 의료 자원을 효율적으로 배분하기 위해 설계된 또 다른 기계 학습 시스템은 실제로는 폐렴의 심각한 위험 요소인 천식에 대해, 천식 환자를 폐렴으로 사망할 "위험이 낮다"고 분류하는 것으로 나타났다. 이는 천식 환자는 의료 서비스를 받을 기회가 많기 때문에, 훈련 데이터에 따르면 사망할 가능성이 상대적으로 낮은 것으로 나타났기 때문이다. 천식과 폐렴 사망 위험의 낮음에 대한 상관관계는 사실이지만, 오해의 소지가 있었다.
알고리즘의 결정으로 피해를 입은 경우 설명받을 권리가 있다.[340] 예를 들어, 의사는 자신이 내린 결정의 배경에 대한 이유를 명확하고 완벽하게 설명해야 한다. 2016년, 유럽 연합의 일반 데이터 보호 규정 초기 초안에는 이 권리가 명시되어 있었다. 업계 전문가들은 이것이 해결책이 없는 미해결 문제라고 지적했다. 규제 당국은 그럼에도 피해는 현실이며, 문제에 해결책이 없다면 사용해서는 안 된다고 주장했다.
방위고등연구계획국(DARPA)은 이러한 문제를 해결하기 위해 2014년 XAI(설명 가능한 인공지능) 프로그램을 설립했다. 투명성 문제에는 몇 가지 해결책이 있다. SHAP은 각 특징의 출력에 대한 기여를 시각화하여 투명성 문제 해결을 시도했다. LIME은 더 단순하고 해석 가능한 모델로, 모델을 국소적으로 근사할 수 있다. 은 목표 분류 외에도 여러 출력을 제공한다. 이러한 다른 출력은 개발자가 네트워크가 무엇을 학습했는지 추론하는 데 도움이 된다. 역전파 , 딥드림 및 기타 생성 방법을 사용하면 개발자는 신경망의 다양한 계층이 무엇을 학습했는지 확인하고 네트워크가 무엇을 학습하고 있는지 나타내는 출력을 생성할 수 있다.
5. 1. 7. 악의적 행위자와 무기화된 AI
인공지능은 권위주의 국가, 테러리스트, 범죄자, 불량국가 등의 위협 행위자에게 유용한 도구를 많이 제공한다.자율살상무기는 인간의 조작 없이 인간 표적을 식별하고, 선택하고, 공격하는 기계이다. 널리 이용 가능한 인공지능 도구는 위협 행위자에 의해 저렴한 자율무기 개발에 사용될 수 있으며, 대량 생산될 경우 대량살상무기가 될 가능성이 있다. 일반적인 전쟁에서 사용되더라도, 표적을 정확하게 식별할 가능성이 낮아 무고한 사람들을 살해할 가능성이 있다. 2014년, 중국을 포함한 30개국이 유엔 특정재래식무기협약에 따른 자율무기 금지를 지지했지만, 미국 등이 이에 동의하지 않았다. 2015년까지 50개국 이상이 전장용 로봇 연구를 수행하고 있다고 보고되었다.[355]
인공지능 도구를 사용하면 권위주의 국가가 다양한 방법으로 국민을 효율적으로 통제하는 것이 용이해진다. 얼굴 인식 및 음성 인식을 통해 광범위한 감시가 가능해진다. 이 데이터를 활용한 기계 학습을 통해 국가의 잠재적 적을 분류하고, 잠복을 방지할 수 있다. 추천 시스템은 선전이나 잘못된 정보를 퍼뜨려 효과를 극대화할 수 있다. 딥페이크와 생성형 AI는 잘못된 정보를 만들어내는 데 유용하다. 고도의 인공지능은 권위주의적인 중앙 집권적 의사결정을 시장 등 자유로운 분산형 시스템보다 경쟁력 있게 만들 수 있다. 이로 인해 디지털 전쟁과 고도의 스파이웨어 운영 비용이 감소한다. 이러한 기술은 2020년 이전부터 이용 가능했으며, AI 얼굴 인식 시스템은 이미 중국에서 대규모 감시에 사용되고 있다.[356][357]
인공지능이 위협 행위자 지원으로 이어질 가능성은 다른 많은 것들이 있지만, 그중에는 예측할 수 없는 것들도 있다. 예를 들어, 인공지능은 수 시간 만에 수만 가지의 유독 화합물의 분자 구조를 설계할 수 있다.
5. 1. 8. 기술적 실업
지금까지 과학 기술은 일자리를 줄이기보다는 증가시키는 경향이 있었으나 경제학자들은 인공지능(AI)에 관해서는 미지의 영역이라고 인정한다. 경제학자들을 대상으로 한 설문에서 로봇과 AI의 사용 증가가 장기 실업자를 늘릴지에 대해 물은 결과 의견이 크게 분분했으며, 다만 늘어난 생산성이 재분배된다면 순이익이 될 수 있다는 데에 동의한다.[627]또한 블루칼라 직종을 위협하던 종래의 자동화와 달리 인공지능에 의한 자동화는 많은 중산층의 화이트칼라 일자리도 위협할 수 있다는 점이 중대하게 받아들여진다.[628] 그 영향 범위도 매우 넓어서 법률 사무원에서 패스트푸드 다양한 직종이 큰 위기에 놓일 것이라 예측되는데, 한편으로 개인 건강 관리나 성직자 등 일부 직종은 오히려 수요가 증가할 수 있다고 예상된다.[629][630]
5. 1. 9. 존재적 위험
인공지능의 급격한 발전은 인류의 미래에 대한 낙관적인 전망과 함께, 인공지능이 인간의 통제를 벗어나 인류를 위협할 수 있다는 존재적 위험에 대한 우려를 증폭시키고 있다. 이러한 우려는 단순한 공상과학 소설 속 이야기가 아니라, 저명한 과학자와 기술 전문가들의 진지한 경고를 통해 제기되고 있다.스티븐 호킹 박사는 생전에 인공지능이 인류의 종말을 초래할 수 있다고 경고하며, 인공지능의 발전을 경계해야 한다고 주장했다. 빌 게이츠 마이크로소프트 창업자 역시 인공지능의 잠재적 위험성에 대해 우려를 표명하며, 이에 대한 논의와 대비가 필요하다고 강조했다. 일론 머스크 테슬라 CEO는 인공지능을 "인류 문명의 근본적인 위험"으로 규정하고, 인공지능 개발에 대한 규제와 안전장치 마련을 촉구하고 있다. 특히, 일론 머스크는 인공지능이 핵무기보다 더 위험할 수 있다고 경고하며, 국제적인 협력을 통해 인공지능의 위험을 관리해야 한다고 주장한다.
5. 1. 10. 윤리적 기계와 정렬
우호적인 AI는 처음부터 위험을 최소화하고 인간에게 이익이 되는 선택을 하도록 설계된 기계이다. 이 용어를 만든 엘리에저 유드코프스키(Eliezer Yudkowsky)는 우호적인 AI 개발이 더 높은 연구 우선순위가 되어야 한다고 주장한다. 이는 상당한 투자가 필요할 수 있으며, AI가 존재론적 위험이 되기 전에 완료되어야 한다.지능을 가진 기계는 자신의 지능을 사용하여 윤리적인 결정을 내릴 가능성이 있다. 기계 윤리 분야는 기계에 윤리적 원칙과 윤리적 딜레마를 해결하기 위한 절차를 제공한다. 기계 윤리 분야는 계산 도덕성이라고도 하며, 2005년 미국 인공지능 학회(AAAI)(AAAI) 심포지엄에서 설립되었다.
다른 접근 방식으로는 웬델 월러치(Wendell Wallach)의 "인공 도덕적 행위자"와 스튜어트 러셀(Stuart J. Russell)의 증명 가능하게 유익한 기계를 개발하기 위한 세 가지 원칙이 있다. 구글(Google)은 2019년 3월, 인공지능 프로젝트를 윤리적으로 지도하기 위해 철학자, 정책 입안자, 경제학자, 기술 전문가 등으로 구성된 AI 윤리 위원회를 설립한다고 발표했다. 그러나 윤리 위원회에는 반과학적이며 반소수자적이고 지구 온난화 회의론을 지지하는 인물도 포함되어 있어 구글 직원들은 해임을 요청했다. 4월 4일, 구글은 윤리 위원회가 "기대대로 기능할 수 없다는 사실이 밝혀졌다"는 이유로 위원회 해산을 발표했다.
동양철학을 AI에 흡수시키려는 미야케 요이치로(三宅陽一郎)의 주제에 따라, 이구치 타카히토(井口尊仁)는 자신의 프로젝트인 "토리이(TORII)"를 언급하며, "우리는 애니미즘으로, 모든 것에 영혼적인 존재를 발견하는 문화를 가지고 있습니다"라고 미야케와 타테이시 츠네히로(立石従寛)에게 말한다. 애니미즘적인 인공지능 이론은 현대미술과, "선의 깨달음을 어떻게 AI에게 시키는가"를 논한 미야케의 『인공지능을 위한 철학 수업 동양철학편』에도 통한다.
전 구글 엔지니어인 앤써니 레반도프스키(Anthony Levandowski)는 2017년, AI를 신으로 하는 종교 단체 "Way of the Future(미래의 길)"를 설립했다. 이 단체의 사명은 "인공지능(AI)에 기반한 Godhead의 실현을 촉진하고 개발하며, Godhead의 이해와 숭배를 통해 사회에 기여하는 것"으로 추상적으로 표현되어 있으며, 많은 해외 언론은 SF영화나 역사 등과 연관지어 보도했다. 우버(Uber)와 구글의 Waymo는 레반도프스키가 자율 주행 관련 기밀 정보를 도용했다고 주장하며 소송을 진행하고 있는 한편, 레반도프스키는 우버의 전 CEO(트래비스 캘러닉(Travis Kalanick))에게 "봇 하나하나, 우리는 세계를 정복할 것이다"라고 말하는 등 야심적인 행동을 보였다.
2021년 메타 분석에 따르면, 인공지능 설계는 물론 학제 간이며, 감각의 한계에 따른 편견을 피하도록 주의하면서 우주의 다양한 물질과 생물의 특성을 이해해야 한다[466]
발명가 레이 커즈와일(Ray Kurzweil)이 말하길, 철학자 존 설(John Searle)이 제기한 강한 AI와 약한 AI 논쟁은 AI 철학 논의에서 뜨거운 화두이다[467]. 철학자 존 설(John Searle)과 다니엘 데닛(Daniel Dennett)에 따르면, 설의 "중국어 방"과 네드 블록(Ned Block) 등의 "중국인의 뇌"와 같은 기능주의에 비판적인 사고 실험은 진정한 의식이 형식 논리 시스템으로 구현될 수 없다고 주장한다[468][469].
6. 인공지능 관련 정책 및 규제
인공지능(AI)의 발전과 함께, 인공지능 기술을 규제하고 윤리적 문제를 해결하기 위한 정책 및 법률 제정 노력이 이루어지고 있다.[200] 인공지능에 대한 규제 및 정책 환경은 전 세계적으로 새롭게 등장하는 문제이다.[200] 스탠퍼드의 AI 지수에 따르면, 조사 대상 127개국에서 AI 관련 법률이 제정된 연간 수는 2016년 1개에서 2022년에는 37개로 급증했다.[200] 2016년부터 2020년까지 30개국 이상이 인공지능에 대한 전용 전략을 채택했다.[200]
대부분의 EU 회원국과 캐나다, 중국, 인도, 일본, 모리셔스, 러시아 연방, 사우디아라비아, 아랍에미리트, 미국, 베트남 등에서 국가 인공지능 전략을 발표했다.[200] 방글라데시, 말레이시아, 튀니지 등 다른 국가들도 자체 인공지능 전략을 구체화하는 과정에 있었다.[200] 인공지능 글로벌 파트너십은 2020년 6월에 출범하여 인공지능이 인권과 민주적 가치에 따라 개발되어야 하며, 기술에 대한 대중의 신뢰를 보장해야 할 필요성을 강조했다.[200]
헨리 키신저, 에릭 슈미트, 다니엘 허틀로처는 2021년 11월 공동 성명을 통해 인공지능을 규제할 정부 위원회를 촉구했다.[200] 2023년에는 OpenAI 지도자들이 10년 미만 안에 발생할 수 있다고 믿는 초지능 거버넌스에 대한 권고안을 발표했다.[200] 2023년에는 유엔도 인공지능 거버넌스에 대한 권고안을 제공하는 자문 기구를 출범시켰는데, 이 기구는 기술 기업 임원, 정부 관계자 및 학자들로 구성되었다.[201]
2023년 11월, 영국 블레치리 파크에서 첫 번째 글로벌 AI 안전 정상회의가 열려 AI의 단기 및 장기 위험과 의무적 및 자발적 규제 프레임워크의 가능성에 대해 논의되었다.[203] 미국, 중국, 유럽 연합을 포함한 28개국은 정상회의 시작 시 선언을 발표하여 인공지능의 과제와 위험을 관리하기 위한 국제 협력을 촉구했다.[204][205] 2024년 5월 AI 서울 정상회의에서 16개의 글로벌 AI 기술 기업들이 AI 개발에 대한 안전 약속에 동의했다.[206][207]
세계 최초의 포괄적인 AI 규제법으로 불리는 AI법(AI 규칙)이 2024년 유럽 연합(EU)에서 제정되었다. AI법은 AI 시스템을 유해 위험도에 따라 4단계로 분류하여 서로 다른 규제와 의무를 부과한다. 위반 시에는 수준별로 다른 제재금이 부과된다. 또한, 생성 AI를 주로 지칭하는 "범용 AI 모델"에 추가적인 특별 규제를 적용한다. 만약 일본이나 미국 등 EU 역외에 설립된 단체나 다른 국민이 개발한 AI라도, 그것이 EU 역내에 수입되어 판매 및 이용되면 AI법의 규제 대상이 된다.
2024년, 유럽 평의회는 "인공지능 및 인권, 민주주의, 법치에 관한 프레임워크 협약"이라는 최초의 국제적으로 법적 구속력이 있는 AI 조약을 만들었다. 이 조약은 유럽 연합, 미국, 영국 및 기타 서명국에 의해 채택되었다.[202]
7. 인공지능의 미래
7. 1. 초지능
초지능이란 인간의 능력을 아득히 뛰어넘는 가설적인 지능체를 가리키는 말이다. 어떤 전문가들은 인공 일반지능의 발전이 앞으로 계속해서 이어진다면 일정한 수준의 지능에 도달하고 나서는 인공지능이 스스로를 계속해서 개선할 수 있으며, 이를 반복하여 기하급수적인 지능 성장으로 순식간에 인간의 지능을 뛰어넘을지도 모른다고 주장한다.[626] 버너 빈지는 이 시나리오를 "특이점"이라고 이름하였다.[626][247]만약 인공 일반 지능 연구가 충분히 지능적인 소프트웨어를 만들어낸다면, 그것은 스스로를 재프로그래밍하고 개선할 수 있을 것이다. 개선된 소프트웨어는 자신을 개선하는 데 더욱 능숙해질 것이며, 이는 I. J. 굿이 "지능 폭발"이라고 부른 것으로 이어질 것이다.[247]
로봇 전문가 한스 모라벡이나 발명가 레이 커즈와일 등은 더 나아가 미래에는 인간이 기계와 결합한 사이보그로 진화하여 초지능을 손에 넣을 수 있을 것이라고 주장하는데, 이러한 주장을 트랜스휴머니즘이라고 한다.[626] 그러나 기술은 무한정 지수적으로 발전할 수 없으며, 일반적으로 S자 곡선을 따르며 기술이 할 수 있는 물리적 한계에 도달하면 속도가 느려진다.
7. 2. 트랜스휴머니즘
로봇 설계자 한스 모라벡(Hans Moravec), 사이버네틱스 학자 케빈 워릭(Kevin Warwick), 그리고 발명가 레이 커즈와일(Ray Kurzweil)은 인간과 기계가 미래에 사이보그로 합쳐져 기존의 인간이나 기계보다 더 능력 있고 강력해질 것이라고 예측했다. 트랜스휴머니즘이라고 불리는 이 개념은 올더스 헉슬리(Aldous Huxley)와 로버트 에팅거(Robert Ettinger)의 저술에 뿌리를 두고 있다.[248]에드워드 프레드킨(Edward Fredkin)은 "인공지능은 진화의 다음 단계"라고 주장하는데, 이는 1863년 새뮤얼 버틀러의 "기계 속의 다윈(Darwin among the Machines)"에서 처음 제안되었고, 조지 다이슨이 1998년 저서 ''기계 속의 다윈: 세계 지능의 진화(Darwin Among the Machines: The Evolution of Global Intelligence)''에서 확장하였다.[249]
8. 픽션에서의 인공지능
사고 능력을 가진 인공 존재는 고대부터 이야기 전개 장치로 등장해 왔으며, 과학 소설의 지속적인 주제였다. 메리 셸리의 ''프랑켄슈타인''에서처럼 인간이 창조한 존재가 자신의 창조주를 위협하는 내용은 문학적 기법으로 자주 활용되었다. ''2001 스페이스 오디세이''(1968년)의 HAL 9000, ''터미네이터''(1984년), ''매트릭스''(1999년) 등이 이러한 예시에 해당한다. 반대로 ''지구가 정지하는 날''(1951년)의 고트(Gort)나 ''에이리언 2''(1986년)의 비숍(Bishop)과 같은 충성스러운 로봇은 대중문화에서 크게 두드러지지 않는다.
아이작 아시모프는 여러 이야기에서 로봇 3원칙을 제시했다. 특히 초지능 컴퓨터 "멀티백"을 중심으로 이야기가 전개된다. 아시모프의 법칙은 기계 윤리에 대한 일반적인 논의에서 자주 언급되지만, 대부분의 인공지능 연구자들은 대중문화를 통해 아시모프의 법칙에 익숙하지만, 모호성 등 여러 가지 이유로 이 법칙들이 무용하다고 생각한다.
몇몇 작품에서는 인공지능을 사용하여 우리에게 무엇이 우리를 인간으로 만드는가라는 근본적인 질문에 직면하게 하고, 감정을 느끼고 고통을 받을 수 있는 인공 존재를 보여준다. 카렐 차페크(Karel Čapek)의 ''R.U.R.'', 영화 ''A.I. 인공지능'' 및 ''엑스 마키나'', 그리고 필립 K. 딕의 소설 ''안드로이드는 전기양을 꿈꾸는가?''에 이러한 내용이 나타난다. 필립 K. 딕은 인공지능으로 만들어진 기술에 의해 인간 주관성에 대한 우리의 이해가 바뀐다는 생각을 제시했다.
9. 유명 인공지능
9. 1. 지능적 기계
CNC는 공작 기계를 이용한 가공 코드를 컴퓨터가 소수점 3자리까지 계산하는 방식으로, 가장 원시적인 인공지능의 한 형태이다. 비디오 게임은 원시적인 인공지능이며, 알파고 역시 비디오 게임 형태의 바둑 인공지능이다. Watson은 IBM에서 만든 인공지능으로, 의학, 금융, 방송 등 다양한 분야에 쓰인다. [http://start.csail.mit.edu/ The Start Project]는 영어 질문에 답변하는 웹 기반 시스템이다. Cyc는 실세계와 논리적 추론 능력에 관련된 광범위한 상식으로 구성된 지식기반 시스템이다. 이외에도 사용자와 대화를 주고받을 수 있는 프로그램인 [http://www.pandorabots.com/pandora/talk?botid=f5d922d97e345aa1 ALICE], Alan, ELIZA 등이 있다. 1970년대에 개발된 AM은 수학 개념을 형식화하는 프로그램이고, PAM과 SAM은 줄거리 인식 시스템이다. SHRDLU는 초창기 자연 언어 인식 시스템이다. Creatures는 뉴널넷 두뇌와 정교한 생화학에 기반한 유전코드로 생명체를 탄생시키고 진화시키는 컴퓨터 게임이다. Eurisko는 휴리스틱으로 구성된 문제 해결 언어이다. X-Ray Vision for Surgeons는 매사추세츠 공과대학교 의학 비전(MIT Medical vision) 연구팀이 개발했다. 심심이는 한국어로 대화를 주고받을 수 있는 프로그램으로, 사용자에 의한 학습이 가능하여 대중적으로 성공했다.[622][623] Stable Diffusion web UI는 AI 그림을 생성할 수 있는 프로그램으로, 사용자가 직접 모델을 학습할 수 있다.[624]9. 2. 인공지능 연구가
마빈 민스키, 존 매카시, 더글러스 레넛, 로저 섕크, 앨런 튜링, 라지 레디, 테리 위노그래드, 로드니 브룩스, 스튜어트 러셀 등 많은 연구자들이 인공지능 분야에 기여했다.[625] 몇몇 컴퓨터 과학 연구가들은 "인공지능"이라는 용어가 현재 연구 수준과 일반적인 "지능" 개념 사이의 불일치를 초래한다고 비판하며, 케빈 워릭과 같은 대중 과학 작가들이 비현실적인 기대를 불러일으킨다고 지적한다. 이러한 이유로 인공지능 관련 분야 연구자들은 자신들의 연구를 인지 과학, 정보학, 통계 추론, 정보 공학 등으로 표현하기도 한다. 그러나 현재 인공지능은 전 세계 수많은 산업 시스템에서 활용되며 발전하고 있다.10. 언어
초기 인공지능 연구에서는 프롤로그와 같은 특수 프로그래밍 언어가 사용되었지만,[78] 최근에는 파이썬과 같은 범용 프로그래밍 언어가 주류가 되었다.[79] 2010년대 후반, 인공지능에 특화된 기능을 갖춘 그래픽 처리 장치(GPU)가 텐서플로 소프트웨어와 함께 사용되면서 기계 학습 모델 훈련의 주된 수단으로 중앙 처리 장치(CPU)를 대체하였다. 집적 회로의 트랜지스터 밀도는 약 18개월마다 두 배로 증가하는 무어의 법칙이 관찰되었으며, GPU의 성능 향상은 더욱 빨랐다.[80]
참조
[1]
뉴스
AI set to exceed human brain power
http://www.cnn.com/2[...]
CNN.com
2006-07-26
[2]
논문
Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence
2019
[3]
서적
(추정)
2021
[4]
서적
Problem-solving, puzzle solving, game playing, and deduction
2021, 1998, 2004, 1998
[5]
서적
Uncertain reasoning
2021, 1998, 2004, 1998
[6]
서적
Intractability and efficiency and the combinatorial explosion
2021
[7]
서적
Psychological evidence of the prevalence of sub-symbolic reasoning and knowledge
2011, 1986, 1966, 1982
[8]
서적
Knowledge representation and knowledge engineering
2021, 1998, 2004, 1998
[9]
서적
Representing categories and relations
2021, 1998, 2004, 1998
[10]
서적
Representing events and time
2021, 1998, 1998
[11]
서적
Causal calculus
1998
[12]
서적
Representing knowledge about knowledge
2021, 1998
[13]
서적
Default reasoning, Frame problem, default logic, non-monotonic logics, circumscription, closed world assumption, abduction
2021, 1998, 2004, 1998
[14]
서적
Breadth of commonsense knowledge
1989, 1993, 1988, 2021
[15]
서적
Automated planning
2021
[16]
서적
Automated decision making, Decision theory
2021
[17]
서적
Classical planning
2021
[18]
서적
Sensorless or "conformant" planning, contingent planning, replanning (a.k.a online planning)
2021
[19]
서적
Uncertain preferences, Inverse reinforcement learning
2021
[20]
서적
Information value theory
2021
[21]
서적
Markov decision process
2021
[22]
서적
Game theory and multi-agent decision theory
2021
[23]
서적
Learning
2021, 1998, 2004, 1998
[24]
서적
Unsupervised learning
2021
[25]
서적
Supervised learning
2021
[26]
서적
Reinforcement learning
2021, 2004
[27]
간행물
Transfer learning
The Economist
2016
[28]
웹사이트
Artificial Intelligence (AI): What Is AI and How Does It Work?
https://builtin.com/[...]
2023-10-30
[29]
서적
Computational learning theory
2021, 2015
[30]
서적
Natural language processing (NLP)
2021, 1998, 2004
[31]
서적
Subproblems of NLP
2021
[32]
서적
Modern statistical and deep learning approaches to NLP
2021, 2014
[33]
서적
Computer vision
2021, 1998
[34]
서적
Affective computing
1993, 1991, 2005, 2002
[35]
서적
Artificial general intelligence
2021, 2007, 1995, 2007, 2009
[36]
서적
Search algorithm
[37]
서적
State space search
[38]
서적
Uninformed searches
[39]
서적
Heuristic or informed searches
[40]
서적
Adversarial search
[41]
서적
Local search (optimization)
[42]
웹사이트
Optimization Algorithms in Neural Networks
https://www.kdnugget[...]
2024-01-13
[43]
서적
Evolutionary computation
[44]
서적
Logic
[45]
서적
Propositional logic
[46]
서적
First-order logic
[47]
서적
Logical inference
[48]
서적
logical deduction as search
[49]
서적
Resolution and unification
[50]
간행물
Prolog-the language and its implementation compared with Lisp
1977
[51]
서적
Fuzzy logic
[52]
서적
Stochastic methods for uncertain reasoning
[53]
서적
decision theory and decision analysis
[54]
서적
Information value theory
[55]
서적
Markov decision processes and dynamic decision networks
[56]
서적
Game theory and mechanism design
[57]
서적
Bayesian networks
[58]
서적
Bayesian inference algorithm
[59]
서적
Bayesian learning and the expectation–maximization algorithm
[60]
서적
Bayesian decision theory and Bayesian decision networks
[61]
서적
Stochastic temporal models
[62]
서적
Statistical learning methods and classifiers
[63]
서적
Introduction to Artificial Intelligence: from data analysis to generative AI
Intellisemantic Editions
2024
[64]
서적
Decision trees
[65]
서적
Non-parameteric learning models
[66]
서적
Naive Bayes classifier
[67]
서적
Neural networks
[68]
서적
Gradient calculation in computational graphs
[69]
서적
Universal approximation theorem
[70]
서적
Feedforward neural networks
[71]
서적
Recurrent neural networks
2021
[72]
서적
Perceptrons
2021
[73]
서적
Convolutional neural networks
2021
[74]
서적
Deep learning
2016, 2016, 2015
[75]
서적
2020
[76]
웹사이트
Explained: Generative AI
https://news.mit.edu[...]
2023-11-09
[77]
웹사이트
AI Writing and Content Creation Tools
https://mitsloanedte[...]
MIT Sloan Teaching & Learning Technologies
2023-12-25
[78]
웹사이트
Mojo Rising: The resurgence of AI-first programming languages
https://venturebeat.[...]
2024-05-26
[79]
뉴스
7 AI Programming Languages You Need to Know
https://aibusiness.c[...]
2024-10-05
[80]
웹사이트
Why Jensen Huang and Marc Benioff see 'gigantic' opportunity for agentic AI
https://venturebeat.[...]
2024-10-04
[81]
논문
The potential for artificial intelligence in healthcare
2019-06
[82]
논문
Systematic review of approaches to detection and classification of skin cancer using artificial intelligence: Development and prospects
https://linkinghub.e[...]
2024
[83]
논문
Cough Sound Detection and Diagnosis Using Artificial Intelligence Techniques: Challenges and Opportunities
2021
[84]
논문
The future of personalized cardiovascular medicine demands 3D and 4D printing, stem cells, and artificial intelligence
2023-12
[85]
논문
Highly accurate protein structure prediction with AlphaFold
2021
[86]
뉴스
AI discovers new class of antibiotics to kill drug-resistant bacteria
https://www.newscien[...]
2024-10-05
[87]
웹사이트
AI speeds up drug design for Parkinson's ten-fold
https://www.cam.ac.u[...]
Cambridge University
2024-10-05
[88]
논문
Discovery of potent inhibitors of α-synuclein aggregation using structure-based iterative learning
Nature
2024-04-17
[89]
논문
Powered by AI: Examining How AI Descriptions Influence Perceptions of Fertility Tracking Applications
https://dl.acm.org/d[...]
2024-01-12
[90]
논문
Smart Sex Toys: A Narrative Review of Recent Research on Cultural, Health and Safety Considerations
https://link.springe[...]
2024-07-05
[91]
논문
Large Language Models in an App: Conducting a Qualitative Synthetic Data Analysis of How Snapchat’s “My AI” Responds to Questions About Sexual Consent, Sexual Refusals, Sexual Assault, and Sexting
https://www.tandfonl[...]
2024-09-10
[92]
논문
"Replika Removing Erotic Role-Play Is Like Grand Theft Auto Removing Guns or Cars": Reddit Discourse on Artificial Intelligence Chatbots and Sexual Technologies
https://journals.sag[...]
2024
[93]
논문
Legal Protection of Revenge and Deepfake Porn Victims in the European Union: Findings From a Comparative Legal Study
https://journals.sag[...]
2024-01-01
[94]
논문
Role of Artificial Intelligence in the Prevention of Online Child Sexual Abuse: A Systematic Review of Literature
https://www.tandfonl[...]
2024
[95]
논문
A Human-Centered Systematic Literature Review of the Computational Approaches for Online Sexual Risk Detection
https://dl.acm.org/d[...]
2021-10-13
[96]
잡지
The Talk of the Town – It
https://www.newyorke[...]
2024-01-28
[97]
웹사이트
Twenty years on from Deep Blue vs Kasparov: how a chess match started the big data revolution
http://theconversati[...]
2024-01-28
[98]
뉴스
Computer Wins on 'Jeopardy!': Trivial, It's Not
https://www.nytimes.[...]
2024-01-28
[99]
웹사이트
AlphaGo retires from competitive Go after defeating world number one 3–0
https://www.theverge[...]
2024-01-28
[100]
논문
Superhuman AI for multiplayer poker
https://www.science.[...]
2019-08-30
[101]
웹사이트
MuZero: Mastering Go, chess, shogi and Atari without rules
https://deepmind.goo[...]
2024-01-28
[102]
뉴스
AI becomes grandmaster in 'fiendishly complex' StarCraft II
https://www.theguard[...]
2024-01-28
[103]
논문
Outracing champion Gran Turismo drivers with deep reinforcement learning
https://www.research[...]
2022
[104]
웹사이트
Google AI learns to play open-world video games by watching them
https://www.newscien[...]
2024-07-21
[105]
arXiv
Let's Verify Step by Step
2023
[106]
웹사이트
Improving mathematical reasoning with process supervision.
https://openai.com/i[...]
2023-05-31
[107]
논문
Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap
2024-02-29
[108]
뉴스
AI achieves silver-medal standard solving International Mathematical Olympiad problems
https://www.nytimes.[...]
2024-07-25
[109]
웹사이트
LLEMMA
https://blog.eleuthe[...]
[110]
웹사이트
AI Math
https://julius.ai/ho[...]
2024
[111]
웹사이트
7 Best AI for Math Tools.
https://www.unite.ai[...]
[112]
간행물
What is Artificial Intelligence (AI) in Finance?
IBM
2023-12-08
[113]
간행물
Artificial Intelligence: Ask the Industry
https://videovoice.o[...]
Pensions Age/European Pensions magazine
2024-05-01
[114]
서적
Artificial Intelligence and National Security
https://fas.org/sgp/[...]
Congressional Research Service
[115]
보고서
Artificial intelligence as the basis of future control networks
2019
[116]
웹사이트
'Lavender': The AI machine directing Israel's bombing spree in Gaza
https://www.972mag.c[...]
2024-04-03
[117]
뉴스
'The Gospel': how Israel uses AI to select bombing targets in Gaza
https://www.theguard[...]
2023-12-01
[118]
뉴스
Drohnen haben den Krieg in der Ukraine revolutioniert, doch sie sind empfindlich auf Störsender – deshalb sollen sie jetzt autonom operieren
https://www.nzz.ch/i[...]
2024-08-10
[119]
간행물
Executive Order N-12-23
https://www.gov.ca.g[...]
Executive Department, State of California
2023-09-06
[120]
논문
Generative AI for Medical Imaging: extending the MONAI Framework
2023
[121]
뉴스
Anthropic Said to Be Closing In on $300 Million in New A.I. Funding
https://www.nytimes.[...]
2023-01-27
[122]
뉴스
A Cheat Sheet to AI Buzzwords and Their Meanings
https://news.bloombe[...]
2023-03-10
[123]
웹사이트
ChatGPT: Most Americans Know About It, But Few Actually Use the AI Chatbot
https://www.pcmag.co[...]
2023-05-27
[124]
뉴스
Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do
https://www.theguard[...]
2023-03-31
[125]
웹사이트
How a fake image of a Pentagon explosion shared on Twitter caused a real dip on Wall Street
https://www.euronews[...]
2023-05-23
[126]
서적
Artificial Intelligence, Foundations of Computational Agents
https://doi.org/10.1[...]
Cambridge University Press
2023
[127]
서적
Artificial Intelligence: A Modern Approach
Pearson
2020
[128]
웹사이트
Why agents are the next frontier of generative AI
https://www.mckinsey[...]
2024-07-24
[129]
간행물
Reshaping Business With Artificial Intelligence
https://sloanreview.[...]
2017-09-06
[130]
간행물
8 – AI for large-scale evacuation modeling: promises and challenges
https://www.scienced[...]
Woodhead Publishing
2024-01-01
[131]
논문
A Framework for Intelligent Fire Detection and Evacuation System
https://doi.org/10.1[...]
2021-11-01
[132]
논문
Modelling and interpreting pre-evacuation decision-making using machine learning
https://www.scienced[...]
2020-05-01
[133]
뉴스
India's latest election embraced AI technology. Here are some ways it was used constructively
https://www.pbs.org/[...]
2024-06-12
[134]
웹사이트
Ethics of Artificial Intelligence and Robotics
https://plato.stanfo[...]
2020-04-30
[135]
웹사이트
Copyright Services: Fair Use
https://guides.libra[...]
[136]
잡지
How to Stop Your Data From Being Used to Train AI
https://www.wired.co[...]
[137]
웹사이트
Getting the Innovation Ecosystem Ready for AI. An IP policy toolkit
https://www.wipo.int[...]
[138]
웹사이트
Big Tech is spending more than VC firms on AI startups
https://arstechnica.[...]
2023-12-27
[139]
웹사이트
The Future of AI Is GOMA
https://www.theatlan[...]
2023-10-24
[140]
뉴스
Big tech and the pursuit of AI dominance
https://www.economis[...]
2023-03-26
[141]
뉴스
Where the battle to dominate AI may be won
https://www.cnn.com/[...]
2023-12-19
[142]
뉴스
In the Age of A.I., Tech's Little Guys Need Big Friends
https://www.nytimes.[...]
2024-10-05
[143]
웹사이트
Electricity 2024 – Analysis
https://www.iea.org/[...]
2024-07-13
[144]
웹사이트
AI already uses as much energy as a small country. It's only the beginning.
https://www.vox.com/[...]
2024-10-05
[145]
뉴스
AI is exhausting the power grid. Tech firms are seeking a miracle solution.
https://www.washingt[...]
2024-06-21
[146]
웹사이트
AI Data Centers and the Coming YS Power Demand Surge
https://www.goldmans[...]
2024-10-05
[147]
뉴스
Energy-Guzzling AI Is Also the Future of Energy Savings
https://www.wsj.com/[...]
Dow Jones
2024-04-12
[148]
뉴스
Tech Industry Wants to Lock Up Nuclear Power for AI
https://www.wsj.com/[...]
Dow Jones
2024-10-05
[149]
뉴스
Nvidia's Huang Says Nuclear Power an Option to Feed Data Centers
https://www.bloomber[...]
2024-09-28
[150]
뉴스
Microsoft deal would reopen Three Mile Island nuclear plant to power AI
https://www.washingt[...]
2024-09-20
[151]
뉴스
Three Mile Island's Nuclear Plant to Reopen, Help Power Microsoft's AI Centers
https://www.wsj.com/[...]
Dow Jones
2024-10-05
[152]
뉴스
Taiwan to stop large data centers in the North, cites insufficient power
https://www.datacent[...]
DatacenterDynamics
2024-08-19
[153]
뉴스
エヌビディア出資の日本企業、原発近くでAIデータセンター新設検討
https://www.bloomber[...]
2024-10-18
[154]
뉴스
Nuclear-Hungry AI Campuses Need New Plan to Find Power Fast
https://www.bloomber[...]
Bloomberg
2024-11-05
[155]
웹사이트
Trust and Distrust in America
https://www.pewresea[...]
2019-07-22
[156]
논문
[157]
논문
[158]
논문
[159]
논문
[160]
논문
[161]
논문
[162]
웹사이트
Why it's so damn hard to make AI fair and unbiased
https://www.vox.com/[...]
2022-04-19
[163]
웹사이트
Black Box AI
https://www.techoped[...]
2023-06-16
[164]
논문
[165]
웹사이트
New Anthropic Research Sheds Light on AI's 'Black Box'
https://gizmodo.com/[...]
2024-05-21
[166]
논문
[167]
뉴스
How China Uses High-Tech Surveillance to Subdue Minorities
https://www.nytimes.[...]
2019-05-22
[168]
웹사이트
Security lapse exposed a Chinese smart city surveillance system
https://techcrunch.c[...]
2019-05-03
[169]
간행물
Will Robots Automate Your Job Away? Full Employment, Basic Income, and Economic Democracy
https://academic.oup[...]
2022
[170]
논문
[171]
논문
[172]
웹사이트
AI is already taking video game illustrators' jobs in China
https://restofworld.[...]
2023-04-11
[173]
웹사이트
China's game art industry reportedly decimated by growing AI use
https://www.gamedeve[...]
2023-04-11
[174]
논문
[175]
뉴스
Lessons from Eliza
2023-08-04
[176]
논문
null
[177]
논문
Leaders' concerns about the existential risks of AI around 2015
[178]
뉴스
"Godfather of artificial intelligence" talks impact and potential of new AI
https://www.cbsnews.[...]
2023-03-25
[179]
뉴스
Canadian artificial intelligence leader Geoffrey Hinton piles on fears of computer takeover
https://www.cbc.ca/n[...]
2023-05-04
[180]
웹사이트
'50–50 chance' that AI outsmarts humanity, Geoffrey Hinton says
https://www.bnnbloom[...]
2024-06-14
[181]
뉴스
Rise of artificial intelligence is inevitable but should not be feared, 'father of AI' says
https://www.theguard[...]
2023-05-07
[182]
뉴스
'Father of AI' says tech fears misplaced: 'You cannot stop it'
https://www.foxnews.[...]
2023-05-07
[183]
뉴스
Juergen Schmidhuber, Renowned 'Father Of Modern AI,' Says His Life's Work Won't Lead To Dystopia
https://www.forbes.c[...]
2023-05-23
[184]
뉴스
Andrew Ng: 'Do we think the world is better off with more or less intelligence?'
https://www.ft.com/c[...]
2023-12-19
[185]
간행물
How Not to Be Stupid About AI, With Yann LeCun
https://www.wired.co[...]
2023-12-22
[186]
논문
Arguments that AI is not an imminent risk
[187]
웹사이트
Hugging Face CEO says he's focused on building a 'sustainable model' for the $4.5 billion open-source-AI startup
https://www.business[...]
[188]
웹사이트
Google open sources tools to support AI model development
https://techcrunch.c[...]
2024-04-09
[189]
웹사이트
The open-source AI boom is built on Big Tech's handouts. How long will it last?
https://www.technolo[...]
2023-05-12
[190]
뉴스
Mistral AI's New Language Model Aims for Open Source Supremacy
https://aibusiness.c[...]
2023-12-19
[191]
웹사이트
Stability announces Stable Diffusion 3, a next-gen AI image generator
https://arstechnica.[...]
2024-02-22
[192]
뉴스
How enterprises are using open source LLMs: 16 examples
https://venturebeat.[...]
2024-01-29
[193]
웹사이트
Should we make our most powerful AI models open source to all?
https://www.vox.com/[...]
2024-02-02
[194]
웹사이트
Understanding artificial intelligence ethics and safety
https://www.turing.a[...]
2019
[195]
웹사이트
AI Ethics and Governance in Practice
https://www.turing.a[...]
2023
[196]
논문
A Unified Framework of Five Principles for AI in Society
https://hdsr.mitpres[...]
2019-06-23
[197]
논문
A critical perspective on guidelines for responsible and trustworthy artificial intelligence
https://doi.org/10.1[...]
2020-09-01
[198]
논문
Ethical issues in the development of artificial intelligence: recognizing the risks
https://doi.org/10.1[...]
2023-01-01
[199]
웹사이트
AI Safety Institute releases new AI safety evaluations platform
https://www.gov.uk/g[...]
UK Government
2024-05-10
[200]
논문
Regulation of AI to mitigate risks
[201]
뉴스
UN Announces Advisory Body on Artificial Intelligence
https://www.voanews.[...]
2023-10-25
[202]
웹사이트
Council of Europe opens first ever global treaty on AI for signature
https://www.coe.int/[...]
2024-09-05
[203]
뉴스
Hope or Horror? The great AI debate dividing its pioneers
2023-11-03
[204]
웹사이트
The Bletchley Declaration by Countries Attending the AI Safety Summit, 1–2 November 2023
https://www.gov.uk/g[...]
2023-11-01
[205]
보도자료
Countries agree to safe and responsible development of frontier AI in landmark Bletchley Declaration
https://www.gov.uk/g[...]
2023-11-01
[206]
웹사이트
Second global AI summit secures safety commitments from companies
https://www.reuters.[...]
Reuters
2024-05-21
[207]
웹사이트
Frontier AI Safety Commitments, AI Seoul Summit 2024
https://www.gov.uk/g[...]
gov.uk
2024-05-21
[208]
웹사이트
Google books ngram
https://books.google[...]
[209]
논문
AI's immediate precursors
[210]
서적
The Essential Turing: the ideas that gave birth to the computer age
Clarendon Press
2004
[211]
서적
Dartmouth workshop
1955
[212]
서적
2021
[213]
서적
1993
[214]
서적
1993
[215]
서적
1994
[216]
서적
1994
[217]
서적
1994
[218]
서적
1994
[219]
서적
2010
[220]
서적
2021
[221]
서적
2004
[222]
서적
1994
[223]
서적
2018
[224]
서적
2021
[225]
서적
2021
[226]
웹사이트
OpenAI Releases GPT-3, The Largest Model So Far
https://analyticsind[...]
2023-03-15
[227]
웹사이트
Philosophy is crucial in the age of AI
https://theconversat[...]
2024-10-04
[228]
웹사이트
Will AI ever become conscious? It depends on how you think about biology.
https://www.vox.com/[...]
2024-10-04
[229]
웹사이트
The Philosophy of AI and the AI of Philosophy
http://jmc.stanford.[...]
2024-10-03
[230]
서적
Computing machinery and intelligence
2021
[231]
웹사이트
AI is closer than ever to passing the Turing test for 'intelligence'. What happens when it does?
https://theconversat[...]
2024-08-17
[232]
웹사이트
What Is Artificial Intelligence (AI)?
https://cloud.google[...]
2023-10-16
[233]
웹사이트
One of the Biggest Problems in Regulating AI Is Agreeing on a Definition
https://carnegieendo[...]
2024-07-31
[234]
웹사이트
AI or BS? How to tell if a marketing tool really uses artificial intelligence
https://www.thedrum.[...]
2024-07-31
[235]
서적
2021
[236]
서적
2007
[237]
서적
2007
[238]
서적
2015
[239]
서적
1993
[240]
웹사이트
Nick Bostrom: How can we be certain a machine isn't conscious?
https://www.spectato[...]
2024-02-23
[241]
웹사이트
Why don't robots have rights?
https://bigthink.com[...]
2024-02-23
[242]
잡지
AI Should Be Terrified of Humans
https://time.com/629[...]
2024-02-23
[243]
뉴스
What leaders need to know about robot rights
https://www.fastcomp[...]
2023-07-10
[244]
뉴스
Give robots 'personhood' status, EU committee argues
https://www.theguard[...]
2024-02-23
[245]
웹사이트
Experts Don't Think Robots Should Have Rights
https://www.newsweek[...]
2024-02-23
[246]
웹사이트
Robot rights violate human rights, experts warn EU
https://www.euronews[...]
2024-02-23
[247]
문서
The Intelligence explosion and technological singularity
[248]
문서
Transhumanism
[249]
문서
AI as evolution
[250]
문서
AI in myth
[251]
웹사이트
人工知能
https://kotobank.jp/[...]
講談社
[252]
웹사이트
自然言語処理
https://kotobank.jp/[...]
講談社
[253]
웹사이트
「どんな文章も3行に要約するAI」デモサイト、東大松尾研発ベンチャーが公開 「正確性は人間に匹敵」
https://www.itmedia.[...]
2021-09-02
[254]
웹사이트
総務省|平成28年版 情報通信白書|人工知能(AI)研究の歴史
https://www.soumu.go[...]
2023-06-18
[255]
웹사이트
The new AI scaling law shell game
https://garymarcus.s[...]
2024-12-28
[256]
웹사이트
【第四回】今、最も熱いディープラーニングを体験してみよう(2ページ)
http://enterprisezin[...]
エンタープライズ
2015-05-30
[257]
웹사이트
今度はポーカーでAIが人間を超える! その重要な意味とは?
https://www.gizmodo.[...]
ギズモード
2018-02-07
[258]
웹사이트
「AI対ヒト」のポーカー対決で人工知能が再び勝利、6人を相手に5日間の戦いを制して3000万円ゲット
https://gigazine.net[...]
GIGAZINE
2018-02-07
[259]
웹사이트
麻雀 AI Microsoft Suphx が人間のトッププレイヤーに匹敵する成績を達成
https://news.microso[...]
2021-09-02
[260]
웹사이트
ゲーム AI の進化と歴史
https://news.microso[...]
2021-09-02
[261]
웹사이트
AI Transformation with Fredrik Heintz
https://www.coursera[...]
2022-12-27
[262]
웹사이트
Letter signed by Elon Musk demanding AI research pause sparks controversy
https://www.theguard[...]
2023-04-05
[263]
웹사이트
Musk, scientists call for halt to AI race sparked by ChatGPT
https://www.asahi.co[...]
2023-04-05
[264]
웹사이트
第4次AIブーム呼ぶChatGPT
https://www.jeri.or.[...]
一般財団法人 日本経済研究所
2023-06-18
[265]
논문
Artificial intelligence: The future is superintelligent
2017-08-30
[266]
논문
Robotics: Ethics of artificial intelligence
2015-05-27
[267]
논문
AI weapons: Russia’s war in Ukraine shows why the world must enact a ban
2023-02-21
[268]
웹사이트
AI for Good
https://www.deeplear[...]
2023-07-25
[269]
웹사이트
http://www.fiercebio[...]
[270]
웹사이트
https://news.mynavi.[...]
[271]
웹사이트
https://news.mynavi.[...]
[272]
뉴스
第13次五カ年計画、中国の技術革新計画が明らかに
http://j.people.com.[...]
人民網
2018-02-07
[273]
논문
China Brain Project: Basic Neuroscience, Brain Diseases, and Brain-Inspired Computing
[274]
뉴스
オール中国でAI推進
https://www.nikkei.c[...]
日本経済新聞
2018-02-07
[275]
뉴스
中国が18歳以下の天才27人を選抜、AI兵器の開発に投入
https://www.newsweek[...]
ニューズウィーク
2018-11-29
[276]
뉴스
中国の一党独裁、AI開発競争には有利
http://jp.wsj.com/ar[...]
ウォール・ストリート・ジャーナル
2018-03-07
[277]
뉴스
AI開発レースで中国猛追、米企業のリード危うし
http://jp.wsj.com/ar[...]
ウォール・ストリート・ジャーナル
2018-02-07
[278]
뉴스
中国の「超AI監視社会」--新疆ウイグル自治区では“体内”まで監視!
https://wpb.shueisha[...]
集英社
2018-02-07
[279]
웹사이트
Green500の1位から見たコンピューター・ヘゲモニー
http://www.ube-ind.c[...]
宇部興産
2018-03-07
[280]
뉴스
中国、新疆ウイグル自治区で顔認識システム運用をテスト。指定地域から300m以上離れると当局に警告
http://japanese.enga[...]
Engadget
2018-02-07
[281]
뉴스
中国が「AI超大国」になる動きは、もはや誰にも止められない
https://wired.jp/201[...]
WIRED
2018-02-07
[282]
뉴스
世界顔認証ベンチマークテストの結果が発表 中国がトップ5独占
http://japanese.chin[...]
中国網
2018-12-03
[283]
뉴스
AIの世界王者決定戦「ImageNet」で中国チームが上位を独占
https://forbesjapan.[...]
포브스
2018-02-11
[284]
뉴스
THE AI COLD WAR THAT COULD DOOM US ALL
https://www.wired.co[...]
포브스
2018-02-07
[285]
뉴스
The POLITICO 50 Reading List
https://www.politico[...]
2018-10-09
[286]
뉴스
仏マクロン大統領が「AI立国」宣言、無人自動運転も解禁へ
https://forbesjapan.[...]
2018-04-05
[287]
웹사이트
https://www.sbbit.jp[...]
[288]
뉴스
人工知能の論文数、米中印の3強に
https://www.nikkei.c[...]
日本経済新聞
2018-02-07
[289]
웹사이트
EMPLOYMENT OUTLOOK 2023 Artificial intelligence and jobs An urgent need to act
https://www.oecd.org[...]
2023-11-29
[290]
웹사이트
4-9 Surviving in the New Information Economy - Adopting a Learning Lifestyle
https://www.coursera[...]
2023-11-29
[291]
웹사이트
Hopes for 2024 from Anastasis Germanidis, Sara Hooker, Percy Liang, Sasha Luccioni, Pelonomi Moiloa, Kevin Scott
https://www.deeplear[...]
2023-12-28
[292]
웹사이트
AI For Everyone
https://www.coursera[...]
2023-11-30
[293]
웹사이트
A beginner’s guide to demystifying the buzzword- AI
https://www.linkedin[...]
2023-11-30
[294]
웹사이트
AI Can Learn From Simple Tasks to Solve Hard Problems
https://www.deeplear[...]
2023-12-11
[295]
웹사이트
AI for Good
https://aiforgood.it[...]
2023-07-30
[296]
웹사이트
AI Is Unlocking the Human Brain’s Secrets
https://www.theatlan[...]
2023-05-27
[297]
논문
脳回路研究とaiの融合に向けて
https://www.jstage.j[...]
2018
[298]
웹사이트
AI医療の現状と未来|AIが医療分野でできること・メリット・デメリットなど徹底解説|EAGLYS株式会社
https://www.eaglys.c[...]
2023-03-06
[299]
웹사이트
少数の患者のために。秘密計算AIが照らし出す、希少疾患のミライ|JOURNAL(リサーチやレポート)|事業共創で未来を創るOPEN HUB for Smart World
https://openhub.ntt.[...]
2023-03-06
[300]
웹사이트
農業へのAI導入事例15選!スマート農業・自動化ロボットで変わる?【2023年最新版】
https://ai-market.jp[...]
2023-03-06
[301]
웹사이트
“AIが勧める“あなたの一皿。6つの先進事例から学ぶフードテック最前線 前編|JOURNAL(リサーチやレポート)|事業共創で未来を創るOPEN HUB for Smart World
https://openhub.ntt.[...]
2023-03-06
[302]
논문
Artificial intelligence and business models in the sustainable development goals perspective: A systematic literature review
https://doi.org/10.1[...]
2020-12
[303]
웹사이트
Policy guidance on AI for children
https://www.unicef.o[...]
2022-12-27
[304]
웹사이트
Child Rights Risks with Johan Grundström Eriksson
https://www.coursera[...]
2022-12-27
[305]
웹사이트
言語と機械学習 - 脳画像の専門家に聞く - コミュニケーション
https://www.coursera[...]
2024-03-24
[306]
웹사이트
ChatGPT時代の新職業 「プロンプトエンジニア」という幻想
https://xtrend.nikke[...]
2023-05-10
[307]
뉴스
無人運転バス、定着挑む
https://www.nikkei.c[...]
2023-04-02
[308]
논문
Improving Wikipedia verifiability with AI
https://www.nature.c[...]
2023-10
[309]
웹사이트
Problematic White House AI Policy, Parked Cruise Robotaxis, and more
https://www.deeplear[...]
2023-12-01
[310]
뉴스
中国掃除機「ルンバ」超え
https://www.nikkei.c[...]
2023-04-25
[311]
논문
The Impact of Artificial Intelligent in Education toward 21st Century Skills: A Literature Review
http://ejournal.ppsd[...]
2023-11-10
[312]
웹사이트
音ゲーの“譜面”作りをAIで高速化 KLabが「スクスタ」で活用、所要時間を半分に
https://www.itmedia.[...]
2021-09-01
[313]
웹사이트
声優の不祥事にAIが代役で活躍--中国で進むAI音声の活用
https://japan.zdnet.[...]
2023-09-26
[314]
웹사이트
AI配信者の「歌ってみた」流行──人気ストリーマーの音声学習に賛否両論集まる背景
https://premium.kai-[...]
2023-09-26
[315]
뉴스
コナン君に「#歌わせてみた」流行曲、実はAI偽音声…困惑する声優たち「対処しようがない」
https://www.yomiuri.[...]
2023-09-26
[316]
웹사이트
中国で大当たりのAI歌手、著作権侵害の可能性も
https://japanese.cri[...]
2023-09-26
[317]
웹사이트
PETER JACKSON TALKS THE BEATLES: GET BACK
https://d23.com/pete[...]
D23
2021-11-23
[318]
웹사이트
ビートルズ『Revolver』新MIXや未発表音源等を加えたスペシャル版発売
https://www.udiscove[...]
UNIVERSAL MUSIC JAPAN
2022-09-07
[319]
웹사이트
ビートルズ『Revolver』の新ミックス ピーター・ジャクソンなしではありえなかった ジャイルズ・マーティン語る
https://amass.jp/160[...]
amass
2022-09-08
[320]
웹사이트
The Beatles(ザ・ビートルズ)|最後の新曲「Now & Then」&ベスト・アルバム『赤盤』『青盤』2023エディションが発売
https://tower.jp/art[...]
TOWER RECORDS
2023-10-27
[321]
웹사이트
ビートルズ最後の新曲「Now And Then」は11月2日発売 曲数追加の『赤盤』『青盤』も発売決定
https://amass.jp/170[...]
amass
2023-10-26
[322]
웹사이트
NVIDIA Canvas: AI のパワーを活用する
https://www.nvidia.c[...]
2021-07-10
[323]
웹사이트
「アニメの絵を自動で描く」AIが出現――アニメーターの仕事は奪われるのか?
https://www.itmedia.[...]
2021-07-10
[324]
웹사이트
漫画のカラー化、AIが肩代わり 精度100%ではなくても有用なワケ
https://www.itmedia.[...]
2021-11-08
[325]
웹사이트
「神絵が1分で生成される」 画像生成AI「Midjourney」が話題
https://www.itmedia.[...]
2022-08-03
[326]
웹사이트
This artist is dominating AI-generated art. And he's not happy about it.
https://www.technolo[...]
2022-10-02
[327]
웹사이트
Search - Consensus: AI Search Engine for Research
https://consensus.ap[...]
2023-12-08
[328]
논문
The Rigor and Transparency Index Quality Metric for Assessing Biological and Medical Science Methods
https://www.scienced[...]
2020-11-20
[329]
논문
Current Approaches to the Use of Artificial Intelligence for Injury Risk Assessment and Performance Prediction in Team Sports: a Systematic Review
https://sportsmedici[...]
2019-12
[330]
논문
Artificial Intelligence as a Source of Political Thinking
http://naukaru.ru/en[...]
2020-07-02
[331]
뉴스
ホーキング博士「人工知能の進化は人類の終焉を意味する」
https://www.huffingt[...]
[332]
뉴스
ビル・ゲイツ氏も、人工知能の脅威に懸念
http://news.infoseek[...]
[333]
웹사이트
Artificial Intelligence for peacebuilding - Opportunities & Challenges
https://www.visionof[...]
2022-12-09
[334]
논문
A Scientometric Analysis of Artificial Intelligence and Big data for well-being and human potential
https://iopscience.i[...]
2020-04-01
[335]
웹사이트
Copyright Services: Fair Use
https://guides.libra[...]
2024-04-26
[336]
간행물
How to Stop Your Data From Being Used to Train AI
https://www.wired.co[...]
2024-04-26
[337]
웹사이트
Getting the Innovation Ecosystem Ready for AI. An IP policy toolkit
https://www.wipo.int[...]
[338]
웹사이트
Trust and Distrust in America
https://www.pewresea[...]
2019-07-22
[339]
웹사이트
Black Box AI
https://www.techoped[...]
2023-06-16
[340]
참고문헌
[341]
참고문헌
[342]
참고문헌
[343]
참고문헌
[344]
참고문헌
[345]
웹사이트
Electricity 2024 – Analysis
https://www.iea.org/[...]
2024-01-24
[346]
뉴스
AI already uses as much energy as a small country. It's only the beginning.
https://www.vox.com/[...]
2024-03-28
[347]
뉴스
AI is exhausting the power grid. Tech firms are seeking a miracle solution.
https://www.washingt[...]
2024-06-21
[348]
뉴스
エヌビディアCEO「原発は良い選択肢」、データセンター電力供給で
https://www.bloomber[...]
블룸버그
2024-09-30
[349]
뉴스
エヌビディア出資の日本企業、原発近くでAIデータセンター新設検討
https://www.bloomber[...]
블룸버그
2024-10-18
[350]
뉴스
Microsoft、スリーマイル島原発の電力を独占購入へ—AI需要に対応する20年契約
https://ledge.ai/art[...]
Ledge Inc
2024-09-27
[351]
뉴스
米グーグルやアマゾンが小型モジュール原子炉からの電力購入などを発表
https://www.jetro.go[...]
日本貿易振興機構(ジェトロ)
2024-10-17
[352]
뉴스
原発被災地にデータセンター、AI半導体で新産業育成
https://www.nikkei.c[...]
日本経済新聞
2024-09-18
[353]
웹사이트
AI Data Centers and the Coming YS Power Demand Surge
https://www.goldmans[...]
[354]
뉴스
Energy-Guzzling AI Is Also the Future of Energy Savings
https://www.wsj.com/[...]
Dow Jones
2024-04-12
[355]
논문
Robitzski (2018); Sainato (2015)
[356]
뉴스
How China Uses High-Tech Surveillance to Subdue Minorities
https://www.nytimes.[...]
2019-05-22
[357]
웹사이트
Security lapse exposed a Chinese smart city surveillance system
https://techcrunch.c[...]
2019-05-03
[358]
웹사이트
Big Tech is spending more than VC firms on AI startups
https://arstechnica.[...]
2023-12-27
[359]
웹사이트
The Future of AI Is GOMA
https://www.theatlan[...]
2023-10-24
[360]
뉴스
Big tech and the pursuit of AI dominance
https://www.economis[...]
2023-03-26
[361]
뉴스
Where the battle to dominate AI may be won
https://www.cnn.com/[...]
2023-12-19
[362]
뉴스
In the Age of A.I., Tech's Little Guys Need Big Friends
https://www.nytimes.[...]
2023-07-05
[363]
웹사이트
AIトレーニングデータは著作権保護対象外?:ドイツにおける初の判決が示唆するポストAIの世界とアメリカとの違い
https://openlegalcom[...]
2024-11-01
[364]
웹사이트
To Scrape or Not to Scrape? First Court Decision on the EU Copyright Exception for Text and Data Mining in Germany
https://www.mofo.com[...]
Morrison & Foerster LLP. (法律事務所)
[365]
간행물
2024 WIPO IP Judges Forum Informal Case Summary – Hamburg Regional Court, Germany [2024]: Robert Kneschke v. LAION e.V., Case No. 310 O 227/23
https://www.wipo.int[...]
WIPO
[366]
보고서
AIイノベーション 日本型生成AI規制の可能性
https://www.nri.com/[...]
野村総合研究所
2024-09
[367]
웹사이트
Scoop: Meta won't offer future multimodal AI models in EU
https://www.axios.co[...]
Axios Media
2024-07-17
[368]
웹사이트
AI大手、規制警戒で“EU離れ” メタもマルチモーダルAI提供見送りへ
https://ascii.jp/ele[...]
角川アスキー総合研究所
2024-07-19
[369]
보고서
世界で進むデータ駆動社会への戦略的取組
https://www.digital.[...]
デジタル庁
2022-09-06
[370]
웹사이트
ディープラーニングがもたらしたAIの新たな価値【第1回】
https://dcross.impre[...]
株式会社インプレス
[371]
웹사이트
【7分でわかる】AI研究、60年の歴史を完全解説!
https://ainow.ai/201[...]
2019-11-28
[372]
웹사이트
AI脅威論の正体と人とAIとの共生
https://www.soumu.go[...]
総務省
[373]
웹사이트
人間の脳のメカニズムを、わたしは知りたくてたまらない。──福島邦彦|WIRED.jp
https://wired.jp/wai[...]
[374]
웹사이트
『ゲームAI』とは? ゲームAIの種類や歴史、これからについて解説
https://ainow.ai/201[...]
2019-10-05
[375]
웹사이트
ゲーム AI の進化と歴史
https://news.microso[...]
2019-08-19
[376]
웹사이트
ゲームとAI 〜情報科学からみたゲーム〜
https://cedec.cesa.o[...]
一般社団法人コンピュータエンターテインメント協会
[377]
웹사이트
人間VSコンピュータオセロ 衝撃の6戦全敗から20年、元世界チャンピオン村上健さんに聞いた「負けた後に見えてきたもの」
https://nlab.itmedia[...]
ITmedia
2017-10-21
[378]
웹사이트
ニューロ・ファジィ・AIハンドブック/1994.5
https://rnavi.ndl.go[...]
[379]
웹사이트
ニューロ・ファジィ・AIハンドブック/
https://www.library.[...]
[380]
웹사이트
AIといえばドラクエⅣ、当時の開発話が論文に 今に導かれしAI観:朝日新聞デジタル
https://www.asahi.co[...]
2023-10-10
[381]
논문
『ドラゴンクエストiv』における人工知能 —開発者インタビューから見るディジタルゲームai 技術—
https://www.jstage.j[...]
2023
[382]
웹사이트
仙台市地下鉄の鉄道トータルシステム
http://www.hitachihy[...]
日立製作所
[383]
논문
カオスの制御
https://www.jstage.j[...]
[384]
웹사이트
松下電器から生まれたファジィ家電,ニューロファジィ家電
https://www.cbii.kut[...]
関西大学
[385]
웹사이트
ファジィ全自動洗濯機 (松下電器産業)
http://www.j-soft.or[...]
[386]
웹사이트
ニューロ・ファジィ掃除機 (日立製作所) 日本知能情報ファジィ学会
http://www.j-soft.or[...]
2019-05-05
[387]
웹사이트
ガスルームエアコン SN-A4541U-D SN-A4541RF-D 取扱説明書
https://tg-gamedios.[...]
東京ガス
2019-05-03
[388]
논문
全自動洗濯機「愛妻号Dayファジィ」(NA-F 50 Y 5)の紹介
https://doi.org/10.3[...]
1990-08-15
[389]
논문
ファジィ家電,どこがファジィか
https://doi.org/10.1[...]
1991-05-20
[390]
논문
特集「ニューロおよびファジィのロボットへの応用について」
https://doi.org/10.7[...]
1991-04-15
[391]
논문
ファジィ・ニューラルネットワークの現状と展望(<特集>ファジィ・ニューラルネットワーク)
https://doi.org/10.3[...]
1993-04-15
[392]
웹사이트
そういえば、ファジーなんて言葉があったよね
https://easy.mri.co.[...]
2019-05-02
[393]
논문
ニューロ・ファジィ制御とネットワークインテリジェンス
https://doi.org/10.1[...]
2003-04-10
[394]
웹사이트
数値予報ガイダンス
https://www.jma.go.j[...]
国土交通省 気象庁
2023-04-18
[395]
웹사이트
次世代地震計測と最先端ベイズ統計学との融合によるインテリジェント地震波動解析(iSeisBayes)の取り組み 地震本部
https://www.jishin.g[...]
2023-04-18
[396]
웹사이트
人工知能がクイズ王に挑戦! 後編 いよいよ決戦 - NHKオンライン
http://www.nhk.or.jp[...]
[397]
뉴스
人工知能が東大模試挑戦「私大合格の水準」:日本経済新聞
https://www.nikkei.c[...]
2017-07-28
[398]
간행물
平成28年版 情報通信白書 第4章 第2節〜4節
https://www.soumu.go[...]
総務省
2016-09-06
[399]
웹사이트
https://ascii.jp/ele[...]
[400]
웹사이트
https://www.technolo[...]
[401]
웹사이트
https://gigazine.net[...]
[402]
웹사이트
https://www.nikkan.c[...]
[403]
웹사이트
ついに6人対戦のポーカーでAIがプロのポーカープレイヤーを打ち負かす
https://gigazine.net[...]
2021-02-22
[404]
웹사이트
グーグルが狙う「万能AI」、100万の役割を担えるモデルの驚くべき開発方法
https://active.nikke[...]
2021-02-22
[405]
웹사이트
http://wba-initiativ[...]
[406]
논문
Dynamic Routing Between Capsules
https://arxiv.org/ab[...]
2017-10-26
[407]
웹사이트
「課題解決型」のAIが日本社会を変える――国際大学GLOCOMがAI活用実態の調査結果を発表
https://atmarkit.itm[...]
@IT
2018-03-24
[408]
웹사이트
https://thenextweb.c[...]
[409]
웹사이트
https://news.mit.edu[...]
[410]
웹사이트
文章読解でもAIがついに人間超え、グーグルの「BERT」発表から1年で急成長
https://xtech.nikkei[...]
2019-11-15
[411]
웹사이트
https://gigazine.net[...]
[412]
뉴스
‘The game has changed.’ AI triumphs at solving protein structures
https://www.sciencem[...]
Science
2020-11-30
[413]
웹사이트
Cerebras、GPT-3を1日で学習できるAIスパコンを発表 - Hot Chips 33
https://news.mynavi.[...]
2021-09-14
[414]
논문
Core progress in AI has stalled in some fields
https://www.science.[...]
2020-05-29
[415]
웹사이트
エヌビディアがCPU参入 アームと組みAI計算10倍速く
https://www.nikkei.c[...]
2021-04-13
[416]
웹사이트
MicrosoftのZeRO-Infinity Libraryで32兆個のパラメーターのAIモデルをトレーニング
https://www.infoq.co[...]
2021-11-08
[417]
웹사이트
中国の研究チームが新たなAI「悟道2.0」を発表、パラメーター数は1兆7500億でGoogleとOpenAIのモデルを上回る
https://gigazine.net[...]
2021-11-08
[418]
웹사이트
計算機科学:人工知能がコンピューターチップの設計をスピードアップ Nature Nature Portfolio
http://www.natureasi[...]
2021-07-10
[419]
웹사이트
Google幹部、AIの人知超え「前倒しも」 量子計算機で
https://www.nikkei.c[...]
2021-08-24
[420]
논문
Perceiver IO: A General Architecture for Structured Inputs & Outputs
https://arxiv.org/ab[...]
2022-03-15
[421]
웹사이트
Introducing Pathways: A next-generation AI architecture
https://blog.google/[...]
2021-10-28
[422]
트윗
it may be that today's large neural networks are slightly conscious
2022-02-10
[423]
웹사이트
Competitive programming with AlphaCode
https://www.deepmind[...]
2023-04-24
[424]
웹사이트
Googleは世界最大規模のAI言語モデル「PaLM」を開発、言語
https://etechnologyr[...]
[425]
웹사이트
Minerva: Solving Quantitative Reasoning Problems with Language Models
https://ai.googleblo[...]
2023-04-24
[426]
웹사이트
Parti: Pathways Autoregressive Text-to-Image Model
https://parti.resear[...]
2023-04-24
[427]
논문
Competition-Level Code Generation with AlphaCode
https://arxiv.org/ab[...]
2022-12-09
[428]
웹사이트
DeepMind Gato
https://gigazine.net[...]
[429]
웹사이트
DeepMindの新しいAIモデルに関する誇大宣伝は、その実際の魅力を見落としている
https://www.technolo[...]
[430]
웹사이트
GoogleのAI「LaMDA」が「sentient(自己意識を持つ)」だと主張するエンジニアの主張はナンセンス
https://gigazine.net[...]
[431]
웹사이트
画像生成AI「Midjourney」の絵が米国の美術品評会で1位に 優勝者「物議を醸すことは分かっていた」
https://www.itmedia.[...]
2022-10-01
[432]
웹사이트
DeepMind AlphaTensor
https://gigazine.net[...]
[433]
트윗
https://twitter.com/[...]
[434]
웹사이트
ChatGPTで幕を開けた「第4次AIブーム」の熾烈
https://toyokeizai.n[...]
2023-04-15
[435]
논문
Large Language Models Encode Clinical Knowledge
https://arxiv.org/ab[...]
2022-12-26
[436]
웹사이트
RT-1: Robotics Transformer
https://robotics-tra[...]
2023-04-24
[437]
논문
Mastering Diverse Domains through World Models
https://arxiv.org/ab[...]
2023-01-10
[438]
뉴스
政府は11日午前、人工知能(AI)に関する政策の…:AI戦略会議が初会合:時事ドットコム
https://www.jiji.com[...]
[439]
웹사이트
Gemini - Google DeepMind
https://deepmind.goo[...]
2023-12-09
[440]
웹사이트
All About GPT-4o, OpenAI's Latest Multimodal Model
https://www.deeplear[...]
2024-05-22
[441]
논문
Artificial Intelligence in Service
http://journals.sage[...]
2018-05
[442]
웹사이트
A Theory of AI Job Replacement - AI and the future of work
https://www.coursera[...]
2023-11-22
[443]
웹사이트
「チャットGPT」で法律相談 弁護士ドットコム、今春開始へ:朝日新聞デジタル
https://www.asahi.co[...]
2023-02-14
[444]
웹사이트
ソフトバンクが挑む「物流自動化」 高密度自動倉庫など千葉に新施設
https://www.watch.im[...]
株式会社インプレス
2022-12-22
[445]
웹사이트
囲碁全対局、AIでデータに 日本棋院が自動記録システム - 日本経済新聞
https://www.nikkei.c[...]
2023-04-28
[446]
웹사이트
NVIDIA ジェンスン・フアンCEO、対話型AIサービス「Jarvis」で「じゃんがらラーメン」を探すデモ
https://car.watch.im[...]
株式会社インプレス
2021-04-15
[447]
웹사이트
Adobe Premiere Pro、音声からの文字起こし進化中。テンプレ拡充
https://av.watch.imp[...]
株式会社インプレス
2021-04-29
[448]
웹사이트
「パパとママ」の声を完コピ! タカラトミーの読み聞かせスピーカーが話題に
https://www.itmedia.[...]
2022-12-22
[449]
논문
Highly accurate protein structure prediction with AlphaFold
https://www.nature.c[...]
2021-08
[450]
웹사이트
Genomics in Unparalleled Resolution: Cerebras Wafer-Scale Cluster Trains Large Language Models on the Full COVID Genome Sequence
https://www.cerebras[...]
2023-09-13
[451]
웹사이트
ビッグデータ同化とAIが生み出すリアルタイム天気予報の新展開
https://www.jst.go.j[...]
国立研究開発法人 科学技術振興機構
2023-09-13
[452]
웹사이트
プレート型地震(南海トラフ)の発生時期予測
https://aip.riken.jp[...]
国立研究開発法人理化学研究所 革新知能統合研究センター
2023-09-13
[453]
웹사이트
非標識の細胞形態情報をAIで高速に判別し、目的細胞を分取する技術を開発
https://www.rcast.u-[...]
2023-09-13
[454]
웹사이트
AIを活用した化学文書検索サービス「SCIDOCSS」を提供開始 : 富士通
https://pr.fujitsu.c[...]
2023-09-13
[455]
웹사이트
創薬における人工知能応用
https://www.mhlw.go.[...]
厚生労働省
2023-09-13
[456]
웹사이트
人工知能 (AI) が可能にする宇宙のシミュレーション
https://www.ipmu.jp/[...]
2023-09-13
[457]
웹사이트
Improving Connectomics by an Order of Magnitude
https://blog.researc[...]
Google Research
2023-09-13
[458]
뉴스
複数のAIを活用し、複雑な材料データからさまざまな機能を予測する技術を開発 ニュース NEDO
https://www.nedo.go.[...]
2023-09-13
[459]
웹사이트
機械学習でトポロジー最適化の問題を解消する中央エンジニアリングの新たなアプローチ
https://www.altairjp[...]
2024-02-05
[460]
웹사이트
Matlantis™のコア技術と仕組み
https://matlantis.co[...]
株式会社Preferred Computational Chemistry
2023-09-13
[461]
웹사이트
Learning to simulate
https://sites.google[...]
2023-09-13
[462]
웹사이트
LLaVA-Med: 生物医学のための大規模言語および視覚アシスタント
https://github.com/m[...]
github、Microsoft
2023-09-13
[463]
뉴스
「GPT-4」でロボット操作、パナソニックコネクトと立命館大学がシステム開発 ニュースイッチ by 日刊工業新聞社
https://newswitch.jp[...]
2023-09-13
[464]
논문
The Rigor and Transparency Index Quality Metric for Assessing Biological and Medical Science Methods
https://www.scienced[...]
2020-11-20
[465]
웹사이트
Competitive programming with AlphaCode
https://www.deepmind[...]
2023-09-13
[466]
논문
Facts and Anomalies to Keep in Perspective When Designing an Artificial Intelligence
https://www.techrxiv[...]
2021-06-02
[467]
서적
Singularity
2005
[468]
논문
Minds, Brains and Programs
1980
[469]
서적
Consciousness Explained
Back Bay Books
1991
[470]
웹사이트
AI and the Illusion of Intelligence
https://www.coursera[...]
2023-05-28
[471]
웹사이트
War anxiety: How to cope
https://www.health.h[...]
2022-05-23
[472]
웹사이트
민간이 ‘인공지능 뉴딜’에 뛰어든 이유
http://www.bloter.ne[...]
2020-06-14
[473]
Youtube
명견만리 |두 얼굴의 인공지능
https://www.youtube.[...]
[474]
웹사이트
인공지능의 막다른 골목, ‘인공 공감 능력’
http://www.boannews.[...]
2018-04-28
[475]
Youtube
인공지능의 주인이 되기 위해 반드시 알아야 할 것들 | 오혜연 KAIST 전산학부 교수 | 인공지능 AI 미래 강연 | 세바시 951회
https://www.youtube.[...]
[476]
Youtube
인공지능의 시대에 더 잘 살 수 있는 방법 | 이경일 솔트룩스 대표이사, 한양대학교 특임교수 | 4차산업혁명 기술 성공 미래 | 세바시 1137회
https://www.youtube.[...]
[477]
웹사이트
강(强)인공지능과 약(弱)인공지능을 아시나요?
http://www.zdnet.co.[...]
2016-06-22
[478]
논문
인공지능이 인간사회에 미치는 영향에 대한 연구 (An Analysis of the effect of Artificial Intelligence on Human Society)
https://scienceon.ki[...]
2019
[479]
논문
A Logical Calculus of the Ideas Immanent in Nervous Activity
1943
[480]
논문
On Computing Machinery and Intelligence
1950
[481]
논문
Man-Computer Symbiosis
[482]
논문
Minds, Machines and Gödel
1961
[483]
웹사이트
Minds, Machines and Gödel
http://users.ox.ac.u[...]
2007-03-03
[484]
서적
(출처 미상)
(출처 미상)
[485]
서적
(출처 미상)
(출처 미상)
[486]
서적
(출처 미상)
(출처 미상)
[487]
서적
(출처 미상)
(출처 미상)
[488]
서적
(출처 미상)
(출처 미상)
[489]
서적
(출처 미상)
2003
[490]
웹사이트
A Brief History of Computing
AlanTuring.net
[491]
서적
One Jump Ahead: Challenging Human Supremacy in Checkers
Springer
[492]
문서
[493]
저널
The logic theory machine--A complex information processing system
http://ieeexplore.ie[...]
1956-09
[494]
문서
[495]
문서
[496]
문서
[497]
문서
[498]
문서
[499]
문서
[500]
문서
[501]
문서
[502]
문서
[503]
문서
[504]
문서
[505]
문서
[506]
문서
[507]
문서
[508]
문서
[509]
문서
[510]
문서
[511]
문서
[512]
문서
[513]
문서
[514]
문서
[515]
문서
[516]
문서
[517]
문서
[518]
문서
[519]
문서
[520]
문서
[521]
문서
[522]
문서
[523]
문서
[524]
문서
[525]
문서
[526]
서적
null
[527]
서적
null
[528]
서적
null
[529]
서적
null
[530]
서적
null
[531]
서적
ROBOT: Mere Machine to Transcendent Mind
[532]
서적
null
[533]
서적
null
[534]
서적
null
[535]
서적
null
[536]
서적
null
[537]
서적
null
[538]
서적
null
[539]
서적
null
[540]
서적
null
[541]
간행물
null
[542]
서적
null
[543]
서적
null
[544]
서적
null
[545]
서적
null
[546]
서적
null
[547]
서적
null
[548]
서적
null
[549]
서적
null
[550]
서적
null
[551]
서적
null
[552]
서적
null
[553]
서적
null
[554]
서적
null
[555]
논문
null
[556]
서적
null
[557]
서적
null
[558]
서적
null
[559]
서적
null
[560]
서적
null
[561]
서적
Crevier 1993
[562]
서적
McCorduck 2004, Crevier 1993, Russell & Norvig 2003
[563]
서적
McCorduck 2004
[564]
서적
McCorduck 2004, Russell Norvig
[565]
서적
McCorduck 2004, Crevier 1993, Russell & Norvig 2003, Lenat & Guha 1989
[566]
서적
Crevier 1993
[567]
서적
Crevier 1993
[568]
서적
Russell & Norvig 2003
[569]
서적
McCorduck 2004, NRC 1999
[570]
서적
Russell & Norvig 2003
[571]
서적
Crevier 1993
[572]
서적
Russell & Norvig 2003
[573]
서적
Crevier 1993
[574]
서적
Crevier 1993
[575]
서적
McCorduck 2004, Crevier 1993
[576]
서적
McCorduck 2004, Crevier 1993, Lenat & Guha 1989
[577]
서적
McCorduck 2004
[578]
서적
McCorduck 2004, Crevier 1993
[579]
서적
McCorduck 2004
[580]
서적
Moravec 1988
[581]
서적
Crevier 1993
[582]
서적
Brooks 1990
[583]
서적
Lakoff & Turner 1999
[584]
서적
McCorduck 2004
[585]
간행물
인공지능보안이슈
정보보호학회지
2017-06
[586]
서적
McCorduck 2004
[587]
웹사이트
DARPA Grand Challenge – home page
[588]
웹인용
보관된 사본
http://archive.darpa[...]
2015-09-15
[589]
뉴스
On ‘Jeopardy!' Watson Win Is All but Trivial
The New York Times
2011-02-16
[590]
서적
Kurzweil 2005
[591]
문서
Deep Blue vs Ferranti Mark 1 FLOPS Comparison
[592]
서적
McCorduck 2004, Russell & Norvig 2003, Poole, Mackworth & Goebel 1998, Luger & Stubblefield 2004
[593]
서적
Hewitt, Bishop & Steiger 1973, Doyle 1983, Minsky 1986
[594]
서적
Russell & Norvig 2003
[595]
서적
Russell & Norvig 2003, Poole, Mackworth & Goebel 1998
[596]
서적
Russell & Norvig 2003
[597]
서적
Russell & Norvig 2003, Poole, Mackworth & Goebel 1998
[598]
서적
McCorduck 2004
[599]
서적
McCorduck 2004, Russell & Norvig 2003
[600]
서적
Russell & Norvig 2003
[601]
서적
McCorduck 2004
[602]
서적
Pearl 1988
[603]
서적
Russell & Norvig 2003
[604]
문서
Computer science (in Applications of artificial intelligence)
[605]
서적
Russell & Norvig 2003
[606]
뉴스
The Economist 2007
The Economist
[607]
뉴스
AI-inspired systems were already integral to many everyday technologies such as internet search engines, bank software for processing transactions and in medical diagnosis.
CNN
2006
[608]
서적
Olsen 2004, Olsen 2006
[609]
서적
NRC 1999, Kurzweil 2005
[610]
서적
McCorduck 2004, Kurzweil 2005, Hofstadter 1979
[611]
뉴스
CNN 2006
CNN
[612]
서적
Markoff 2005
[613]
뉴스
The Economist 2007
The Economist
[614]
서적
Tascarella 2006
[615]
서적
Crevier 1993
[616]
서적
Minsky 2001
[617]
서적
Maker 2006
[618]
서적
Kurzweil 2005
[619]
서적
Hawkins & Blakeslee 2004
[620]
웹인용
인공지능과 4차 산업혁명
https://www.snek.ai/[...]
2016-04-11
[621]
뉴스
알파고와 같은 인공지능(AI)이 미래에 인간의 직업을 줄일까요?
http://www.tributton[...]
트라이버튼
2016-05-11
[622]
웹사이트
대한민국 IT포털의 중심! 이티뉴스
http://www.etnews.co[...]
[623]
뉴스
디지털컬처로봇과 메신저로 대화 :: 네이버 뉴스
https://news.naver.c[...]
[624]
웹사이트
AI 그림 그려주는 사이트 TOP47 (무료 인공지능 AI)
https://wjdqhzld.com[...]
2023-08-08
[625]
웹사이트
It's alive
http://www.wired.com[...]
[626]
서적
The Singularity is Near
Penguin Books
2005
[627]
웹사이트
Robots and Artificial Intelligence
www.igmchicago.org
IGM Chicago
2017-06-30
[628]
뉴스
Automation and anxiety
The Economist
2015-05-09
[629]
뉴스
What Jobs Will the Robots Take?
The Atlantic
2014-01-23
[630]
뉴스
What jobs will still be around in 20 years? Read this to prepare your future
The Guardian
2017-06-26
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com