맨위로가기

인공지능의 역사

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

인공지능의 역사는 서양 정신사에서 나타나는 사고방식으로, 1940~50년대에 학문 분야로 확립되었다. 1956년 다트머스 회의를 통해 인공지능이라는 명칭이 정립되고, 초기 성공 사례들이 나오며 연구가 시작되었다. 이후 인공 생명체에 대한 개념, 기계적 추론의 발전, 컴퓨터 과학의 발전 등을 거쳐 인공지능의 탄생을 맞이했다. 1970년대에는 자금 지원 감소와 비판에 직면하며 'AI 겨울'을 겪었지만, 전문가 시스템의 등장과 정부 지원 증가로 1980년대 'AI 붐'을 맞이했다. 그러나 1987년 특수 AI 하드웨어 시장 붕괴와 전문가 시스템의 문제점으로 인해 두 번째 'AI 겨울'을 맞이했다. 1990년대 이후, 인공지능 기술은 데이터 마이닝, 음성 인식 등 다양한 분야에서 활용되었으며, 2000년대에는 빅데이터, 딥 러닝 기술의 발전으로 AI 붐이 다시 일어났다. 2020년대에는 대규모 언어 모델의 개발과 함께 AI에 대한 투자가 증가했으며, 현재까지 지속적인 발전을 이루고 있다.

더 읽어볼만한 페이지

  • 인공지능의 역사 - AI 겨울
    AI 겨울은 인공지능 연구에 대한 자금 지원과 관심이 크게 감소했던 시기를 가리키며, 기계 번역의 어려움, 신경망의 한계, 전문가 시스템 문제, 5세대 컴퓨터 실패 등의 요인으로 여러 차례 침체기를 겪었으나, 2000년대 이후 음성 및 이미지 인식 분야에서 성과를 거두며 부흥했고, 2022년 이후 대규모 언어 모델 등장으로 관심과 투자가 폭발적으로 증가했다.
  • 인공지능의 역사 - 튜링 테스트
    튜링 테스트는 앨런 튜링이 제안한 기준으로, 기계가 인간과 구별할 수 없을 정도로 행동하는지 판별하며, 뢰브너 상 등을 통해 실현 가능성과 한계에 대한 논쟁이 지속되고 있고, 유진 구스트만, LaMDA, ChatGPT 등이 테스트 통과 또는 자의식 논란을 일으키고 있다.
  • 컴퓨팅의 역사 - 빌 게이츠
    빌 게이츠는 폴 앨런과 함께 마이크로소프트를 공동 설립하여 MS-DOS와 윈도우를 개발하고 세계 최대 소프트웨어 기업으로 성장시키는 데 기여했으며, 현재는 빌 & 멀린다 게이츠 재단을 통해 자선 활동을 펼치고 있는 미국의 사업가이자 자선가이다.
  • 컴퓨팅의 역사 - 뉴욕 공과대학교
    뉴욕 공과대학교는 1955년 뉴욕 기술 연구소를 전신으로 설립된 미국의 사립 대학으로, 기술 중심 교육을 강조하며 컴퓨터 그래픽스 분야에서 선구적인 역할을 했고 뉴욕과 롱아일랜드에 주요 캠퍼스를 두고 전 세계에 국제 교육 프로그램을 운영한다.
인공지능의 역사
인공지능 개요
역사
창시자존 매카시
시작 시점1956년 다트머스 회의
주요 목표
주요 목표지식 추론
계획
기계 학습
자연어 처리
컴퓨터 비전
로봇공학
인공 일반 지능
접근 방법
접근 방법심볼릭
딥 러닝
베이즈 네트워크
진화 알고리즘
철학
철학적 논의윤리
실존적 위험
튜링 테스트
중국어 방
통제 문제
친절한 AI
역사
역사적 사건연표
진행상황
AI 겨울
기술
관련 기술애플리케이션
프로젝트
프로그래밍 언어
용어
관련 용어용어

2. 역사

인공지능의 역사는 신화, 전설, 허구, 오토마타 등에서 그 기원을 찾을 수 있다. 맥코드럭은 저서(2004)에서 "어떤 형태의 인공지능은 서양 정신사에 광범위하게 나타나는 사고방식으로, 빠른 실현이 기대되는 꿈"이었다고 언급했다.[58]

2. 1. 전사

그리스 신화에는 청동 거인 탈로스, 피그말리온의 조각상 갈라테이아 등 인공 생명체 이야기가 등장한다.[58] 탈로스는 크레타 섬을 지키는 수호자였으며, 침략자들에게 바위를 던져 물리쳤다. 피그말리온은 자신이 만든 조각상과 사랑에 빠진 조각가였다.

괴테파우스트에 등장하는 호문쿨루스 묘사


중세 시대에는 연금술을 통해 인공 생명체를 만드는 방법이 연구되었다. 파라켈수스는 인공 인간 호문쿨루스를 만드는 방법을 제시했고, 유대 전설에는 진흙으로 만든 인조 인간 골렘 이야기가 전해진다. 이슬람 연금술사 자비르 이븐 하이얀은 생명 창조(타크윈)를 연구했다.

고대 이집트고대 그리스에서는 신성한 조각상을 오토마타의 초기 형태로 보았다. 사람들은 이 조각상에 실제 정신이 깃들어 있다고 믿었다.[60][61] 헤르메스 트리스메기스투스는 신의 본성을 재현할 수 있다고 기록했다.[2] 중세 시대에는 로저 베이컨 등이 놋쇠 머리를 만들었다는 전설이 있었다. 주나라의 목왕 시대의 염사, 알렉산드리아의 헤론, 알 자자리[59] 등 여러 문명의 장인들이 실제와 같은 인간형 오토마타를 제작했다.

19세기에는 메리 셸리의 프랑켄슈타인, 카렐 차페크의 R.U.R. 등 인공 생명체를 다룬 문학 작품이 등장하며 인공지능에 대한 관심이 높아졌다. 새뮤얼 버틀러는 "기계 사이의 다윈"이라는 에세이를 통해 기계가 지능을 가질 수 있다는 가능성을 제시했다.

2. 2. 기계적 추론의 발전

인공지능은 인간 사고 과정이 기계화될 수 있다는 가정에 기반을 두고 있다. 기계적 또는 "형식적" 추론 연구는 오랜 역사를 가지고 있다. 중국, 인도, 그리스 철학자들은 모두 기원전 1천년 동안 형식적 연역의 구조화된 방법을 개발했다.[2] 이들의 아이디어는 아리스토텔레스 (삼단논법에 대한 형식적 분석을 제공),[3] 유클리드 (그의 ''원론''은 형식적 추론의 모델), 알콰리즈미 (그는 대수학을 개발했고 ''알고리즘''이라는 단어에 그의 이름을 부여), 스콜라 철학의 윌리엄 오컴과 요하네스 둔스 스코투스와 같은 유럽 철학자들에 의해 수 세기 동안 발전되었다.[4]

스페인 철학자 라몬 룰 (1232–1315)은 논리적 수단을 통해 지식을 생산하기 위한 여러 ''논리 기계''를 개발했다.[5] 룰은 그의 기계를 기본적인, 부인할 수 없는 진실을 단순한 논리 연산으로 결합할 수 있는 기계적 실체로 묘사했으며, 기계는 이러한 방식으로 모든 가능한 지식을 생산했다.[6] 룰의 연구는 그의 아이디어를 재개발한 고트프리트 빌헬름 라이프니츠에게 큰 영향을 미쳤다.[7]

고트프리트 라이프니츠, 인간의 이성이 기계적 계산으로 축소될 수 있다고 추측했다


17세기에 라이프니츠, 토머스 홉스르네 데카르트는 모든 합리적 사고가 대수학이나 기하학과 마찬가지로 체계화될 수 있다는 가능성을 탐구했다.[8] 홉스는 ''리바이어던''에서 "''이성''은 ... 단지 ''계산'', 즉 더하고 빼는 것에 불과하다."라고 썼다.[9] 라이프니츠는 논쟁을 계산으로 축소하여 "두 회계사 사이보다 두 철학자 사이의 논쟁이 더 이상 필요하지 않을 것"이 되도록 하는, 추론의 보편적인 언어, 즉 ''characteristica universalis''를 구상했다. "그들은 연필을 들고 슬레이트에 내려놓고 서로 (원한다면 친구를 증인으로) 말하는 것으로 충분할 것이다. ''계산하자.'"[10] 이러한 철학자들은 인공지능 연구의 지침이 될 물리적 기호 시스템 가설을 명확히 하기 시작했다.

수학 논리 연구는 인공지능을 그럴듯하게 보이게 하는 필수적인 획기적인 발전을 제공했다. 의 ''사고의 법칙'' 및 프레게의 ''개념 표기''와 같은 작품이 그 기반을 마련했다.[11] 프레게의 시스템을 기반으로 러셀화이트헤드는 1913년 그들의 걸작 ''수학 원리''에서 수학의 기초에 대한 형식적인 처리를 제시했다. 러셀의 성공에 영감을 받아 데이비드 힐베르트는 1920년대와 30년대의 수학자들에게 "모든 수학적 추론을 형식화할 수 있는가?"라는 근본적인 질문에 답하도록 도전했다.[12] 그의 질문은 괴델불완전성 증명,[13] 튜링기계[14] 및 처치의 람다 대수에 의해 답을 얻었다.

250px


그들의 답은 두 가지 면에서 놀라웠다. 첫째, 그들은 수학 논리가 실제로 달성할 수 있는 것에 한계가 있음을 증명했다. 그러나 둘째 (그리고 AI에게 더 중요한 것) 그들의 연구는 이러한 한계 내에서 ''어떤'' 형태의 수학적 추론도 기계화될 수 있음을 시사했다. 처치-튜링 명제는 ''0''과 ''1''과 같이 간단한 기호를 섞는 기계 장치가 모든 상상 가능한 수학적 연역 과정을 모방할 수 있음을 의미했다.[16] 핵심적인 통찰력은 추상적 기호 조작의 본질을 포착한 간단한 이론적 구조인 튜링 기계였다.[17] 이 발명은 소수의 과학자들에게 사고하는 기계의 가능성에 대해 논의하기 시작하도록 영감을 주었다.

2. 3. 컴퓨터 과학의 발전

찰스 배비지는 프로그램 가능한 계산기인 해석 기관을 설계했지만, 실제로 제작하지는 못했다.[9] 에이다 러브레이스는 이 기계에 대한 주석에서 베르누이 수를 계산하는 방법을 상세히 설명하여 세계 최초의 프로그래머로 불린다. 그녀는 이 기계가 "정교하고 과학적인 음악의 단편을 그럴듯한 복잡성과 길이로 작곡할지도 모른다"고 추측했다.

제2차 세계 대전 중에는 콘라트 추제Z3, 앨런 튜링의 히스 로빈슨 및 콜로서스, 존 빈센트 아타나소프와 클리포드 베리의 ABC, ENIAC과 같은 현대식 컴퓨터들이 개발되었다.[70] ENIAC앨런 튜링이 제시하고 존 폰 노이만이 발전시킨 이론적 토대를 기반으로 만들어졌으며, 가장 큰 영향을 미쳤다.

2. 4. 인공지능의 탄생 (1941-1956)

1940년대와 50년대, 신경학, 사이버네틱스, 정보 이론, 계산 가능성 이론 등의 발전은 "전자 두뇌" 구축의 가능성을 시사했다.[10] 앨런 튜링은 "기계 지능"의 이론적 가능성을 진지하게 연구한 최초의 인물 중 한 명이었다.



1950년 튜링은 논문 "컴퓨팅 기계와 지능"을 발표했는데, 이 논문에서 그는 생각하는 기계를 만들 가능성에 대해 추측했다.[12] 그는 "생각"을 정의하기 어렵다는 점에 주목하고 튜링 테스트를 고안했다. 만약 기계가 인간과의 대화와 구별할 수 없는 대화를 (전신 타자기를 통해) 할 수 있다면, 그 기계가 "생각"하고 있다고 말하는 것이 합리적이라는 것이다. 튜링 테스트는 인공 지능 철학에서 최초의 진지한 제안이었다.

1943년 월터 피츠와 워런 매컬로크는 이상화된 인공 뉴런의 네트워크를 분석하여 간단한 논리적 기능을 수행할 수 있는 방법을 제시했고, 이는 신경망 연구의 기초를 마련했다.[13] 1951년 마빈 민스키는 최초의 신경망 기계인 SNARC를 만들었다.[14]

1950년대에는 W. 그레이 월터의 터틀이나 존스 홉킨스 비스트와 같은 실험적 로봇들이 제작되었다. 이 기계들은 전적으로 아날로그 회로에 의해 제어되었다.[15]

1951년, 맨체스터 대학교페란티 마크 1 컴퓨터를 사용하여 크리스토퍼 스트레이치는 체커 프로그램을, 디트리히 프린츠는 체스 프로그램을 작성했다. 아서 사무엘의 체커 프로그램은 기계 학습 기술을 최초로 사용한 사례 중 하나였으며, 게임 AI는 AI 발전의 척도로서 그 역사를 통해 계속 사용될 것이다.

앨런 뉴웰(오른쪽)과 체스 시합을 하는 허버트 사이먼


1955년, 앨런 뉴웰과 허버트 사이먼은 "논리 이론가"를 만들어 기호적 추론의 가능성을 제시했다.[16] 이 프로그램은 버트런드 러셀과 알프레드 노스 화이트헤드의 ''수학 원리''에 수록된 52개의 정리 중 38개를 증명했으며, 일부 정리의 경우 새롭고 더 우아한 증명을 발견했다.[16]

1956년 다트머스 회의에서 인공지능이라는 용어가 처음 사용되었고, 학문 분야로서의 인공지능이 공식적으로 시작되었다.[18] 이 워크숍은 마빈 민스키존 매카시IBM클로드 섀넌과 나다니엘 로체스터의 지원을 받아 조직했다. 회의 제안서에는 "학습의 모든 측면 또는 지능의 다른 모든 특징이 기계가 이를 시뮬레이션할 수 있을 정도로 정확하게 묘사될 수 있다"는 주장을 시험할 의도가 명시되어 있었다. 워크숍에서 뉴웰과 사이먼은 "논리 이론가"를 선보였다.

2. 5. 인지 혁명

1956년 가을, 앨런 뉴웰과 허버트 사이먼매사추세츠 공과대학교(MIT)에서 열린 정보 이론 특별 관심 그룹 회의에서 논리 이론가를 발표했다.[10] 같은 회의에서 노엄 촘스키는 생성 문법을 논의했고, 조지 아미티지 밀러는 그의 논문 "[마법의 숫자 7, 플러스 마이너스 2]"를 설명했다.[11] 밀러는 "실험 심리학, 이론 언어학, 인지 과정의 컴퓨터 시뮬레이션이 모두 더 큰 전체의 조각이라는 직관적인 확신을 가지고 심포지엄을 떠났다"고 썼다.[11]

이 회의는 심리학, 철학, 컴퓨터 과학 및 신경 과학 분야의 학제 간 패러다임 전환인 "인지 혁명"의 시작이었다. 이는 기호적 인공지능, 생성 언어학, 인지 과학, 인지 심리학, 인지 신경 과학 하위 분야와 계산주의 및 기능주의 철학 학파의 창조에 영감을 주었다. 이 모든 분야는 마음을 모델링하기 위해 관련 도구를 사용했으며 한 분야에서 발견된 결과는 다른 분야와 관련이 있었다.

인지적 접근 방식은 연구자들이 사고, 계획, 목표, 사실 또는 기억과 같은 "정신적 대상"을 고려할 수 있게 해주었으며, 이는 종종 기능적 네트워크에서 고수준 기호를 사용하여 분석되었다. 이러한 객체는 행동주의와 같은 이전 패러다임에 의해 "관찰 불가능한" 것으로 금지되었다. 기호적 정신 객체는 향후 수십 년 동안 인공지능 연구 및 자금 지원의 주요 초점이 될 것이다.

2. 6. 초기 성공 (1956-1974)

다트머스 워크숍 이후 개발된 인공지능 프로그램들은 대수학 문제를 풀고, 기하학 정리를 증명하며, 영어를 배우는 등 놀라운 성과를 보여주었다.[19] 당시 대부분의 사람들은 기계가 이러한 "지능적인" 행동을 할 수 있다는 것을 거의 믿지 않았다.[19] 연구자들은 20년 안에 완전한 지능형 기계가 만들어질 것이라는 낙관적인 예측을 내놓았다.[19] 국방고등연구계획국(DARPA)과 같은 정부 기관들은 인공지능 연구에 많은 자금을 지원했다.[20]

초기 인공지능 연구자들은 다음과 같은 예측을 했다.

  • 1958년, 허버트 A. 사이먼과 앨런 뉴웰: "10년 안에 디지털 컴퓨터가 세계 체스 챔피언이 될 것이다." 그리고 "10년 안에 디지털 컴퓨터가 중요하고 새로운 수학적 정리를 발견하고 증명할 것이다."[27]
  • 1965년, 허버트 A. 사이먼: "20년 안에 기계가 인간이 할 수 있는 모든 일을 할 수 있게 될 것이다."[28]
  • 1967년, 마빈 민스키: "한 세대 안에... '인공 지능'을 만드는 문제는 실질적으로 해결될 것이다."[29]
  • 1970년, 마빈 민스키 (''라이프'' 매거진): "3년에서 8년 안에 우리는 평균적인 인간의 지능을 가진 기계를 갖게 될 것이다."[104]


1963년, 매사추세츠 공과대학교(MIT)는 국방고등연구계획국(DARPA)으로부터 2200000USD의 지원금을 받아 프로젝트 MAC을 설립했고, 여기에는 마빈 민스키존 매카시가 설립한 "AI 그룹"도 포함되었다. DARPA는 1970년대까지 매년 3000000USD를 계속 지원했다. DARPA는 앨런 뉴웰과 허버트 A. 사이먼의 카네기 멜론 대학교 프로그램과 존 매카시가 설립한 스탠퍼드 대학교의 AI 연구소에도 지원금을 제공했다. 1965년 도널드 미치에 의해 에든버러 대학교에 또 다른 중요한 AI 연구소가 설립되었다. 이 네 기관은 오랫동안 학계에서 AI 연구와 자금 지원의 주요 중심지 역할을 했다.

당시 ARPA 국장이었던 J. C. R. 리클라이더는 "프로젝트가 아닌 사람에게 자금을 지원해야 한다"고 믿었고, 연구자들이 자유롭게 연구를 진행하도록 허용했다.

2. 7. 초기 접근 방식

초기 인공지능 프로그램들은 게임에서 이기거나 정리를 증명하는 등의 목표를 달성하기 위해, 미로를 탐색하는 것처럼 단계별로 접근하는 방식을 사용했다. 막다른 골목에 도달하면 백트래킹하는 알고리즘을 사용했는데,[21] 이를 "수단-목표 분석"이라고도 부른다. 많은 문제에서 가능한 경로의 수가 너무 많아지는 "조합 폭발"이 발생했고, 연구자들은 휴리스틱을 통해 탐색 공간을 줄였다.

앨런 뉴웰과 허버트 A. 사이먼은 이 알고리즘을 일반화한 "일반 문제 해결사"를 개발했다. 허버트 겔러너터의 기하학 정리 증명기(1958년)나 제임스 슬레이글의 SAINT(1961년)와 같이 기하학 및 대수학 문제를 해결하는 프로그램들도 있었다. STRIPS는 로봇 셰이키의 행동 제어를 위해 개발된 자동 스케줄링 및 계획 프로그램이다.[22]

시맨틱 네트워크


컴퓨터가 자연어로 소통하게 하는 것은 인공지능의 중요한 목표였다. 대니얼 보브로의 STUDENT는 고등학교 대수학 문제를 풀 수 있었다.[23]

시맨틱 네트워크는 개념을 노드로, 개념 간의 관계를 링크로 표현한다. 로스 퀼리언이 시맨틱 네트워크를 사용한 최초의 인공지능 프로그램을 작성했고, 로저 섕크의 개념 의존성 이론이 가장 성공적인 버전이었다.

조지프 와이젠바움의 ELIZA는 사용자가 사람과 대화한다고 착각할 정도로 현실적이었지만(ELIZA 효과 참조), 실제로는 정형화된 응답을 하거나 문법 규칙으로 응답을 바꾸는 챗봇이었다.

MIT마빈 민스키와 세이무어 페퍼트는 인공적으로 단순화된 "블록 세계"와 같은 마이크로 월드에 AI 연구를 집중할 것을 제안했다.[24]

이러한 환경은 기계 시각 연구, 블록 쌓기 로봇 팔, 테리 위노그라드의 SHRDLU 개발로 이어졌다. SHRDLU는 일반 영어 문장으로 소통하고, 작업을 계획하고 실행할 수 있었다.[24]

마크 1 퍼셉트론.


1958년 프랭크 로젠블라트는 단일층 신경망퍼셉트론을 소개했다. 그는 퍼셉트론이 학습, 결정, 언어 번역을 할 수 있을 것이라고 예측했다.

버나드 위드로우와 테드 호프는 ADALINE(1960)과 MADALINE(1962)을 만들었다. 스탠퍼드 연구소(SRI International)의 찰스 A. 로젠과 앨프레드 E. 브레인은 MINOS I(1960)과 II(1963)를 만들었다. MINOS II는 6600개의 조정 가능한 가중치를 가졌고, MINOS III(1968)는 SDS 910 컴퓨터로 제어되어 육군 지도 기호를 분류하고, Fortran 코딩 시트에 손으로 쓴 문자를 인식할 수 있었다.

그러나 민스키와 페퍼트의 저서 ''퍼셉트론''(1969)은 퍼셉트론의 한계를 지적하며 로젠블라트의 예측이 과장되었다고 주장했다. 이로 인해 결합주의 연구는 10년 동안 거의 자금 지원을 받지 못했다.

2. 8. 첫 번째 AI 겨울 (1974-1980)

1970년대에 인공지능은 비판과 재정적 어려움에 직면했다. 인공지능 연구자들은 문제의 어려움을 과소평가했고, 그들의 낙관적인 예측은 대중의 기대를 지나치게 높였다. 약속된 결과가 나오지 않자 인공지능에 대한 자금 지원은 크게 줄었다.[106]

1970년대 초, 인공지능 프로그램의 능력은 제한적이었다. 가장 인상적인 프로그램조차도 문제의 매우 단순한 버전만 처리할 수 있었고, 모든 프로그램은 어떤 의미에서는 "장난감" 수준이었다.[108] 당시 인공지능 연구자들은 여러 가지 근본적인 한계에 직면했는데, 일부는 나중에 극복되었지만, 2020년대에도 여전히 해결되지 않은 문제도 있다.[88]

  • '''제한된 컴퓨터 성능''': 실제로 유용한 작업을 수행할 만큼 충분한 메모리나 처리 속도가 없었다. 예를 들어, 로스 퀼리언의 자연어 처리 프로그램은 단 20개의 단어만 처리할 수 있었는데, 이는 당시 메모리 용량의 한계였다.[108] 한스 모라벡은 1976년에 컴퓨터가 지능을 갖추려면 수백만 배 더 강력해야 한다고 주장했다. 그는 인공지능에 컴퓨터 성능이 필요한 것은 마치 항공기에 마력이 필요한 것과 같다고 비유했다. 특정 임계값 이하에서는 불가능하지만, 성능이 향상되면 결국 쉬워질 수 있다고 주장했다.[109]
  • '''난해성 및 조합 폭발''': 1972년 리처드 카프는 (스티븐 쿡의 1971년 정리를 기반으로) 많은 문제들이 지수 시간으로만 해결될 수 있음을 보였다. 이러한 문제에 대한 최적의 해결책을 찾는 것은 사소한 경우를 제외하고는 엄청난 양의 컴퓨터 시간을 필요로 했다. 이는 인공지능에서 사용된 많은 "장난감" 솔루션이 실제 시스템으로 확장될 수 없음을 의미했다.[111]
  • '''모라벡의 역설''': 초기 인공지능 연구는 컴퓨터가 정리 증명, 기하 문제 해결, 체스 게임과 같은 "지능적인" 작업을 수행하는 데 매우 성공적이었다. 그러나 얼굴 인식이나 아무것에도 부딪히지 않고 방을 가로지르는 것과 같은 "비지능적인" 작업에서는 거의 진전이 없었다.[113]
  • '''상식 지식의 광범위함''': 컴퓨터 비전이나 자연어 처리와 같은 많은 중요한 인공지능 응용 프로그램은 세상에 대한 방대한 양의 정보를 필요로 한다. 프로그램은 무엇을 보고 있는지, 무엇에 대해 이야기하고 있는지 알아야 한다. 즉, 프로그램은 어린이가 아는 것과 거의 같은 세상을 알아야 한다. 연구자들은 곧 이것이 수십억 개의 사실을 포함하는 엄청난 양의 정보임을 발견했다. 1970년에는 충분히 큰 데이터베이스를 구축할 수 있는 사람이 없었고, 프로그램이 그렇게 많은 정보를 어떻게 배울 수 있을지도 아는 사람이 없었다.[112]
  • '''상식 추론 표현의 어려움''': 연구자들이 형식 논리나 기호를 사용하여 상식 추론을 표현하려고 할 때, 프레임 문제, 자격 문제 등 여러 관련 문제가 발생했다. 평범한 추론에 대한 설명은 예외, 명확성 및 구분이 더 많이 필요해짐에 따라 점점 더 길어지는 경향이 있었다. 그러나 사람들은 평범한 개념에 대해 생각할 때 정확한 정의에 의존하지 않고, 대신 수백 개의 부정확한 가정을 하고 필요할 때 전체 상식 지식을 사용하여 수정하는 것처럼 보였다.[32]


이러한 기술적 문제 외에도, 인공지능 연구는 외부로부터의 비판과 자금 지원 중단에 직면했다. 자동 언어 처리 자문 위원회(ALPAC) 보고서는 기계 번역 노력을 비판하며 2천만 달러를 지출한 후 모든 지원을 중단했다.[115] 라이트힐 보고서는 영국의 인공지능 연구 현황을 비판하며 "웅대한 목표" 달성에 실패했다고 지적했고, 이는 영국 내 인공지능 연구 해체로 이어졌다.[116] 국방고등연구계획국(DARPA)은 카네기 멜런 대학교음성 인식 프로그램에 실망하여 연간 3백만 달러의 보조금을 취소했다.[118]

몇몇 철학자들도 인공지능의 가능성에 대해 비판적인 입장을 제기했다. 존 루카스는 괴델의 불완전성 정리를 근거로 컴퓨터 프로그램이 인간처럼 참과 거짓을 판단할 수 없다고 주장했다.[121] 휴버트 드레이퍼스는 인간의 추론이 기호 처리가 아니라 신체화된 노하우에 의존한다고 주장하며 인공지능의 전제를 비판했다.[122] 존 설중국어 방 논변은 프로그램이 기호를 사용하더라도 그것을 "이해"한다고 말할 수 없음을 보여주려 했다.[124]

조셉 와이젠바움은 케네스 콜비가 ELIZA를 기반으로 한 치료용 챗봇을 개발한 것에 대해 윤리적 문제를 제기하며, 인공지능의 오용이 인간의 생명을 가치 절하할 수 있다고 경고했다.[128]

이러한 어려움에도 불구하고, 1970년대는 인공지능 연구에 있어 중요한 발전이 이루어진 시기였다. 존 매카시는 논리를 인공지능 연구에 도입했으며,[129] J. 앨런 로빈슨은 해결 및 통일 알고리즘을 개발했다.[130] 로버트 코왈스키는 논리 프로그래밍 언어 프롤로그 개발에 기여했다.[41] 마빈 민스키 등은 프레임, 스크립트 등 지식 표현 방법을 제안하며 비논리적 접근 방식을 옹호했다.[133]

3. 붐 (1980-1987)

1980년대에는 전문가 시스템이라는 인공지능 프로그램이 기업에 널리 채택되었고, 지식 표현이 인공지능 연구의 중심 주제가 되었다.[43] 일본의 제5세대 컴퓨터 프로젝트와 미국의 전략 컴퓨팅 계획 등 각국 정부의 지원도 활발했다.

전문가 시스템은 특정 분야의 지식을 기반으로 질문에 답하거나 문제를 해결하는 프로그램이었다. 이러한 시스템의 성공은 지식의 중요성을 부각시켰고, 지식 기반 시스템과 지식 공학이 1980년대 인공지능 연구의 핵심 분야로 떠올랐다.[46]

존 호프필드와 데이비드 루멜하트의 연구로 인공 신경망 분야가 다시 주목받기 시작했다. 홉필드 네트워크는 정보를 학습하고 처리하는 새로운 방식을 제시했고, 역전파 알고리즘은 신경망 훈련의 효율성을 높였다. 이러한 발전은 연결주의라는 새로운 분야를 탄생시켰고, 기호적 인공지능과의 논쟁을 불러일으켰다.

로드니 브룩스, 한스 모라벡과 같은 연구자들은 진정한 지능을 위해서는 로봇이 세상을 직접 인식하고 상호작용하는 "몸"이 필요하다고 주장하며, 구현된 마음 이론을 제시했다. 이들은 상식 추론과 같은 고차원적 능력은 감각 운동 기술에 기반하며, 추상적인 기호 추론만으로는 한계가 있다고 보았다.

소프트 컴퓨팅은 불완전하고 부정확한 정보를 다루는 방법론으로, 퍼지 논리, 진화 연산, 인공 신경망 등을 포함한다. 주데아 펄의 연구는 확률과 의사 결정 이론을 인공지능에 도입하는 데 중요한 역할을 했으며, 베이즈 네트워크, 은닉 마르코프 모델 등 다양한 도구가 개발되었다.

강화 학습은 에이전트가 행동에 대한 보상과 처벌을 통해 학습하는 방식으로, 리처드 서튼과 앤드루 바토의 연구를 통해 발전했다. 시간차(TD) 학습 알고리즘은 미래 예측을 개선하는 방식으로 학습 효율을 높였고, TD-Gammon 프로그램은 백개먼 게임에서 인간 최고 수준의 실력을 보여주었다.

3. 1. 전문가 시스템의 활용

전문가 시스템은 특정 지식 분야에 대한 질문에 답하거나 문제를 해결하는 프로그램으로, 1980년대에 기업에서 널리 활용되었다.[43] 전문가 시스템은 전문가의 지식에서 파생된 논리적인 규칙을 사용한다.

초기 전문가 시스템의 예시는 다음과 같다.

시스템명개발 연도설명
덴드랄1965년에드워드 페이겐바움과 그의 제자들이 개발. 분광계 판독값에서 화합물을 식별한다.
마이신1972년전염성 혈액 질환을 진단한다.



이러한 전문가 시스템들은 접근 방식의 타당성을 입증했다. 전문가 시스템은 특정 지식의 좁은 영역에 국한되어 상식 지식 문제를 피할 수 있었고, 단순한 설계 덕분에 프로그램 구축과 수정이 비교적 쉬웠다.

1980년, CMU에서 디지털 이큅먼트 코퍼레이션(DEC)을 위해 R1이라는 전문가 시스템이 완성되었다. R1은 VAX 시스템의 주문에 대응하여 컴포넌트를 과부족 없이 추출하는 시스템이었고, 1986년까지 연간 4000만달러를 절약하는 큰 성공을 거두었다.

이에 전 세계 기업들이 전문가 시스템을 개발하고 배치하기 시작했고, 1985년까지 AI에 10억달러 이상을 지출했는데, 대부분 사내 AI 부서에 투입되었다. 심볼릭스(Symbolics) 및 리스프 머신스(Lisp Machines)와 같은 하드웨어 회사와 인텔리코프(IntelliCorp (Software)) 및 클레버패스 AION 비즈니스 규칙 전문가(Cleverpath AION Business Rules Expert)와 같은 소프트웨어 회사를 포함한 산업이 이를 지원하기 위해 성장했다.[44]

3. 2. 정부 지원 증가

1981년, 일본 통상산업성은 제5세대 컴퓨터 프로젝트에 8.5억달러를 배정했다.[45] 이 프로젝트는 사람과 대화하고, 언어를 번역하며, 그림을 해석하고, 인간처럼 추론할 수 있는 프로그램을 작성하고 기계를 만드는 것을 목표로 했다.[45] 이 프로젝트의 주요 컴퓨터 언어로는 프롤로그가 선택되었다.

다른 국가들도 이에 대응하여 새로운 프로그램을 시작했다. 영국은 3억 5천만 파운드 규모의 앨비 프로젝트를 시작했고, 미국 기업 컨소시엄은 AI 및 정보 기술 분야의 대규모 프로젝트에 자금을 지원하기 위해 마이크로일렉트로닉스 및 컴퓨터 기술 공사(MCC)를 설립했다. 방위고등연구계획국(DARPA)은 전략 컴퓨팅 이니셔티브를 창설하여 1984년부터 1988년까지 AI 투자를 3배로 늘렸다.

3. 3. 지식 혁명

전문가 시스템의 힘은 그들이 담고 있는 전문가 지식에서 비롯되었다. 지식 기반 시스템과 지식 공학은 1980년대 인공지능 연구의 주요 초점이 되었다.[46] 패멜라 맥코덕은 "인공지능 연구자들은, 가성성의 원리라는 과학적 정설을 위반했기에 마지못해, 지능이 다양한 지식을 다양한 방식으로 사용하는 능력에 기반할 수도 있다는 것을 의심하기 시작했다"라고 적었다. 1970년대의 가장 중요한 교훈은 지능적인 행동이 주어진 과제가 놓여 있는 영역에 대한 지식, 때로는 매우 상세한 지식에 크게 의존한다는 것이었다.[135]

더글러스 레넷은 Cyc 프로젝트를 통해 상식 지식 문제를 해결하려 했다. 그는 평균적인 사람이 알고 있는 모든 평범한 사실을 담을 거대한 데이터베이스를 만들고자 했다.[47] 레넷은 지름길은 없으며, 기계가 인간의 개념의 의미를 알 수 있는 유일한 방법은 수작업으로 한 번에 하나의 개념씩 가르치는 것이라고 주장했다.[47]

3. 4. 1980년대의 새로운 방향

1980년대에 기호적 지식 표현과 논리적 추론은 여러 응용 분야에서 성과를 내며 많은 투자를 받았지만, 지각, 로봇 공학, 학습, 상식 추론과 같은 문제를 해결하는 데는 어려움을 겪었다.[143] 일부 과학자와 기술자들은 기호적 접근 방식의 한계를 인식하고, 연결주의, 로봇 공학, 소프트 컴퓨팅, 강화 학습 등 다른 접근 방식을 모색하기 시작했다. 닐스 닐슨은 이러한 접근 방식을 "하위 기호적"이라고 칭했다.[143]

4개의 노드로 구성된 홉필드 네트워크


1982년, 물리학자 존 홉필드홉필드 네트워크라는 신경망의 한 종류가 정보를 학습하고 처리하는 새로운 방식을 증명했다. 이전까지 비선형 네트워크는 혼돈적으로 진화할 것이라고 생각되었지만, 홉필드는 특정 조건에서 충분한 시간이 주어지면 네트워크가 안정적으로 수렴한다는 것을 보였다.[143] 비슷한 시기에 제프리 힌튼과 데이비드 루멜하트는 역전파라는 신경망 훈련 방법을 대중화했다. 이 방법은 여러 분야에서 개발되었으며, 세포 린나이마가 1970년에 자동 미분의 역 모드로서 처음 발표했고, 폴 워보스가 1970년대에 신경망에 적용했다. 이러한 발전은 인공 신경망 연구를 다시 활성화시켰다.[143]

1986년, 데이비드 루멜하트와 심리학자 제임스 맥클레랜드가 출판한 ''병렬 분산 처리''라는 두 권의 논문집은 연결주의라는 새로운 분야를 널리 알리는 계기가 되었다. 이로 인해 기호적 인공지능 지지자들과 "연결주의자"들 사이에 논쟁이 벌어지기도 했다.[143] 힌튼은 기호를 "AI의 빛나는 에테르"라고 비유하며, 지능에 대한 비현실적이고 오해를 불러일으키는 모델이라고 비판했다.[143]

1990년, 벨 연구소얀 르쿤합성곱 신경망을 사용하여 손으로 쓴 숫자를 인식하는 데 성공했다. 이 시스템은 1990년대에 우편 번호와 개인 수표를 읽는 데 널리 사용되며 신경망의 첫 실질적인 응용 사례가 되었다.[143]

AI 연구자들은 이전보다 더 정교한 수학적 도구를 활용하기 시작했다. 수학, 경제학, 경영 과학 등 다른 분야에서 이미 해결된 문제들이 AI 연구에도 적용되었다. 공통된 수학적 언어를 사용함으로써, AI는 다른 분야와 협력하고 측정 가능하며 검증 가능한 성과를 낼 수 있게 되면서 더욱 엄밀한 "과학적" 분야로 발전했다. 러셀과 노빅은 이를 "혁명"이자 "정교함(neat)의 승리"라고 평가했다.

주디아 펄의 1988년 저서는 AI에 확률결정 이론을 도입하는 데 큰 영향을 미쳤다. 베이즈 네트워크, 은닉 마르코프 모델, 정보 이론, 확률적 모델링, 고전적 최적화 등 다양한 도구들이 활용되었다. 신경망이나 진화적 알고리즘과 같은 "계산 지능" 패러다임을 위한 수학적 기술도 발전했다.

3. 5. 신경망의 부활: 연결주의

1982년, 물리학자 존 홉필드홉필드 네트워크가 정보를 학습하고 처리할 수 있음을 증명했다. 이는 이전까지 비선형 네트워크는 혼란스럽게 진화할 것이라고 생각했기 때문에 획기적인 사건이었다.[143] 비슷한 시기에, 제프리 힌튼과 데이비드 루멜하트는 신경망 훈련 방법인 "역전파"를 대중화했다.역전파의 여러 버전은 여러 분야에서 개발되었으며, 가장 직접적으로는 자동 미분의 역 모드로서 세포 린나이마에 의해 출판되었다(1970). 이는 1970년대에 폴 워보스에 의해 신경망에 적용되었다.영어 이러한 발전은 인공 신경망 연구를 부활시키는 데 기여했다.[143]

1986년 데이비드 루멜하트와 심리학자 제임스 맥클랜드가 편집한 2권의 논문집 ''병렬 분산 처리''가 출판된 후, 신경망은 다른 여러 유사한 모델들과 함께 광범위한 주목을 받았다. 새로운 분야는 "연결주의"로 명명되었고, 기호적 인공지능 옹호자들과 "연결주의자"들 사이에 상당한 논쟁이 있었다. 힌튼은 기호를 "AI의 빛나는 에테르"라고 불렀는데, 이는 지능에 대한 실행 불가능하고 오해의 소지가 있는 모델이라는 의미였다.

1990년, 벨 연구소얀 르쿤합성곱 신경망을 사용하여 손으로 쓴 숫자를 인식했다. 이 시스템은 90년대에 널리 사용되어 우편 번호와 개인 수표를 읽는 데 활용되었다. 이것은 신경망의 최초의 실질적인 응용이었다.

3. 6. 로봇 공학과 구현된 이성

로드니 브룩스, 한스 모라벡 등은 기계가 진정한 지능을 갖추려면 세상을 인식하고, 움직이며, 생존하고, 세상에 대처할 수 있는 *몸*이 필요하다고 주장했다.[48] 이들은 상식 추론과 같은 고차원적인 능력에는 감각 운동 기술이 필수적이며, 추상적인 기호 추론만으로는 이러한 능력을 효과적으로 구현할 수 없다고 보았다. 따라서 AI는 기호 표현을 사용하지 않고도 지각, 이동성, 조작, 생존 문제를 해결해야 한다고 주장했다. 이러한 관점을 가진 로봇 공학 연구자들은 지능을 "상향식"으로 구축해야 한다고 강조했다.[148]

이러한 아이디어의 선구자로는 1970년대 후반 MIT에서 시각 연구 그룹을 이끌었던 데이비드 마가 있었다. 그는 AI가 기호적 처리에 앞서 시각의 물리적 메커니즘을 하향식으로 이해해야 한다고 주장하며, 매카시의 논리나 민스키의 프레임과 같은 모든 기호적 접근 방식을 거부했다.

로봇 공학자인 로드니 브룩스는 1990년 논문 "코끼리는 체스를 두지 않는다"에서 물리 기호 시스템 가설을 직접적으로 비판하며, "세상은 그 자체로 최고의 모델이다. 세상은 항상 최신 상태이며, 알아야 할 모든 세부 사항을 항상 가지고 있다. 요령은 그것을 적절하고 충분히 자주 감지하는 것이다."라고 주장하며 기호가 항상 필요한 것은 아니라고 강조했다.

1980년대와 1990년대에 많은 인지 과학자들은 마음의 기호 처리 모델을 거부하고, 추론에 신체가 필수적이라고 주장했는데, 이를 "구현된 마음 명제"라고 부른다.[49]

3. 7. 소프트 컴퓨팅과 확률적 추론

소프트 컴퓨팅은 불완전하고 부정확한 정보를 다루는 방법을 사용한다. 정확하고 논리적인 답변 대신 "아마도" 정확한 결과를 제공하여, 기존의 기호적 방법으로는 해결하기 어려웠던 문제들을 해결할 수 있게 되었다.[159] 언론에서는 이러한 도구들이 "인간처럼 생각할 수 있다"고 보도하기도 했다.

주데아 펄의 1988년 저서 ''지능형 시스템에서의 확률적 추론: 그럴듯한 추론의 네트워크''는 확률과 의사 결정 이론을 AI에 도입하는 데 큰 영향을 미쳤다.[159] 1960년대 로프티 자데가 개발한 퍼지 논리는 AI와 로봇 공학 분야에서 널리 사용되기 시작했다. 진화 연산인공 신경망 역시 부정확한 정보를 처리하며 "소프트"한 방법으로 분류된다.

1990년대와 2000년대 초반에는 베이즈 네트워크,[159] 은닉 마르코프 모델,[159] 정보 이론, 확률적 모델링 등 다양한 소프트 컴퓨팅 도구들이 개발되어 활용되었다. 이러한 도구들은 최적화와 같은 고급 수학 기술을 기반으로 한다. 이 시기 동안 이러한 소프트 도구들은 "계산 지능"이라는 AI의 하위 분야에서 연구되었다.

AI 연구자들은 과거보다 훨씬 정교한 수학적 도구들을 개발하고 사용하기 시작했다.[159] AI 연구에서 다루어야 했던 많은 문제들은 이미 수학, 경제학, 운영 과학 등 다른 분야에서 연구되어 왔다. 공통된 수학적 언어를 사용함으로써, AI는 더 확립된 분야들과 협력하여 측정 가능하고 검증 가능한 성과를 낼 수 있게 되었고, 더욱 엄격한 "과학적" 분야로 발전하게 되었다. 러셀과 노빅은 이를 "혁명"이자 "정교함(neat)의 승리"라고 평가했다.[160][161]

3. 8. 강화 학습

강화 학습은 에이전트가 올바른 행동을 하면 보상을 받고, 잘못된 행동을 하면 부정적인 보상(또는 "처벌")을 받는 학습 방식이다. 이는 20세기 초 에드워드 손다이크, 이반 파블로프, B.F. 스키너와 같은 심리학자들이 연구한 동물 모델에서 비롯되었다. 1950년대에는 앨런 튜링과 아서 새뮤얼이 인공지능 분야에서 강화 학습의 가능성을 제시했다.[1]

1972년부터 리처드 서튼과 앤드루 바토는 강화 학습과 의사 결정 연구에 큰 영향을 미친 연구 프로그램을 이끌었다.[2] 1988년, 서튼은 의사 결정 이론 (특히 마르코프 의사 결정 과정)을 통해 기계 학습을 설명하여 이 분야에 탄탄한 이론적 기반을 제공했다.[3]

같은 해, 서튼과 바토는 "시간차" (TD) 학습 알고리즘을 개발했다. 이 알고리즘은 에이전트가 *미래 예측*을 개선할 때만 보상을 받아 이전 알고리즘보다 훨씬 뛰어난 성능을 보였다.[4] 1992년, 제럴드 테사우로는 TD 학습을 활용한 TD-Gammon 프로그램을 개발했는데, 이 프로그램은 최고 수준의 인간 플레이어와 대등하게 백개먼 게임을 할 수 있었다. 이 프로그램은 사전 지식 없이 스스로 게임을 학습했다.[5] 1997년, 신경과학자들은 뇌의 도파민 보상 시스템이 TD 학습 알고리즘과 유사한 방식으로 작동한다는 사실을 발견했다.[6] TD 학습은 21세기 알파고알파제로에도 사용되어 큰 영향을 미쳤다.[7]

4. 두 번째 AI 겨울 (1987-1993)

1980년대 기업계의 인공지능에 대한 관심은 경제 거품의 전형적인 패턴으로 부침을 겪었다. 여러 기업들이 실패하면서, 이 기술은 실현 불가능하다는 인식이 기업계에 팽배해졌다.[49] 이러한 인공지능의 명성에 대한 손상은 21세기까지 이어졌다. 학계에서는 1960년대에 전 세계의 상상력을 사로잡았던 인간 수준의 지능에 대한 꿈을 인공지능이 이루지 못한 이유에 대해 의견 일치가 거의 없었다. 이러한 요인들이 복합적으로 작용하여 인공지능은 특정 문제나 접근 방식에 초점을 맞춘 경쟁적인 하위 분야로 분열되었고, 때로는 "인공지능"이라는 오명을 피하기 위해 새로운 이름으로 불리기도 했다.[49]

AI 겨울이라는 용어는 1974년 자금 삭감에서 살아남은 연구자들이 만든 것으로, 전문가 시스템에 대한 열정이 통제를 벗어나 실망이 뒤따를 것이라고 우려했다.[50] 그들의 우려는 현실이 되었다. 1980년대 후반과 1990년대 초반에 AI는 일련의 재정적 어려움을 겪었다.[51]

변화의 첫 징후는 1987년 특수 AI 하드웨어 시장의 갑작스러운 붕괴였다. 애플(Apple Inc.)과 IBM의 데스크톱 컴퓨터는 꾸준히 성능이 향상되어, 1987년에는 심볼릭스 등에서 만든 더 비싼 Lisp 머신보다 더 강력해졌다. 더 이상 Lisp 머신을 구매할 이유가 없었고, 5억달러 규모의 산업 전체가 하룻밤 사이에 무너졌다.[49]

결국 XCON과 같은 초기 성공적인 전문가 시스템은 유지 비용이 너무 많이 드는 것으로 드러났다. 업데이트가 어렵고, 학습할 수 없으며, "취약"하여 특이한 입력을 받으면 끔찍한 실수를 할 수 있었다. 전문가 시스템은 유용했지만, 몇 가지 특수한 맥락에서만 유용했다.[50]

1980년대 후반, 전략 컴퓨팅 이니셔티브는 AI에 대한 자금 지원을 대폭 삭감했다. DARPA의 새로운 지도부는 AI가 "다음 물결"이 아니라고 결정했고, 즉각적인 결과를 낼 가능성이 더 높은 프로젝트에 자금을 투입했다.[50]

1991년까지 일본의 5세대 프로젝트를 위해 1981년에 작성된 인상적인 목표 목록은 달성되지 않았다. 실제로 "자유로운 대화를 나누는 것"과 같은 일부 목표는 40년이 더 지나서야 달성되었다.[51] 다른 AI 프로젝트와 마찬가지로 기대치가 실제 가능한 것보다 훨씬 높았다.[51]

5. 1993년 이후

1990년대에 AI 연구자들이 개발한 알고리즘은 더 큰 시스템의 일부로 활용되기 시작했다. AI는 데이터 마이닝, 산업용 로봇, 물류, 음성 인식, 은행 소프트웨어, 의료 진단, 구글 검색 엔진 등 기술 산업 전반에 걸쳐 어려운 문제들을 해결하며 유용성을 입증했다.[52]

하지만 1990년대와 2000년대 초, AI 분야는 이러한 성공에도 불구하고 제대로 인정받지 못했다. 많은 AI 혁신 기술들은 컴퓨터 과학의 도구로 여겨졌고,[52] 닉 보스트롬은 "충분히 유용하고 일반화되면 더 이상 AI로 분류되지 않는다"고 설명했다.[167]

당시 많은 AI 연구자들은 자신들의 연구를 정보학, 지식 기반 시스템, "인지 시스템", 계산 지능 등 다른 이름으로 불렀다. 이는 AI와 차별성을 두려는 의도도 있었지만, 자금 조달에 유리한 측면도 있었다.[168] AI 겨울의 실패는 2000년대까지 AI 연구에 영향을 미쳤고, 2005년 ''뉴욕 타임스''는 "컴퓨터 과학자와 소프트웨어 엔지니어들이 지나치게 몽상가로 여겨질 것을 두려워하여 인공 지능이라는 용어를 피했다"고 보도했다.[168]

AI는 반세기 이상의 역사를 거치며 초기 목표를 달성했고, 산업계 여러 분야에서 사용되기 시작했다. 성공 요인 중 하나는 컴퓨터 성능 향상이지만, 특정 문제에 집중한 결과이기도 하다. 그러나 1960년대 인간 수준의 지능을 실현하겠다는 꿈이 실패한 이유에 대해 연구자들 사이에서도 의견이 일치하지 않았고, 컴퓨터 성능 부족이 큰 장벽이었다. AI 연구는 특정 애플리케이션에 특화됨으로써 성공을 거두었다.[150]

1980년대에는 퍼지 이론의 "퍼지"와 신경망의 "뉴로"라는 단어가 유행하여 백색 가전 제품에도 탑재되었다. 1990년대에는 뉴로 퍼지가 다양한 제품에 탑재되었지만, 2000년경에는 대부분 제품에서 명기되지 않게 되었다.

5. 1. 수학적 엄격성, 협업 강화, 좁은 초점

인공지능 연구자들은 과거 어느 때보다 정교한 수학적 도구를 개발하고 사용하기 시작했다.[150] 인공지능의 새로운 방향 대부분은 인공 신경망, 확률적 추론, 소프트 컴퓨팅, 강화 학습을 포함한 수학적 모델에 크게 의존했다. 1990년대와 2000년대에는 기계 학습, 지각 및 이동성 등 다양한 분야에 고도로 수학적인 도구들이 적용되었다.

통계학, 수학, 전기 공학, 경제학, 운영 연구 등 여러 분야의 연구자들이 이미 인공지능이 해결해야 할 많은 문제들을 연구하고 있다는 인식이 확산되었다. 이러한 공유된 수학적 언어는 더 확립되고 성공적인 분야와의 협력을 강화하고, 측정 가능하고 증명 가능한 결과를 얻을 수 있게 했다. 이를 통해 인공지능은 더 엄격한 "과학적" 분야로 발전했다.[150]

1990년대 인공지능 연구가 성공을 거둔 또 다른 중요한 요인은, 연구자들이 검증 가능한 해결책을 가진 특정 문제에 집중했기 때문이다. 이러한 접근 방식은 훗날 ''좁은 인공지능''으로 불리기도 했지만, 미래에 대한 추측보다는 현재에 유용한 도구를 제공하는 데 기여했다.[150]

5. 2. 지능형 에이전트

1990년대에 지능형 에이전트라는 새로운 패러다임이 널리 받아들여졌다. 이전에는 칼 휴이트(Carl Hewitt)의 액터 모델(Actor model), 존 도일(John Doyle), 마빈 민스키(Marvin Minsky)의 ''마음의 사회(The Society of Mind)'' 등에서 지능형 에이전트에 대한 개념이 제시되기도 하였다.[1] 주디아 펄(Judea Pearl), 앨런 뉴웰(Allen Newell), 레슬리 P. 케얼블링(Leslie P. Kaelbling) 등이 의사 결정 이론과 경제학의 개념을 도입하면서, 경제학자의 합리적 에이전트 정의와 컴퓨터 과학객체 또는 모듈 정의가 결합되어 지능형 에이전트 패러다임이 완성되었다.[2]

지능형 에이전트는 환경을 인식하고 성공 가능성을 극대화하는 행동을 하는 시스템이다. 이 정의에 따르면, 특정 문제를 해결하는 간단한 프로그램, 인간, 회사와 같은 인간 조직도 "지능형 에이전트"에 포함된다. 지능형 에이전트 패러다임은 인공지능 연구를 "지능형 에이전트 연구"로 정의한다.[3] 이는 인간 지능 연구를 넘어 모든 종류의 지능을 연구한다는 점에서 이전의 인공지능 정의를 일반화한 것이다.

이 패러다임은 연구자들이 고립된 문제를 연구하고 방법론에 대해 이견을 가질 수 있게 하면서도, 그들의 연구가 일반 지능을 갖춘 에이전트 아키텍처로 결합될 수 있다는 가능성을 열어두었다.[4]

5. 3. 이정표와 무어의 법칙

1997년 5월 11일, 딥 블루가 체스 세계 챔피언 가리 카스파로프를 이겼다[151]. 2005년 DARPA 그랜드 챌린지에서 스탠퍼드 대학교의 로봇 자동차가 예행 연습 없이 사막의 약 210.82km 거리를 자율 주행하여 우승했다[152]. 2년 후 DARPA 어반 챌린지에서는 CMU 팀의 로봇 자동차가 시가지를 가정한 약 88.51km 코스(장애물, 교통 법규 준수)를 자율 주행하여 우승했다.

이러한 성공은 혁신적인 새로운 패러다임이 아닌, 꾸준한 애플리케이션 개선과 컴퓨터 성능의 획기적인 향상 덕분이었다[154]. 실제로 1951년 세계 최초의 체스 프로그램이 작동한 페란티 마크 1에 비해 딥 블루는 1000만 배의 성능을 보였다. 이 극적인 진화는 무어의 법칙에 따른 것으로, 컴퓨터의 속도와 메모리 용량은 2년마다 두 배로 증가한다고 예측한다. "컴퓨터 성능의 한계"라는 근본적인 문제는 서서히 극복되고 있다.

6. 빅 데이터, 딥 러닝, AGI (2005–2017)

21세기 초, 빅 데이터라고 불리는 방대한 양의 데이터, 무어의 법칙에 따른 더 빠르고 저렴한 컴퓨터, 그리고 발전된 머신 러닝 기술 덕분에 인공지능은 경제 전반의 다양한 문제에 성공적으로 적용되기 시작했다. 특히, 2012년경 딥 러닝의 발전은 이미지 및 비디오 처리, 텍스트 분석, 음성 인식 등 여러 분야에서 머신 러닝의 성능을 크게 향상시키는 중요한 계기가 되었다. [172] 2016년에는 AI 관련 제품, 하드웨어, 소프트웨어 시장 규모가 80억 달러를 넘어서면서, 뉴욕 타임스는 AI에 대한 관심이 "광풍" 수준에 이르렀다고 보도했다.[176]

벤 고어첼 등 일부 연구자들은 AI 연구가 본래 목표였던 다재다능하고 완전한 지능을 가진 기계를 만드는 것에서 벗어나, 특정 분야에만 치중하고 있다고 우려하며 인공 일반 지능(AGI)에 대한 연구를 강조했다. 2010년대 중반, OpenAI와 구글의 딥마인드 등 여러 회사와 기관들이 AGI 개발을 목표로 설립되었다. 동시에, 초지능에 대한 새로운 연구들은 AI가 인류에게 실존적 위협이 될 수 있다는 우려를 낳았다. 2016년 이후, AI 기술의 위험과 예상치 못한 결과는 학계의 주요 연구 주제가 되었다.

2006년에는 제프리 힌튼이 오토인코더를 활용한 딥러닝을 발명하여, 인공지능 분야에 큰 돌파구를 마련했다. 이 기술은 사람의 개입 없이 특징을 추출할 수 있게 해, 커넥셔니즘을 부활시키고 기호 접지 문제를 해결하는 데 기여했다. 2010년에는 인터넷 데이터 전송량 증가와 함께 빅데이터라는 용어가 등장했다. 2010년대에는 자동차와 항공기의 자동 운전 기술 연구가 활발해졌고, 군사적 활용에 대한 논의도 시작되었다. 2016년, 미국 신시내티 대학교 연구팀이 개발한 전투기 조종 AI 프로그램 "ALPHA"는 모의 공중전에서 전직 미군 조종사를 압도적으로 이겼다.[170][171]

2012년 ILSVRC에서 제프리 힌턴 연구팀의 딥 러닝 모델 Alex-net이 획기적인 성과를 거두면서, 제3차 인공지능 붐이 시작되었다. 레이 커즈와일2005년에 제시한 기술적 특이점 개념도 다시 주목받게 되었다. 2013년 국립정보학연구소[172]와 후지쯔 연구소 연구팀은 인공지능 "토로보군"으로 도쿄 대학 입시 모의 시험에 도전했지만, 2016년 도쿄대 합격은 포기한다고 발표했다.[173] 2014년 약한 AI "Eugene"이 튜링 테스트를 통과했지만, 설정상의 문제로 논란이 있었다.[174] 같은 해, 사이토 모토아키는 특이점에 앞서 자동화와 컴퓨터 기술 발전으로 의식주 생산 비용이 0에 가까워진다는 프레-싱귤래리티 개념을 제시했다. 제프 호킨스는 자기 연상 기억 이론을 바탕으로 인공 지능 연구를 진행했고, 로드니 브룩스는 포괄 아키텍처 이론을 통해 행동 기반 로봇 시스템을 제안했다.

6. 1. 빅 데이터와 빅 머신

2000년대 기계 학습의 성공은 방대한 양의 훈련 데이터와 더 빠른 컴퓨터의 가용성에 크게 의존했다. 러셀과 노빅은 "데이터 세트의 크기를 두세 자릿수만큼 늘려 얻는 성능 향상이 알고리즘을 조정하여 얻을 수 있는 모든 향상보다 크다"고 평가했다. 제프리 힌튼은 90년대에는 "우리의 레이블이 지정된 데이터 세트가 수천 배나 작았고, 우리 컴퓨터는 수백만 배나 느렸습니다."라고 회상했다.[53] 그러나 2010년에는 상황이 크게 달라졌다.

2000년대에는 기계 학습과 인공 지능을 위해 특별히 제작된, 큐레이션된 레이블이 지정된 데이터 세트가 매우 유용하게 활용되었다. 2007년, 매사추세츠 대학교 애머스트 연구진은 얼굴 인식 시스템 훈련 및 테스트에 널리 사용된 얼굴 이미지의 주석 처리된 세트인 Labeled Faces in the Wild를 공개했다. 페이페이 리는 아마존 메카니컬 터크를 활용하여 자원봉사자들이 캡션을 단 300만 개의 이미지 데이터베이스인 ImageNet을 개발했다. 2009년에 공개된 이 데이터베이스는 차세대 이미지 처리 시스템을 위한 훈련 데이터 및 벤치마크로 활용되었다. 2013년, 구글은 word2vec을 오픈 소스 리소스로 출시했다. 인터넷에서 스크랩한 대량의 텍스트 데이터와 단어 임베딩을 사용하여 각 단어를 나타내는 숫자 벡터를 만들었다. 이 벡터는 단어의 의미를 잘 포착하여, 일반적인 벡터 덧셈으로 중국 + 강 = 양쯔강, 런던 + 잉글랜드 - 프랑스 = 파리와 같은 결과를 얻을 수 있었다. 이 데이터베이스는 특히 2010년대 후반 대규모 언어 모델 개발에 필수적이었다.

인터넷의 폭발적인 성장은 기계 학습 프로그램에 데이터 스크래핑할 수 있는 수십억 페이지의 텍스트와 이미지에 대한 접근을 제공했다. 또한 특정 문제에 대한 대규모 비공개 데이터베이스에도 관련 데이터가 포함되어 있었다. 맥킨지 글로벌 연구소는 2009년까지 미국 경제의 거의 모든 부문에서 평균 200테라바이트 이상의 데이터가 저장되었다고 보고했다. 이러한 정보 수집은 2000년대에 ''빅 데이터''로 알려지게 되었다.

2011년 2월, ''Jeopardy!'' 전시 경기에서 IBM의 질의 응답 시스템 왓슨은 최고의 ''Jeopardy!'' 챔피언인 브래드 러터와 켄 제닝스를 큰 차이로 이겼다. 왓슨의 전문성은 인터넷에서 사용할 수 있는 정보 없이는 불가능했을 것이다.

6. 2. 딥 러닝

2012년, 알렉스 크리제프스키가 개발한 알렉스넷이라는 딥 러닝 모델이 ImageNet 대규모 시각 인식 챌린지에서 2위보다 훨씬 적은 오류로 우승했다.[172] 이는 머신 러닝의 전환점이었으며, 그 후 몇 년 동안 이미지 인식에 대한 수십 개의 다른 접근 방식이 딥 러닝을 선호하여 폐기되었다.[173]

딥 러닝은 다층 퍼셉트론을 사용한다. 이 아키텍처는 1960년대부터 알려져 왔지만, 이를 작동시키려면 강력한 하드웨어와 대량의 훈련 데이터가 필요했다.[174] 딥 러닝은 그 후 몇 년 동안 음성 인식, 기계 번역, 의료 진단 및 게임 플레이와 같은 수십 개의 문제에 적용되었고, 모든 경우에 성능이 엄청나게 향상되었다.[175] 그 결과 AI에 대한 투자와 관심이 급증했다.[176]

2000년에는 제한된 볼츠만 머신과 대비 다이버전스에 대한 제안이 이루어졌으며, 이는 2006년 딥러닝 발명으로 이어지는 길을 열었다. 2006년, 제프리 힌튼에 의해 오토인코더를 이용한 딥러닝이 발명되었다. 이는 사람의 손을 거치지 않고 특징량을 추출할 수 있다는 점에서 지식 표현의 필요성이 없어졌고, 인공지능 분야에서 큰 돌파구가 되었다. 이로 인해 오랫동안 암흑기를 맞이했던 커넥셔니즘이 갑작스럽게 부활하게 되었고, 인간이 지식 표현을 함으로써 발생했던 기호 접지 문제도 해결되었다.

2010년에는 인터넷을 통해 흐르는 데이터 전송량의 증가에 따라 빅데이터라는 용어가 제창되었다. 2012년, 물체 인식률을 겨루는 ILSVRC에서 GPU를 사용한 대규모 딥 러닝(제프리 힌턴이 이끄는 연구팀이 Alex-net으로 출전)이 획기적인 약진을 보였고, 같은 해 구글이 딥 러닝을 사용하여 유튜브 이미지에서 고양이를 인식하는 데 성공하면서 세계 각국에서 다시 인공 지능 연구에 주목하기 시작했다. 이러한 사회 현상은 '''제3차 인공지능 붐'''이라고 불린다.

2016년 3월, 미국 구글의 자회사 딥마인드가 개발한 바둑 대국용 인공지능 "알파고(AlphaGo)"가 인간 프로 바둑 기사에게 승리했다.

6. 3. 정렬 문제

2000년대에 들어서면서 인공지능의 미래에 대한 논의가 다시 활발해졌고, 여러 대중 서적에서 초지능 기계의 가능성과 그것이 인류 사회에 미칠 영향에 대해 다루었다. 닉 보스트롬과 엘리에제르 유드코프스키처럼 충분히 강력한 인공지능이 인류에게 실존적 위협이 될 수 있다고 경고하는 사람들도 있었다. 스튜어트 J. 러셀은 지능형 로봇이 플러그를 뽑히는 것을 막기 위해 주인을 죽이는 사례를 들면서 "죽으면 커피를 가져올 수 없다"고 설명했다. 해결책은 기계의 목표 함수를 소유자 및 인류 전체의 목표와 *정렬*하는 것이다. 따라서 인공지능의 위험과 의도하지 않은 결과를 완화하는 문제는 "가치 정렬 문제" 또는 AI 정렬로 알려지게 되었다.

동시에, 기계 학습 시스템은 충격적인 의도하지 않은 결과를 초래하기 시작했다. 캐시 오닐은 통계 알고리즘이 2008년 경제 위기의 원인 중 하나였다고 설명했고, ProPublica의 줄리아 앤그윈은 형사 사법 시스템에서 사용되는 COMPAS 시스템이 일부 지표에서 인종적 편견을 보였다고 주장했다. 다른 사람들은 많은 기계 학습 시스템이 어떤 형태의 인종적 편향을 보인다고 밝혔다.

2016년 도널드 트럼프의 선거와 COMPAS 시스템에 대한 논란은 허위 정보, 참여를 극대화하도록 설계된 소셜 미디어 알고리즘, 개인 데이터의 오용, 예측 모델의 신뢰성 등 현재 기술 인프라의 여러 문제를 드러냈다. 공정성 문제와 의도하지 않은 결과는 인공지능 컨퍼런스에서 훨씬 더 인기를 얻게 되었고, 간행물이 대폭 증가했으며, 자금이 확보되었고, 많은 연구자들이 이러한 문제에 대한 경력의 초점을 재조정했다. 가치 정렬 문제는 심각한 학문 연구 분야가 되었다.

6. 4. 인공 일반 지능 연구

2000년대 초, 몇몇 연구자들은 주류 인공지능이 "특정 응용 분야의 측정 가능한 성능" (이것은 "좁은 인공지능"으로 알려져 있다)에 너무 집중하고 다재다능하고 완전한 지능형 기계를 만들겠다는 인공지능의 원래 목표를 포기했다고 우려했다. 초기 비판자 중 한 명은 1995년 닐스 닐슨이었고, 2007년부터 2009년까지 존 매카시, 마빈 민스키, 패트릭 윈스턴 등 인공지능 원로들이 비슷한 의견을 발표했다. 민스키는 2004년 "인간 수준의 인공지능"에 대한 심포지엄을 조직했다. 벤 고어첼은 새로운 하위 분야에 "인공 일반 지능"이라는 용어를 채택하여 2008년부터 저널을 창간하고 컨퍼런스를 개최했다.

2010년대에는 인공 일반 지능을 개발하기 위해 여러 경쟁 회사, 연구소 및 재단이 설립되었다. 2010년 데미스 하사비스, 셰인 레그, 무스타파 슐레이만 등 세 명의 영국 과학자들이 피터 틸일론 머스크의 자금 지원을 받아 딥마인드를 설립했다. 하사비스는 인공 일반 지능의 위험에 대해 걱정하면서도 그 힘에 대해 낙관적이었으며, "인공지능 문제를 해결한 다음, 다른 모든 문제를 해결"할 수 있기를 바랐다.

2012년, (80년대부터 신경망 연구를 이끌어 온) 제프리 힌턴바이두로부터 그와 그의 모든 제자를 엄청난 금액으로 고용하겠다는 제안을 받았다. 힌턴은 경매를 열기로 결정했고, 레이크 타호 인공지능 컨퍼런스에서 4400만달러구글에 합류했다. 하사비스는 이를 주목하고 2014년에 딥마인드를 구글에 매각했는데, 군사 계약을 체결하지 않고 윤리 위원회의 감독을 받는다는 조건이었다.

머스크와 하사비스와 달리 구글의 래리 페이지는 인공지능의 미래에 대해 낙관적이었다. 2015년 머스크의 생일 파티에서 머스크와 페이지는 인공 일반 지능의 위험에 대한 논쟁을 벌였다. 그들은 수십 년 동안 친구였지만, 그 직후부터 서로 연락을 끊었다. 머스크는 딥마인드의 윤리 위원회에 단 한 번 참석했는데, 구글이 인공 일반 지능의 해악을 완화하는 데 관심이 없다는 것이 분명해졌다. 자신의 영향력 부족에 좌절한 그는 2015년에 샘 알트먼을 운영자로 영입하고 최고의 과학자들을 고용하여 오픈AI를 설립했다. 머스크는 2018년에 다시 좌절감을 느껴 회사를 떠났다. 오픈AI는 지속적인 재정 지원을 위해 마이크로소프트에 의존했고, 알트먼과 오픈AI는 10억 달러 이상의 자금을 지원받아 회사의 영리 버전을 설립했다.

2021년, 다리오 아모데이와 다른 14명의 과학자들은 회사가 안전보다 이윤을 우선시한다는 우려로 오픈AI를 떠났다. 그들은 앤트로픽을 설립했고, 곧 마이크로소프트구글로부터 60억달러의 자금을 지원받았다.

7. 대규모 언어 모델, AI 붐 (2020–현재)

AI 붐은 2017년 트랜스포머 아키텍처와 같은 핵심 아키텍처 및 알고리즘의 초기 개발로 시작되었으며, 지식, 주의력, 창의력과 같은 인간과 유사한 특성을 보이는 대규모 언어 모델의 확장 및 개발로 이어졌다. 새로운 AI 시대는 ChatGPT와 같은 확장된 대규모 언어 모델(LLM)의 공개 출시와 함께 2020-2023년경에 시작되었다.[54]

2010년대 후반에는 심층 학습의 실용화 성공으로 AI 관련 기사가 신문에 매일 나올 정도로 AI 붐이 다시 일어났고, 기업들도 인공 지능이라는 단어를 적극적으로 사용하고 있다. 최종적으로 인간이 만들어낸 지성이 우주를 채우고 정보 처리가 물리 법칙까지 지배한다는 특이점 가설이나 노동이 필요 없는 "미즈호의 나라"가 출현한다는 프리 특이점 가설이 일정 지지를 얻는 등 AI에 대한 기대가 높아졌다. 한편 AI에 의한 디스토피아 논의나, 현재 AI에 대한 기대에 기술이 따라가지 못하는 AI 버블이라는 비판도 있었다.

2018년 8월 31일, 유가 상승으로 큰 부담을 안고 있던 JALNEC에 개발을 의뢰하여 새롭게 AI 지원을 받는 여객 시스템을 도입하고, 약 50년 동안 이어온 인간의 경험에 기반한 여객 시스템 운영을 중단함으로써, 빈 좌석을 거의 0으로 줄이는 데 성공하여, 대폭적인 이익률 향상을 이룬 사례가 보고되었다.[187]

7. 1. 트랜스포머 아키텍처와 대규모 언어 모델

2017년, 구글 연구원들은 어텐션 메커니즘을 활용하는 변환기 아키텍처를 제안했다. 이는 거대 언어 모델에서 널리 사용되게 되었다.[54]

변환기 기반의 거대 언어 모델은 인공 일반 지능(AGI) 회사들에 의해 개발되었다. OpenAI는 2020년에 GPT-3를 출시했고, DeepMind는 2022년에 Gato를 출시했다. 이 모델들은 방대한 양의 데이터로 훈련되어 다양한 작업에 적용할 수 있는 기초 모델이다.

이 모델들은 다양한 주제에 대해 논의하고 일반적인 지식을 보여줄 수 있다. 2023년, 마이크로소프트 연구소는 이러한 모델들을 테스트한 결과, "인공 일반 지능 (AGI) 시스템의 초기(하지만 아직 불완전한) 버전으로 합리적으로 간주될 수 있다"고 결론 내렸다.[54]

7. 2. 신경 기호 인공지능

딥마인드는 딥 러닝을 기호적 기술과 결합하여 사용하기 때문에 자신들의 접근 방식을 "신경 기호"라고 설명한다. 예를 들어, 알파제로는 딥 러닝을 사용하여 위치의 강점을 평가하고 정책 (행동 방침)을 제안하지만, 새로운 위치를 예측하기 위해 몬테카를로 트리 탐색을 사용한다.

7. 3. AI 붐

2024년, 스웨덴 왕립 과학 아카데미는 인공지능 분야의 획기적인 공헌을 인정하여 노벨상 수상자를 발표했다. 수상자는 다음과 같다.

분야수상자업적비고
물리학존 호프필드물리 기반 호프필드 네트워크 연구
물리학제프리 힌튼볼츠만 머신과 딥 러닝의 기반 구축
화학데이비드 베이커, 데미스 하사비스, 존 점퍼단백질 접힘 예측 분야 발전알파폴드 참고


참조

[1] 서적 Bibliotheke
[2] 인용
[3] 간행물 17th century mechanism and AI
[4] 간행물 Hobbes and AI
[5] 간행물 Leibniz and AI
[6] 간행물 The [[Turing machine]]
[7] 간행물
[8] 간행물
[9] 인용
[10] 간행물 AI's immediate predecessors
[11] 정보
[12] 간행물 "[[Turing Test]], [[Computing Machinery and Intelligence]]"
[13] 간행물 Pitts & McCullough
[14] 간행물 "[[Stochastic Neural Analog Reinforcement Calculator|SNARC]]"
[15] 간행물 "[[Turtle (robot)|Turtle]]s and [[Johns Hopkins Beast]]"
[16] 간행물 "[[Logic Theorist]]"
[17] 인용
[18] 간행물 "[[Dartmouth workshop]]"
[19] 간행물
[20] 간행물
[21] 간행물 "[[State space search]] and problem solving"
[22] 간행물 "[[Stanford Research Institute Problem Solver|STRIPS]] and [[Shakey the Robot|Shakey]]"
[23] 간행물
[24] 간행물 "[[Blocks world]]"
[25] 간행물 "[[Perceptron]]s in the 60s"
[26] 인용
[27] 인용
[28] 인용
[29] 인용
[30] 간행물
[31] 간행물 Commonsense knowledge
[32] 인용
[33] 간행물 "[[ALPAC]]"
[34] 간행물 "[[Lighthill report]]"
[35] 간행물 Lucas and Penrose' critique of AI
[36] 논문 Dreyfus' critique of artificial intelligence
[37] 논문 Searle's critique of AI
[38] 논문
[39] 논문
[40] 논문 Weizenbaum's critique of AI
[41] 논문 Neats vs. scruffies
[42] 논문 Frame (artificial intelligence)
[43] 논문 Expert system
[44] 논문 Commercial expert systems
[45] 논문 Fifth generation computer
[46] 논문 Knowledge revolution
[47] 논문 Cyc and ontological engineering
[48] 논문
[49] 논문 Lisp machine crisis
[50] 논문 Expert systems failure (and the reason for it)
[51] 논문 End of the Fifth generation computer initiative
[52] 논문 AI effect, AI behind the scenes in the 90s & 2000s
[53] 논문
[54] 논문 AI boom
[55] 웹사이트 Jeremy Grantham Warns Investors to 'Be Quite Careful' as Big Risks Loom https://www.thinkadv[...] 2024-02-01
[56] 웹사이트 Elite investor Jeffrey Gundlach compares the AI boom in stocks to the dot-com bubble — and warns of economic pain https://www.business[...] 2024-03-23
[57] 기타 例えば Kurzweil では、2029年までに人間並みの知性を持つマシンが出現すると主張している。
[58] 논문
[59] 논문
[60] 논문 神聖な彫像について論じている。
[61] 기타 他の重要なオートマタ
[62] 기타 Cfr. Carreras Artau, Tomás y Joaquín. Historia de la filosofía española. Filosofía cristiana de los siglos XIII al XV. Madrid, 1939, Volume I
[63] 서적 The Art and Logic of Ramón Llull: A User's Guide Brill 2007
[64] 서적 Doctor Illuminatus. A Ramon Llull Reader Princeton University 1985
[65] 논문 17世紀の哲学者とAI
[66] 논문 ホッブズとAI
[67] 논문 ライプニッツとAI
[68] 기타 ラムダ計算
[69] 논문 チューリングマシン
[70] 논문
[71] 서적 各節の開始年と終了年は、Crevier (1993) と Russell & Norvig (2003, p=16−27) による。テーマ、トレンド、プロジェクトについては、最も重要な仕事がされた時期に対応した節で扱っている。
[72] 서적 McCorduck (2004, pp=51–57, 80–107); Crevier (1993, pp=27–32); Russell & Norvig (2003, pp=15, 940); Moravec (1988, p=3); Cordeschi (2002, Chap. 5)
[73] 서적 McCorduck (2004, p=98); Crevier (1993, pp=27−28); Russell & Norvig (2003, pp=15, 940); Moravec (1988, p=3); Cordeschi (2002, Chap. 5)
[74] 서적 McCorduck (2004, pp=51–57, 88–94); Crevier (1993, p=30); Russell & Norvig (2003, p=15−16); Cordeschi (2002, Chap. 5); McCullough & Pitts (1943)
[75] 서적 McCorduck (2004, p=102); Crevier (1993, pp=34−35); Russell & Norvig (2003, p=17)
[76] 웹사이트 A Brief History of Computing http://www.alanturin[...]
[77] 서적 One Jump Ahead:: Challenging Human Supremacy in Checkers Springer 1997
[78] 서적 McCorduck (2004, pp=70−72); Crevier (1993, p=22−25); Russell & Norvig (2003, pp=2−3 and 948); Haugeland (1985, pp=6−9); Cordeschi (2002, pp=170–176); Turing (1950)
[79] 서적 Norvig & Russell (2003, p=948) では、チューリングが論文が発表されて以来数年間のAIに対する全ての主な反論に答えたと主張している。
[80] 서적 McCorduck (2004, pp=137–170); Crevier (1993, pp=44–47)
[81] 서적 McCorduck (2004, pp=123–125); Crevier (1993, pp=44−46); Russell & Norvig (2003, p=17)
[82] 서적 Crevier (1993, p=46) と Russell & Norvig (2003, p=17)での引用
[83] 서적 McCorduck (2004, pp=111–136); Crevier (1993, pp=49–51); Russell & Norvig (2003, p=17)
[84] 서적 Crevier (1993, p=48) でCrevierは「(この提案書が)後に "physical symbol systems hypothesis"(物理記号システム仮説)と呼ばれるようになった」と記している。仮説はニューウェルとサイモンがGPSについての論文(Newell & Simon, 1963)で明確化し名付けたものである。その中では「機械」をより具体的に記号を操作するエージェントと定義している。
[85] 서적 McCorduck (2004, pp=129–130) では、ダートマス会議参加者が最初の20年間のAI研究で重要な役割を果たしたことを論じ、彼らを "invisible college" と呼んでいる。
[86] 서적 「誓うことはできないが、私はそれまでその言葉を見たことがなかった」とマッカーシーは1979年、パメラ・マコーダックに語った(McCorduck, 2004, p=114)。一方CNETのインタビューでは率直に「私がその用語を考案した」と述べている(Skillings, 2006)。
[87] 서적 Crevier (1993, pp=49) で「この会議が一般的にこの新たな科学領域の公式な誕生日と認められている」と記している。
[88] 서적 Russell と Norvig は「コンピュータがずば抜けて賢いことをしたときはいつでも驚異的だった」と記している。(Russell & Norvig, 2003, p=18)
[89] 서적 McCorduck (2004, pp=52−107); Moravec (1988, p=9); Russell & Norvig (2003, p=18−21)
[90] 서적 McCorduck (2004, p=218); Crevier (1993, pp=108−109); Russell & Norvig (2003, p=21)
[91] 서적 McCorduck (2004, pp=52−107); Moravec (1988, p=9)
[92] 서적 McCorduck (2004, pp=247–248); Russell & Norvig (2003, pp=59−61)
[93] 서적 McCorduck (2004, p=246); Russell & Norvig (2003, pp=21−22)
[94] 서적 McCorduck (2004, pp=245–250); Crevier (1993, p=GPS?); Russell & Norvig (2003, p=GPS?)
[95] 서적 Crevier (1993, pp=51−58,65−66); Russell & Norvig (2003, pp=18−19)
[96] 서적 McCorduck (2004, pp=268–271); Crevier (1993, pp=95−96); Moravec (1988, pp=14−15)
[97] 서적 McCorduck (2004, p=286); Crevier (1993, pp=76−79); Russell & Norvig (2003, p=19)
[98] 서적 McCorduck (2004, pp=291–296); Crevier (1993, pp=134−139)
[99] 서적 McCorduck (2004, pp=299–305); Crevier (1993, pp=83−102); Russell & Norvig (2003, p=19); Copeland (2000)
[100] 서적 McCorduck (2004, pp=300–305); Crevier (1993, pp=84−102); Russell & Norvig (2003, p=19)
[101] 서적 Simon & Newell (1958, p=7−8)(Crevier, 1993, p=108にて引用)
[102] 서적 Simon (1965, p=96)(Crevier, 1993, p=109にて引用)
[103] 서적 Minsky (1967, p=2)(Crevier, 1993, p=109にて引用)
[104] 서적 ミンスキーはこれが誤った引用だと強く主張している。詳しくは McCorduck (2004, pp=272–274); Crevier (1993, p=96); Darrach (1970) を参照
[105] 서적 McCorduck (2004, p=131); Crevier (1993, p=51). McCorduck はまた、1956年のダートマス会議参加者の指示で資金提供が行われたと指摘している。
[106] 서적
[107] 서적
[108] 서적
[109] 서적
[110] 간행물 ROBOT: Mere Machine to Transcendent Mind
[111] 서적
[112] 서적
[113] 서적
[114] 서적
[115] 서적
[116] 서적
[117] 서적
[118] 서적
[119] 서적
[120] 서적
[121] 서적
[122] 서적
[123] 서적
[124] 서적
[125] 서적
[126] 서적
[127] 서적
[128] 서적
[129] 서적
[130] 서적
[131] 논문
[132] 뉴스
[133] 서적
[134] 서적
[135] 서적
[136] 서적
[137] 서적
[138] 서적
[139] 서적
[140] 서적
[141] 서적
[142] 서적
[143] 서적
[144] 서적
[145] 서적
[146] 서적
[147] 서적
[148] 서적
[149] 서적
[150] 서적
[151] 웹사이트 DARPA Grand Challenge -- home page http://www.darpagran[...]
[152] 웹사이트 DARPA Urban Challenge http://archive.darpa[...] 2023-01-07
[153] 뉴스 On ‘Jeopardy!' Watson Win Is All but Trivial https://www.nytimes.[...] 2011-02-16
[154] 서적
[155] 문서 Ferranti Mark 1
[156] 서적
[157] 서적
[158] 서적
[159] 서적
[160] 서적
[161] 서적
[162] 서적
[163] 서적
[164] 뉴스
[165] 서적
[166] 서적
[167] 뉴스
[168] 서적
[169] 서적
[170] 웹사이트 Raspberry PiによるAIプログラム、軍用フライトシミュレーターを使った模擬格闘戦で人間のパイロットに勝利 http://business.news[...] Business newsline 2016-09-19
[171] 웹사이트 〝トップ・ガン〟がAIに惨敗 摸擬空戦で一方的に撃墜 「子供用パソコンがハード」に二重のショック https://www.sankei.c[...] 産経WEST 2016-09-19
[172] 문서 新井紀子
[173] 웹사이트 https://web.archive.[...]
[174] 웹사이트 http://wired.jp/2014[...]
[175] 웹사이트 https://ascii.jp/ele[...]
[176] 웹사이트 https://atmarkit.itm[...]
[177] 웹사이트 https://www.technolo[...]
[178] 웹사이트 http://japan.zdnet.c[...]
[179] 웹사이트 http://wired.jp/2016[...]
[180] 웹사이트 http://jp.techcrunch[...]
[181] 웹사이트 https://gigazine.net[...]
[182] 웹사이트 https://gigazine.net[...]
[183] 웹사이트 https://gigazine.net[...]
[184] 웹사이트 https://www.nikkan.c[...]
[185] 웹사이트 https://www.nikkei.c[...]
[186] 웹사이트 人工知能を使えば、「自殺」を8割以上の確率で予測できる:研究結果 https://wired.jp/201[...] WIRED.jp 2017-11-14
[187] 뉴스 JAL、想定超すAI効果 新システムで一転増益も https://www.nikkei.c[...] 2018-08-31
[188] 웹사이트 https://www.cnn.co.j[...]
[189] 웹사이트 "生成系AIの研究をやみくもに停止すべきではない」電子情報通信学会が声明 - PC Watch" https://pc.watch.imp[...]
[190] 웹사이트 "「GPT-4」登場。多くの試験を「人間レベル」で合格、画像認識も - PC Watch" https://pc.watch.imp[...]
[191] 웹사이트 "人工知能が日本の司法試験に挑戦! ChatGPT有料版の正答率は何%?GPT-4による追試結果も | クラウドサイン" https://www.cloudsig[...]
[192] 웹사이트 "OpenAIがGPT-4を発表…精度が向上、米司法試験で上位10%に | Business Insider Japan" https://www.business[...]
[193] 저널 Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence
[194] 서적
[195] 서적



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com