맨위로가기

자연어 이해

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

자연어 이해(NLU)는 컴퓨터가 인간의 언어를 이해하고 처리하는 기술로, 1960년대부터 연구가 시작되었다. 초기에는 ELIZA와 SHRDLU와 같은 프로그램이 개발되었고, 개념적 의존 이론, 확장 전이망(ATN) 등 다양한 접근 방식이 시도되었다. 1970년대와 1980년대를 거쳐, 2000년대 이후에는 IBM의 왓슨과 딥 러닝 기반의 언어 모델이 등장하며 발전했다. NLU 시스템은 어휘 사전, 구문 분석기, 의미 분석기, 추론, 문맥 관리 등의 구성 요소를 가지며, 정보 검색, 텍스트 마이닝, 기계 번역, 챗봇 등 다양한 분야에 활용된다.

더 읽어볼만한 페이지

  • 자연어 처리 - 정보 추출
    정보 추출은 비정형 또는 반구조화된 텍스트에서 구조화된 정보를 자동으로 추출하는 기술로, 자연어 처리 기술을 활용하여 개체명 인식, 관계 추출 등의 작업을 수행하며 웹의 방대한 데이터에서 유용한 정보를 얻는 데 사용된다.
  • 자연어 처리 - 단어 의미 중의성 해소
    단어 의미 중의성 해소(WSD)는 문맥 내 단어의 의미를 파악하는 계산 언어학 과제로, 다양한 접근 방식과 외부 지식 소스를 활용하여 연구되고 있으며, 다국어 및 교차 언어 WSD 등으로 발전하며 국제 경연 대회를 통해 평가된다.
  • 인공지능 - 구글
    구글은 래리 페이지와 세르게이 브린이 개발한 웹 검색 엔진에서 출발하여 검색 기술 혁신을 통해 유튜브, 안드로이드 등 다양한 서비스를 제공하는 세계적인 기술 기업으로 성장했지만, 개인정보보호 및 독점 논란에도 직면하고 있다.
  • 인공지능 - 친절한 인공지능
    친절한 인공지능은 사용자에게 친절하고 공감적인 방식으로 상호 작용하며 긍정적이고 효과적인 사용자 경험을 제공하는 것을 목표로 하는 인공지능 기술의 한 분야이다.
자연어 이해

2. 역사

컴퓨터 과학의 초기부터 시작된 자연어 이해 연구는 여러 단계를 거치며 발전해 왔다. 초창기에는 MIT스탠퍼드 대학교 등을 중심으로 STUDENT, ELIZA, SHRDLU와 같은 선구적인 시스템들이 개발되어 제한된 환경에서 자연어 처리의 가능성을 보여주었다.[6][7][8][9][10][11][14][15]

1970년대와 1980년대에 들어서면서 개념적 의존 이론이나 확장 전이망 (ATN)과 같은 보다 체계적인 이론과 모델들이 제안되었고, SRI 인터내셔널과 같은 연구소를 중심으로 연구가 활발히 진행되었다.[12][13][17] 이 시기에는 연구 결과를 상업적으로 활용하려는 시도도 있었으나, 기술적 한계 등으로 인해 큰 성과를 거두지는 못했다.[17][18]

2000년대 이후, 기계 학습, 특히 딥 러닝 기술의 발전은 자연어 이해 분야에 큰 변화를 가져왔다. IBM의 왓슨과 같은 시스템의 등장은 이러한 변화를 상징적으로 보여주며, 대규모 데이터를 활용한 통계적 접근 방식이 주류로 자리 잡았다.[20] 최근에는 비지도 학습과 멀티태스크 학습 등 더욱 발전된 딥 러닝 모델들이 등장하여 자연어 이해 능력의 향상을 이끌고 있다.[54]

2. 1. 초기 (1960년대)

1964년 MIT의 다니엘 보브로우는 박사 학위 논문으로 STUDENT라는 프로그램을 개발했는데, 이는 컴퓨터를 이용한 초기 자연어 이해 시도 중 하나로 평가받는다.[6][7][8][9][10] 이 연구는 존 매카시가 인공 지능이라는 용어를 처음 사용한 지 8년 후에 발표되었으며, 보브로우의 논문 "컴퓨터 문제 해결 시스템을 위한 자연어 입력"은 컴퓨터가 간단한 영어로 작성된 대수 문제를 이해하고 풀 수 있다는 가능성을 보여주었다.

이듬해인 1965년, 역시 MIT의 조셉 와이젠바움은 ELIZA라는 대화형 프로그램을 만들었다. ELIZA는 사용자와 영어로 다양한 주제에 대해 대화할 수 있었는데, 특히 심리 치료사 역할을 하는 기능이 인기를 끌었다. ELIZA는 복잡한 언어 이해 능력 없이, 단순한 구문 분석과 미리 정해진 문구로 핵심 단어를 바꾸는 방식으로 작동했다. 와이젠바움은 의도적으로 프로그램에 실제 세상에 대한 지식 데이터베이스나 풍부한 어휘집을 넣지 않았다. 그럼에도 불구하고 ELIZA는 큰 인기를 얻었으며, 오늘날 Ask.com과 같은 상업적 질문 응답 시스템의 초기 형태로 여겨지기도 한다.[11]

1969년에는 스탠퍼드 대학교의 로저 섕크가 자연어 이해를 위한 개념적 의존 이론을 제안했다.[12] 이 이론은 언어학자 시드니 램의 연구에서 일부 영향을 받았으며, 이후 예일 대학교에서 섕크의 지도를 받은 로버트 윌렌스키, 웬디 레너트, 자넷 콜로드너 등 여러 연구자들에 의해 활용되었다.

2. 2. 중기 (1970년대 ~ 1980년대)

1969년 스탠퍼드 대학교의 로저 섕크는 자연어 이해를 위한 개념적 의존 이론 (Conceptual Dependency Theory)을 소개했다.[12][46] 이 모델은 예일 대학교에서 섕크의 지도를 받은 로버트 윌렌스키, 웬디 레너트, 자넷 콜로드너 등에 의해 널리 활용되었다.[12]

1970년, 윌리엄 아론 우즈는 자연어 입력을 표현하기 위해 확장 전이망 (Augmented Transition Network, ATN)을 도입했다.[13][47] ATN은 구조 규칙 대신 재귀적으로 호출되는 동등한 유한 상태 기계들의 집합을 사용했으며, ATN과 그보다 더 일반적인 형태인 "일반화된 ATN" (generalized ATN)은 이후 여러 해 동안 사용되었다.[13][47]

1971년, 테리 위노그라드는 MIT에서 박사 학위 논문으로 SHRDLU를 완성했다.[14][15][48][49] SHRDLU는 블록으로 구성된 제한된 세계에서 간단한 영어 문장을 이해하고, 이를 바탕으로 로봇 팔에게 물체를 조작하도록 지시할 수 있었다. SHRDLU의 성공적인 시연은 자연어 이해 분야의 연구에 상당한 추진력을 제공했으며,[14][15][48][49] 위노그라드는 그의 저서 ''언어, 인지 과정으로서'' (Language as a Cognitive Process)를 통해 이 분야에 주요한 영향을 미쳤다.[16][50]

1970년대와 1980년대 동안 SRI 인터내셔널의 자연어 처리 그룹은 이 분야에서 연구 개발을 지속했다.[17][51] 이 연구를 기반으로 여러 상업적 노력이 시도되었다. 예를 들어, 1982년 게리 헨드릭스는 개인용 컴퓨터의 데이터베이스에 자연어 인터페이스로 질의하는 시스템 개발을 목표로 심텍(Symantec)을 설립했다. 그러나 마우스 기반의 그래픽 사용자 인터페이스 (GUI)가 등장하면서 심텍은 사업 방향을 전환했다.[17][51] 같은 시기에 Artificial Intelligence Corporation의 래리 R. 해리스(Larry R. Harris)나 Cognitive Systems 사의 로저 섕크와 그의 제자들처럼 다른 여러 상업적 노력들도 시작되었다.[17][18][51][52] 1983년, 마이클 다이어(Michael Dyer)는 예일 대학교에서 로저 섕크와 W. G. 레너트의 연구와 유사점을 가진 BORIS 시스템을 개발했다.[19][53]

2. 3. 현대 (2000년대 이후)

2000년대에는 IBM의 왓슨과 같이 기계 학습을 사용하는 텍스트 분류 시스템이 도입되었다. 그러나 전문가들 사이에서는 이러한 시스템이 실제로 어느 정도의 '이해' 능력을 갖추었는지에 대한 논쟁이 있다. 예를 들어, 철학자 존 설은 왓슨이 질문 자체를 이해하지 못했다고 비판했다.[20]

인지 과학자 존 볼 역시 자연어 처리가 특정 서비스나 전자 상거래 분야에서 인간의 생산성을 돕는 데 진전을 이루었지만, 이는 응용 분야의 범위를 제한했기 때문에 가능했다고 평가한다. 그는 인간 언어의 복잡하고 다양한 표현 방식을 기존의 자연어 처리 기술이 따라가지 못한다고 지적한다. 비브 와게만스에 따르면, "기계와 의미 있는 대화를 하려면 3살짜리 아이가 추측 없이 하는 것처럼 문장의 다른 단어의 의미를 기반으로 모든 단어를 올바른 의미와 일치시켜야만 가능하다."[21]

2022년의 한 체계적인 검토에 따르면, 딥 러닝 기술은 자연어 이해 능력을 크게 향상시키며 거의 모든 관련 영역에 변화를 가져왔다. 특히 비지도 학습과 멀티태스크 학습 방식을 결합한 딥 러닝 언어 모델은 자연어 이해 분야의 발전을 더욱 가속화할 잠재력을 지닌 것으로 평가된다.[54]

이러한 흐름 속에서 SyntaxNet과 같은 도구들이 개발되었다. SyntaxNet은 텐서플로우를 기반으로 한 딥 러닝 자연어 이해(NLU) 툴킷으로, 구문 분석 기능도 일부 포함하고 있다.[70]

3. 구성 요소 및 구조

자연어 이해(NLU) 시스템은 로봇에게 내리는 간단한 명령부터 신문 기사나 시와 같은 복잡한 텍스트를 완전히 이해하려는 시도까지 다양한 수준의 응용 분야에 적용될 수 있다. 많은 실제 응용 프로그램은 이 두 극단 사이에 있다. 예를 들어, 기업에서 이메일을 자동으로 분석하여 적절한 부서로 분류하는 작업은 텍스트에 대한 깊은 이해를 요구하지는 않지만, 고정된 형식의 데이터베이스 쿼리보다는 훨씬 넓은 어휘와 다양한 문장 구조를 처리해야 한다.[22][55]

과거에는 웨인 래틀리프(Wayne Ratliff)가 개발한 "벌칸"(Vulcan) 프로그램처럼 영어와 유사한 구문을 사용하여 컴퓨터와 상호작용하려는 시도가 있었다. 이는 나중에 dBASE 시스템으로 발전하여 데이터베이스 사용 편의성을 높였지만,[23][24][56][57] 이는 풍부한 어휘를 사용하고 문장의 의미를 내부적으로 표현하여 추론하는 시스템과는 근본적으로 다르다.

NLU 시스템이 목표로 하는 "이해"의 깊이는 시스템의 복잡성과 적용 가능한 분야를 결정한다. 시스템의 은 처리할 수 있는 어휘와 문법의 크기로 측정되며, 깊이는 시스템의 이해 수준이 유창한 원어민에 얼마나 가까운지를 나타낸다.[25][26][58][59]


  • 좁고 얕은 시스템: 최소한의 복잡성으로 간단한 명령을 처리하지만 응용 범위가 작다.
  • 좁고 깊은 시스템: 이해 메커니즘을 탐구하지만 응용 분야는 제한적이다.
  • 넓고 얕은 시스템: 뉴스 기사 분류 등 넓은 범위를 다루지만 이해는 얕고 복잡성이 높다.
  • 넓고 깊은 시스템: 인간 수준의 깊고 넓은 이해를 목표로 하며, 현재 기술 수준을 넘어선다.


대부분의 NLU 시스템은 접근 방식에 관계없이 어휘 사전, 구문 분석기, 문법 규칙, 의미론, 논리적 추론, 문맥 관리 등 몇 가지 공통적인 구성 요소를 기반으로 한다.[27][60][28][61][33][34][65][66][35][67] 이러한 구성 요소들의 구체적인 역할과 기술은 하위 섹션에서 자세히 다룬다.

3. 1. 어휘 사전 및 온톨로지

어떤 기술을 사용하든 대부분의 자연어 이해(NLU) 시스템은 몇 가지 공통 요소를 갖춘다. 시스템이 문장을 내부 표현으로 변환하려면 해당 언어의 어휘 사전(또는 어휘 목록)과 구문 분석기, 문법 규칙이 필요하다. 특히, 단어의 의미와 관계를 체계적으로 정리한 온톨로지를 포함하여 풍부한 어휘 사전을 구축하는 데는 상당한 노력이 요구된다. 대표적인 예로, 대규모 어휘 데이터베이스인 WordNet 구축에는 수많은 사람들의 오랜 시간과 노력이 투입되었다.[27][60]

3. 2. 구문 분석기 및 문법 규칙

자연어 이해(NLU) 시스템은 사용된 접근 방식과 관계없이 몇 가지 공통적인 구성 요소를 공유한다. 시스템이 문장을 내부 표현으로 분해하기 위해서는 언어의 어휘 사전(또는 어휘 목록), 구문 분석기, 그리고 문법 규칙이 필수적이다.[27][60] 구문 분석기는 문장의 구조를 분석하는 역할을 하며, 문법 규칙은 문장을 구성하는 요소들을 파악하는 데 사용된다.

이러한 구성 요소들과 함께, 적절한 온톨로지를 갖춘 풍부한 어휘 사전을 구축하는 것 또한 중요하지만, 이는 상당한 노력을 필요로 한다. 예를 들어, WordNet 어휘 사전 구축에는 여러 인년(person-year)의 노력이 투입되었다.[27][60]

구체적인 도구로는 SyntaxNet이 있으며, 이는 딥 러닝 기반의 자연어 이해를 위한 텐서플로우 툴킷으로 구문 분석 기능을 일부 포함한다.[70]

3. 3. 의미 분석

의미 분석기는 자연어 텍스트를 형식적인 의미 표현으로 변환하는 역할을 한다.[32] 자연어 이해 시스템은 문장의 의미를 파악하고 이해를 이끌어내기 위해 의미론 이론을 필요로 한다.[28] 시스템이 어떤 의미론적 이론을 사용하는지에 따라 해석 능력이 달라지며, 컴퓨터를 이용한 자동 의미 해석의 기반으로 어떤 이론을 선택할지는 각각의 장단점(상충 관계)을 고려해야 한다.[28]

다양한 의미론적 접근 방식이 존재하는데, 예를 들어 순진한 의미론이나 확률적 의미 분석부터 시작하여, 문맥 정보로부터 의미를 파악하기 위해 화용론을 활용하는 방법까지 다양하다.[29][30][31]

의미를 다루는 한 가지 방법은 문장을 논리식으로 변환하는 것이다. 예를 들어, "타로가 차를 샀다"라는 문장은 `샀다(타로, 차)`와 같은 논리식 형태로 표현될 수 있다. 이러한 방식으로 문장을 논리식으로 변환하여 의미를 처리할 수 있다고 여겨진다.

3. 4. 추론

고급 자연어 이해(NLU) 응용 프로그램은 논리적 추론 기능을 통합하여 문장의 의미를 더 깊이 파악하고 새로운 결론을 도출하고자 한다.[33][34][65][66] 이는 일반적으로 문장에서 추출된 의미를 술어 논리(특히 일계 술어 논리) 형식의 주장이나 논리식으로 변환한 뒤, 논리적 연역 과정을 통해 새로운 사실이나 결론을 이끌어내는 방식으로 이루어진다.[33][34][65][66] 예를 들어, "타로가 차를 샀다"라는 문장은 '샀다(타로, 차)'와 같은 논리식으로 표현될 수 있으며, 이를 기반으로 추론을 진행할 수 있다.

이러한 추론 기능을 구현하기 위해 사용하는 프로그래밍 언어에 따라 접근 방식이 달라질 수 있다. Lisp와 같은 함수형 프로그래밍 언어를 기반으로 하는 시스템은 논리적 주장을 표현하고 처리하기 위한 별도의 하위 시스템을 필요로 하는 경우가 많다. 반면, Prolog와 같이 논리 프로그래밍에 기반한 언어를 사용하는 시스템은 언어 자체에 내장된 논리 표현 및 추론 기능을 확장하여 활용하는 경향이 있다.[33][34][65][66]

3. 5. 문맥 관리

자연어 이해(NLU)에서 문맥 관리는 특히 어려운 과제로 꼽힌다.[35][67] 다양한 예시와 반례가 존재하기 때문에, 각각 특정한 강점과 약점을 가진 여러 형식 모델링 접근 방식이 개발되었다.[36][68]

4. 응용 분야

자연어 이해(NLU) 기술은 로봇에게 내리는 간단한 명령부터 신문 기사나 시의 내용을 완전히 이해하려는 복잡한 시도에 이르기까지 매우 폭넓은 컴퓨터 응용 분야에 적용된다.[22][55]

많은 실제 응용은 이 두 극단 사이에 위치한다. 예를 들어, 기업에서 이메일 내용을 자동으로 분석하여 적절한 부서로 전달하는 문서 분류 시스템은 텍스트의 아주 깊은 의미까지 파악할 필요는 없지만, 고정된 형식의 데이터베이스 검색보다는 훨씬 다양한 어휘와 문장 구조를 다루어야 한다.[22][55]

과거에도 컴퓨터가 자연어나 '영어와 유사한' 문장을 처리하도록 하려는 여러 시도가 있었다. 예를 들어, 웨인 래틀리프(Wayne Ratliff)는 스타 트렉에 등장하는 대화형 컴퓨터를 모방하여 영어와 비슷한 구문을 사용하는 '벌칸'(Vulcan) 프로그램을 개발했다. 이 프로그램은 나중에 dBase 시스템으로 발전하여 사용하기 쉬운 구문으로 개인용 컴퓨터 데이터베이스 시대를 여는 데 기여했다.[23][24][56][57] 그러나 단순히 사용하기 쉽거나 영어와 유사한 구문을 가진 시스템은, 풍부한 어휘를 바탕으로 자연어 문장의 의미를 내부적으로 표현하고 추론하는(주로 일차 논리 사용) 시스템과는 근본적으로 다르다.

시스템이 목표로 하는 '이해'의 수준, 즉 (처리할 수 있는 어휘와 문법의 크기)과 깊이(인간 언어 사용자의 이해도에 얼마나 근접하는지)에 따라 시스템의 복잡성과 적용 가능한 응용 분야가 결정된다.


  • 좁고 얕은 시스템: 영어와 유사한 명령어를 해석하는 간단한 시스템. 복잡성은 낮지만 응용 범위도 제한적이다.
  • 좁고 깊은 시스템: 특정 분야에 대한 깊은 이해 메커니즘을 탐구하고 모델링하지만, 응용 범위는 여전히 제한적이다.[25][58]
  • 넓고 얕은 시스템: 단순한 키워드 매칭을 넘어 뉴스 기사와 같은 문서의 내용을 이해하고 사용자에게 적합한지 판단하려는 시스템. 상당한 복잡성이 요구되지만, 이해의 깊이는 아직 얕은 편이다.[26][59]
  • 매우 넓고 깊은 시스템: 인간과 같이 폭넓고 깊이 있는 이해를 하는 시스템은 현재 기술 수준을 넘어서는 과제이다.


자연어 이해 기술은 주로 다음과 같은 방식으로 활용된다.[69]

  • 문장 읽기를 통한 정보 처리:
  • 정보 검색: 사용자가 원하는 정보를 텍스트 데이터에서 찾아 제공한다.
  • 텍스트 마이닝: 대량의 텍스트 데이터에서 핵심 정보를 요약하거나 유용한 패턴을 추출한다.
  • 사용자와의 상호 작용: (원본 소스에서 구체적인 예시 부족)

5. 관련 기업 및 서비스 (한국)


  • 주식회사 언어 이해 연구소[71]

6. 미래 전망

자연어 이해 시스템이 목표로 하는 "이해"의 폭과 깊이는 해당 시스템의 복잡성과 응용 가능 범위를 결정한다. 시스템의 "폭"은 시스템이 처리할 수 있는 어휘와 문법의 크기를 의미하며, "깊이"는 그 이해 수준이 실제 언어 사용자의 이해 수준에 얼마나 가까운지를 나타낸다.

현재 기술 수준에서는 다양한 응용 프로그램이 존재하지만, 그 능력에는 한계가 있다. 예를 들어, 전자 메일 내용을 분석하여 분류하는 시스템은 깊은 이해까지는 필요 없지만 단순한 데이터베이스 질의보다는 훨씬 복잡하다.[55] 과거 dBase처럼 영어식 구문을 사용하여 사용 편의성을 높인 시스템도 있었으나[56][57], 이는 문장의미를 일계 술어 논리 같은 내부 표현으로 나타내는 깊은 이해와는 거리가 멀다.

가장 얕고 좁은 시스템, 예를 들어 단순한 영어식 명령 해석기는 복잡성이 낮지만 응용 범위도 제한적이다. 반면, 좁지만 깊은 시스템은 이해의 기제를 탐구하고 모델링하는 데 중점을 두지만[58], 역시 응용 범위는 한정적이다. 뉴스 기사 내용을 이해하고 사용자에게 적합한지 판단하는 시스템처럼 단순한 키워드 검색을 넘어선 이해를 추구하는 시스템은 상당한 복잡성을 요구하지만[59], 여전히 그 범위는 제한적이다.

매우 넓은 범위의 어휘와 문법을 처리하면서 인간 수준에 가까운 깊은 이해를 달성하는 시스템의 실현은 아직 해결해야 할 과제가 많은 먼 미래의 목표로 남아 있다.

참조

[1] 논문 Natural Language Generation: An Overview http://www.lacsc.org[...] 2012
[2] 서적 Turing Test as a Defining Feature of AI-Completeness http://cecs.louisvil[...] Springer, London 2013
[3] 서적 Handbook of knowledge representation https://books.google[...] Elsevier 2008
[4] 논문 Natural language understanding using statistical machine translation https://www.research[...] 2001
[5] 논문 Natural language question answering: the view from here https://www.research[...] 2001
[6] 웹사이트 Brief History of AI http://www.aaai.org/[...] American Association for Artificial Intelligence
[7] 학위논문 Natural Language Input for a Computer Problem Solving System http://hdl.handle.ne[...]
[8] 서적 Machines who think 2004
[9] 서적 Artificial Intelligence: A Modern Approach http://aima.cs.berke[...] Prentice Hall 2003
[10] 서적 Computer Science Logo Style: Beyond programming 1997
[11] 서적 Computer power and human reason: from judgment to calculation W. H. Freeman and Company 1976
[12] 논문 A conceptual dependency parser for natural language 1969
[13] 논문 Transition Network Grammars for Natural Language Analysis http://www.eric.ed.g[...] 1970
[14] 서적 Artificial intelligence: critical concepts 2000
[15] 웹사이트 SHRDLU http://hci.stanford.[...] Stanford
[16] 서적 Language as a Cognitive Process Addison–Wesley, Reading, MA 1983
[17] 논문 Research at the Artificial Intelligence corp. http://portal.acm.or[...] 1982-01
[18] 서적 Inside case-based reasoning 1989
[19] 서적 In Depth Understanding: A Model of Integrated Process for Narrative Comprehension. MIT Press
[20] 뉴스 Watson Doesn't Know It Won on 'Jeopardy!' https://www.wsj.com/[...] 2011-02-23
[21] 웹사이트 What Natural Language Understanding tech means for chatbots https://venturebeat.[...] 2016-07-12
[22] 서적 An approach to hierarchical email categorization 2007
[23] 간행물 InfoWorld 1989-11-13
[24] 간행물 InfoWorld 1984-04-19
[25] 웹사이트 Building Working Models of Full Natural-Language Understanding in Limited Pragmatic Domains http://www.yorku.ca/[...] 2010
[26] 서적 Mining the Web: discovering knowledge from hypertext data 2002
[27] 논문 WordNet: An online lexical database 1990
[28] 서적 Using computers in linguistics: a practical guide 198
[29] 서적 Naive semantics for natural language understanding 1988
[30] 서적 Stochastically-based semantic analysis 1999
[31] 서적 Pragmatics and natural language understanding 1996
[32] 논문 Learning for semantic parsing with statistical machine translation http://www.aclweb.or[...] Association for Computational Linguistics 2006
[33] 서적 Natural Language Processing Prolog Programmers 1994
[34] 서적 Natural language processing in Prolog 1989
[35] 서적 Understanding language understanding 1999
[36] 서적 "Formal aspects of context" 2000
[37] 웹사이트 "Programming with Natural Language Is Actually Going to Work—Wolfram Blog" http://blog.wolfram.[...]
[38] 웹사이트 From NLP to NLU http://www.isi.hhu.d[...]
[39] 웹사이트 multi-lingual NLU by Pat Inc http://pat.ai/
[40] 웹사이트 "Brief History of AI" http://www.aaai.org/[...] American Association for Artificial Intelligence
[41] 논문 "Natural Language Input for a Computer Problem Solving System" https://hdl.handle.n[...]
[42] 서적 "Machines who think" 2004
[43] 서적 "Artificial Intelligence: A Modern Approach" http://aima.cs.berke[...] Prentice Hall 2003
[44] 서적 "Computer Science Logo Style: Beyond programming" 1997
[45] 서적 "Computer power and human reason: from judgment to calculation" "W. H. Freeman and Company" 1976
[46] 논문 "A conceptual dependency parser for natural language" 1969
[47] 논문 "Transition Network Grammars for Natural Language Analysis" http://www.eric.ed.g[...] 1970
[48] 서적 "Artificial intelligence: critical concepts", 2000
[49] 웹사이트 SHRDLU http://hci.stanford.[...]
[50] 서적 "Language as a Cognitive Process" "Addison–Wesley, Reading, MA" 1983
[51] 기사 "Research at the Artificial Intelligence corp." http://portal.acm.or[...] 1982-01
[52] 서적 "Inside case-based reasoning" 1989
[53] 서적 "In Depth Understanding: A Model of Integrated Process for Narrative Comprehension." MIT Press
[54] 간행물 "Framework for Deep Learning-Based Language Models Using Multi-Task Learning in Natural Language Understanding: A Systematic Literature Review and Future Directions" https://ieeexplore.i[...] 2022
[55] 서적 "An approach to hierarchical email categorization" 2007
[56] 뉴스 Infoworld 1989-11-13
[57] 뉴스 Infoworld 1984-04-19
[58] 웹사이트 "Building Working Models of Full Natural-Language Understanding in Limited Pragmatic Domains" http://www.yorku.ca/[...] 2010
[59] 서적 "Mining the Web: discovering knowledge from hypertext data" 2002
[60] 논문 "WordNet: An online lexical database" 1990
[61] 서적 "Using computers in linguistics: a practical guide"
[62] 서적 "Naive semantics for natural language understanding" 1988
[63] 서적 "Stochastically-based semantic analysis" 1999
[64] 서적 "Pragmatics and natural language understanding" 1996
[65] 서적 "Natural Language Processing Prolog Programmers" 1994
[66] 서적 "Natural language processing in Prolog" 1989
[67] 서적 "Understanding language understanding" 1999
[68] 서적 "Formal aspects of context" 2000
[69] 웹사이트 "Agent-AIが自然言語とかかわりを持 つ場面には,大きく分けて,書かれた ものの読み取りとユーザとのインタラ クションがあります" http://www.ntt.co.jp[...]
[70] Github tensorflow/models/tree/master/syntaxnet https://github.com/t[...]
[71] 웹사이트 https://www.ilu.co.j[...]
[72] 웹사이트 http://japan.nuance.[...]



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com