순환 신경망
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
순환 신경망(RNN)은 1980년대에 등장하여, 시간적 시퀀스 데이터를 처리하기 위해 설계된 인공 신경망의 한 종류이다. RNN은 이전 단계의 출력을 다음 단계의 입력으로 사용하는 순환 연결을 통해 정보를 기억하고, 시퀀스 내의 컨텍스트를 유지하는 특징을 가지고 있다. 홉필드 네트워크, LSTM, GRU 등이 RNN의 대표적인 예시이며, LSTM은 기울기 소실 문제를 해결하여 음성 인식, 기계 번역, 언어 모델링 등 다양한 분야에서 괄목할 만한 성능 향상을 이끌었다. 양방향 RNN과 어텐션 메커니즘은 RNN의 성능을 더욱 향상시켰으며, 인코더-디코더 구조는 기계 번역과 같은 시퀀스 변환 문제에 활용된다. RNN은 경사 하강법, 교사 강요, CTC 등의 방법으로 훈련되며, 복사 작업과 같은 평가 방법을 통해 모델의 기억 능력을 측정한다. 파이토치, 텐서플로, 케라스와 같은 다양한 딥러닝 라이브러리에서 RNN 모델을 지원한다.
더 읽어볼만한 페이지
- arXiv 내용이 누락된 문서 - 사회 연결망 분석
사회 연결망 분석은 개인이나 집단 간 관계를 분석하여 사회 구조와 패턴을 파악하는 방법론으로, 사회학 이론을 기반으로 발전하여 소셜 네트워크 서비스 발전과 함께 중요성이 부각되고 있으며, 크기, 동질성, 중심성 등의 주요 분석 요소를 가진다. - arXiv 내용이 누락된 문서 - 알큐비에레 드라이브
알큐비에레 드라이브는 미구엘 알큐비에레가 1994년에 제안한 이론적인 초광속 우주선 추진 방식으로, 워프 버블 내에서 시공간을 왜곡하여 빛보다 빠르게 이동하는 방식이지만, 막대한 음의 에너지 필요, 인과율 위반 문제 등으로 현재는 이론적 개념으로 남아있다. - 통계학에 관한 - 비지도 학습
비지도 학습은 레이블이 없는 데이터를 통해 패턴을 발견하고 데이터 구조를 파악하는 것을 목표로 하며, 주성분 분석, 군집 분석, 차원 축소 등의 방법을 사용한다. - 통계학에 관한 - 회귀 분석
회귀 분석은 종속 변수와 하나 이상의 독립 변수 간의 관계를 모델링하고 분석하는 통계적 기법으로, 최소 제곱법 개발 이후 골턴의 연구로 '회귀' 용어가 도입되어 다양한 분야에서 예측 및 인과 관계 분석에 활용된다. - 인공신경망 - 인공 뉴런
인공 뉴런은 인공신경망의 기본 요소로서, 입력 신호에 가중치를 곱하고 합산하여 활성화 함수를 거쳐 출력을 생성하며, 생물학적 뉴런을 모방하여 설계되었다. - 인공신경망 - 퍼셉트론
퍼셉트론은 프랭크 로젠블랫이 고안한 인공신경망 모델로, 입력 벡터에 가중치를 곱하고 편향을 더한 값을 활성화 함수에 통과시켜 이진 분류를 수행하는 선형 분류기 학습 알고리즘이며, 초기 신경망 연구의 중요한 모델로서 역사적 의미를 가진다.
순환 신경망 | |
---|---|
지도 | |
기본 정보 | |
유형 | 인공 신경망 |
구조 | 피드백 연결을 가진 노드 |
주요 특징 | 시간적 정보 처리 가변 길이 입력 처리 순차적 데이터 모델링 |
역사 | |
최초 제안 | 1980년대 |
발전 | 장단기 메모리(LSTM) 개발 게이트 순환 유닛(GRU) 개발 |
작동 원리 | |
작동 방식 | 이전 단계의 출력을 현재 단계의 입력으로 사용 은닉 상태를 통해 시간적 정보 저장 및 처리 순차적 데이터를 처리하는데 적합 |
종류 | |
주요 종류 | 단순 순환 신경망 (Simple RNN) 장단기 메모리 (LSTM) 게이트 순환 유닛 (GRU) |
응용 분야 | |
주요 응용 분야 | 자연어 처리 (기계 번역, 텍스트 생성) 음성 인식 시계열 데이터 예측 비디오 분석 필기 인식 |
장점 | |
장점 | 시간적 의존성 모델링에 적합 가변 길이 입력 처리 가능 순차 데이터의 패턴 학습 |
단점 | |
단점 | 학습이 어려울 수 있음 (기울기 소실/폭발 문제) 긴 시퀀스 학습에 어려움 (장기 의존성 문제) 병렬 처리 어려움 |
주요 연구 | |
관련 연구 | 시퀀스-투-시퀀스 모델 어텐션 메커니즘 트랜스포머 모델 |
추가 정보 | |
관련 분야 | 딥 러닝, 인공 신경망, 기계 학습 |
2. 역사
순환 신경망(RNN)의 역사는 1980년대 데이비드 루멜하르트와 존 홉필드의 초기 연구에서 시작되어, 1993년 1000개 이상의 층을 가진 RNN을 사용한 "Very Deep Learning" 구현으로 이어졌다. 1997년 LSTM이 발명된 이후, 음성 인식, 필기 인식, 기계 번역, 언어 모델링, 자동 이미지 캡셔닝 등 다양한 분야에서 획기적인 발전을 이루었다. 특히, 2000년대 후반부터 LSTM은 음성 인식 분야에서 기존 모델을 능가하며, 바이두, 구글 안드로이드 등에서 활용되었다. 양방향 RNN(BRNN)은 입력 데이터를 양방향으로 처리하여 성능을 더욱 향상시켰다.
2. 1. 초기 연구
RNN은 1986년 데이비드 루멜하르트의 연구에 기반을 둔다.[253] 1982년 존 홉필드는 홉필드 네트워크를 제안하며 순환 신경망 연구의 초기 발판을 마련했다.[254] 1993년에는 신경망 기반의 역사 압축 시스템이 등장하여 순환 신경망의 가능성을 제시했는데,[254] 이 시스템은 시간에 따라 전개된 RNN에서 1000개가 넘는 후속 층을 필요로 하는 "매우 심층적인 학습" 과제를 해결했다.[34]2. 2. LSTM의 등장과 발전
1997년 호크라이터와 슈미트후버가 장단기 메모리(LSTM)를 발명하면서, 기존 순환 신경망의 문제점을 해결하고 장기 의존성을 학습할 수 있게 되었다.[255] LSTM은 여러 응용 분야에서 뛰어난 정확도를 보여주었다.[35][36]2007년 전후, LSTM은 음성 인식 분야에서 기존 모델들을 능가하는 성능을 보여주었다.[256] 2009년에는 CTC(Connectionist temporal classification) 기술로 훈련된 LSTM이 필기체 인식 대회에서 처음으로 우승하여 패턴 인식 분야에서 뛰어난 기능을 입증했다.[257][258] 2014년, 바이두는 CTC로 훈련된 RNN만을 사용하여 음성 인식 벤치마크를 갱신했다.[259]
LSTM은 대규모 단어 음성 인식[260][261]과 음성 합성[262] 분야에서도 발전하여 구글 안드로이드에 응용되고 있다.[257][263] 2015년에는 구글의 음성 인식 능력이 CTC 기반 LSTM을 통해 크게 향상되었다.[264]
기계 번역,[265] 언어 모델링,[266] 다국어 언어 처리 분야에서도 LSTM은 뛰어난 성능으로 기록을 갱신했다.[267] 합성곱 신경망과 함께 응용되어 자동 이미지 캡셔닝 분야에서도 큰 발전을 이루었다.[268] LSTM을 실행하는 데 필요한 계산량을 줄이기 위해 하드웨어 가속기를 사용하는 연구도 진행되고 있다.[269]
2. 3. 양방향 RNN과 Attention 메커니즘
양방향 순환 신경망(BRNN, Bidirectional Recurrent Neural Network)은 길이가 정해진 데이터 순열을 통해 어떤 값이 들어오기 전과 후의 정보를 모두 학습하는 방식의 알고리즘이다. 이를 위해 순열을 왼쪽에서 오른쪽으로 읽을 RNN 하나와, 오른쪽에서 왼쪽으로 읽을 RNN 하나를 필요로 한다. 이 둘의 출력값을 조합한 뒤 지도된 결과와 비교하여 학습한다. LSTM과 병용할 때 특히 좋은 성능을 낸다는 사실이 증명되었다.[284][285]3. 구조
인공 신경망은 입력을 선형 변환하는 처리 단위로 구성된 네트워크이다. 네트워크 내에 순환이 존재하면, 즉, 단위의 출력이 어떤 경로를 통해 다시 자신에게 입력되는 경우, 이를 '''순환 신경망'''(RNN)이라고 한다.[139] 순환이 없는 순전파 신경망(Feed-Forward Network; '''FFN''')과 대비된다.
RNN은 임의의 연속적인 입력을 처리하기 위해 내부 상태(기억)를 사용할 수 있어 시간에 따른 동적인 행동을 보인다.[140] 필기체 인식[141] 및 음성 인식[142][143]과 같은 과제에 적용될 수 있다.
"순환 신경망"이라는 용어는 유사한 일반 구조를 가진 두 가지 광범위한 네트워크 클래스( 유한 임펄스, 무한 임펄스)를 구분 없이 지칭하는 데 사용된다. 두 네트워크 클래스 모두 시간에 따른 동적인 행동을 보인다.[144] 유한 임펄스 순환 네트워크는 유향 비순환 그래프인 반면, 무한 임펄스 순환 네트워크는 유향 순환 그래프이다.
유한 및 무한 임펄스 순환 네트워크는 모두 추가적인 저장 상태를 가질 수 있으며, 신경망에 의해 직접적으로 제어될 수 있다. 저장소는 다른 네트워크나 그래프(시간 지연, 피드백 루프)로 대체될 수 있다. 이러한 제어된 상태는 게이트 상태 또는 게이트 메모리라고 불리며, 장단기 기억(LSTM) 및 게이트형 순환 단위(GRU)의 일부이다.
RNN에는 많은 파생 형태가 있다. RNN 기반 모델은 구성(configuration)과 아키텍처(architecture) 두 부분으로 나눌 수 있다. 여러 개의 RNN을 데이터 흐름으로 결합할 수 있으며, 이 데이터 흐름 자체가 구성이다. 각 RNN 자체는 LSTM, GRU 등을 포함한 다양한 아키텍처를 가질 수 있다.
3. 1. 기본 구조
RNN은 뉴런과 유사한 노드들이 연속된 레이어로 구성된 구조를 가진다. 각 노드는 다음 단계의 모든 레이어와 단방향 그래프를 이루며, 시간에 따라 변하는 실수값의 활성화(activation) 값을 가진다. 또한 각 노드 간 연결은 실수값의 가중치를 가지며, 이 값은 계속해서 바뀐다. 노드의 종류는 네트워크 외부에서 값을 받는 입력 노드, 결과값을 내는 출력 노드, 입력 노드와 출력 노드 사이에 있는 은닉 노드로 나뉜다.
지도 학습의 경우, 단위 시간마다 실수 벡터 하나가 입력 노드로 들어온다. 매 순간 입력 노드를 제외한 모든 노드는 연결된 노드들로부터 활성화 값을 각 연결의 가중치와 함께 가중합으로 받아, 비선형 함수를 통해 활성화 값을 계산하고 저장한다. 지도 학습을 위해 주어진 데이터는 특정 순간마다 출력 노드 값이 가져야 할 값(target)을 알려준다. 신경망이 생성한 출력값과 원래 가져야 할 값 사이의 차이를 합하여 오차를 정의하고, 이 오차를 줄이는 방향으로 학습이 진행된다.
강화 학습 설정에서는, 출력 값이 어떠해야 하는지에 대한 정보를 주지 않는다. 대신 RNN의 성능을 평가하기 위한 fitness function|적합성 함수영어나 보상 함수가 출력값을 받아들인 뒤, 액츄에이터를 통해 환경에 영향을 주어 입력값을 변화시킨다.
기본적인 RNN은 연속적인 "층"으로 구성된 뉴런적 노드의 네트워크이며, 특정 층의 개별 노드는 다음 층의 모든 노드와 유향(일방향) 연결로 연결되어 있다. 개별 노드(뉴런)는 시간에 따라 변하는 실수값의 활성화를 갖는다. 개별 연결(시냅스)은 변경 가능한 실수값의 Weighting|가중치영어를 갖는다. 노드는 (네트워크 외부에서 데이터를 받는) 입력 노드, (결과를 얻는) 출력 노드, (입력에서 출력으로 데이터를 수정하는) 은닉 노드 중 하나이다.
이산 시간 설정에서의 지도 학습을 위해, 실수값 입력 벡터의 배열이 입력 노드에 도착한다(한 번에 하나의 벡터). 임의의 시간 단계에서, 각 비입력 유닛은 그것에 연결된 모든 유닛의 활성화의 가중 합의 비선형 함수로서 그 현재 활성화(결과)를 계산한다. 어떤 시간 단계에서 일부 출력 유닛에 대해 교사가 목표 활성화를 제공할 수 있다.
강화 학습 설정에서는, 교사가 목표 신호를 제공하지 않는다. 대신, fitness function|적합도 함수영어 또는 보상 함수가 RNN의 성능을 평가하는 데 사용될 수 있다.
3. 2. 엘만 네트워크와 조던 네트워크

Elman영어 네트워크와 Jordan영어 네트워크는 초기 순환 신경망 모델로, 단순 순환망(Simple Recurrent Network, SRN)이라고도 불린다.[270]
엘만 네트워크는 3층 네트워크에 "맥락 유닛"(''u'')을 추가한 형태이다.[159] 은닉층은 이 맥락 유닛에 연결되며, 가중치는 1로 고정되어 있다.[159] 각 시간 단계에서 입력은 순방향으로 전달되고 학습 규칙이 적용된다. 고정된 역방향 연결은 맥락 유닛에 은닉 유닛의 이전 값을 저장한다. 이를 통해 네트워크는 일종의 상태를 유지하여 시계열 예측과 같은 작업을 수행할 수 있다.[270]
Jordan영어 네트워크는 엘만 네트워크와 유사하지만, 맥락 유닛이 은닉층이 아닌 출력층에서 입력을 받는다는 차이점이 있다. 조던 네트워크의 맥락 유닛은 상태층이라고도 불리며, 자신에게로의 재귀적 연결을 가진다.[270][159]
엘만 네트워크와 조던 네트워크의 구조는 다음과 같이 표현할 수 있다.
; 엘만 신경망[160]
:
; 조르단 신경망[161]
:
위 식에서 사용된 기호는 다음과 같다.
- : 입력 벡터
- : 은닉층 벡터
- : 출력 벡터
- , , : 매개변수 행렬과 벡터
- , : 활성화 함수
3. 3. LSTM (Long Short-Term Memory)
LSTM(Long Short-Term Memory, 장단기 메모리)은 기울기 소실 문제를 해결하기 위해 고안된 딥 러닝 시스템이다. LSTM은 망각 게이트(forget gate)를 추가하여 역전파 시 기울기 값이 급격하게 사라지거나 증가하는 문제를 방지한다.[273][274]LSTM은 기존의 순환 신경망(RNN)이 먼 과거의 정보를 학습하기 어려운 문제를 해결하여, 수백만 단위 시간 전의 사건도 학습할 수 있게 되었다. 이는 저주파 신호와 고주파 신호를 모두 처리할 수 있게 해 성능을 크게 향상시켰다.[275] LSTM과 유사한 구조를 가진 신경망들도 많이 발표되고 있다.[276]
LSTM을 쌓은 뒤 Connectionist temporal classification(CTC)로 학습시키는 방식은 실제 연구 분야에 많이 사용된다.[277][278] CTC는 정렬과 인식에서 좋은 결과를 제공하며, 은닉 마르코프 모형(HMM)으로는 불가능했던 문맥 의존 언어 학습을 가능하게 한다.[279]
3. 4. GRU (Gated Recurrent Unit)
게이트형 순환 유닛(GRU, Gated Recurrent Units)은 2014년에 발표된 순환 신경망의 게이트 메커니즘이다.[184][185] 장단기 기억(LSTM)과 성능이 유사하며, 출력 게이트가 없어 LSTM보다 매개변수가 적다.[187] 주로 다성 음악 모델링 및 음성 신호 모델링에 사용된다.[187]
3. 5. 양방향 RNN (Bidirectional RNN)

양방향 순환 신경망(biRNN)은 두 개의 순환 신경망으로 구성되는데, 하나는 입력 시퀀스를 정방향으로 처리하고 다른 하나는 역방향으로 처리한다.
- 순방향 순환 신경망:
- 역방향 순환 신경망:
두 신경망의 출력 시퀀스를 결합하여 전체 출력을 제공한다: .
양방향 순환 신경망은 모델이 토큰을 이전과 이후 문맥에서 모두 처리할 수 있게 한다. 여러 개의 양방향 순환 신경망을 쌓으면 모델이 토큰을 더욱 문맥적으로 처리할 수 있다. ELMo 모델(2018)[48]은 문자 수준 입력을 받아 단어 수준 임베딩을 생성하는 쌓인 양방향 LSTM이다.
양방향 RNN은 유한한 배열을 사용하여 요소의 과거 및 미래 문맥을 기반으로 배열의 각 요소를 예측하거나 라벨링한다. 이는 두 개의 RNN 출력을 통합하여 수행하는데, 하나는 배열을 왼쪽에서 오른쪽으로, 다른 하나는 오른쪽에서 왼쪽으로 처리한다. 통합된 출력은 교사가 제공한 대상 신호의 예측값이다. 이 기법은 LSTM RNN과 결합했을 때 특히 유용한 것으로 입증되었다.[188][189]
3. 6. 인코더-디코더 (Encoder-Decoder)
인코더-디코더는 두 개의 순환 신경망(RNN)을 연결하여 구성하는 방식이다. 인코더 RNN은 입력 시퀀스를 처리하여 일련의 은닉 벡터로 압축하고, 디코더 RNN은 이를 바탕으로 (선택적으로 어텐션 메커니즘을 사용하여) 출력 시퀀스를 생성한다. 이러한 구조는 2014년부터 2017년까지 신경 기계 번역 분야에서 널리 사용되었으며, 트랜스포머 개발의 중요한 기반이 되었다.[49]

4. 훈련
현대 순환 신경망(RNN)은 주로 LSTM과 양방향 순환 신경망(BRNN)이라는 두 가지 주요 구조를 기반으로 훈련된다.[32]
1980년대에 신경망 연구가 다시 활발해지면서 순환 신경망도 재조명되었다. 초기에는 조던 네트워크(1986)와 엘만 네트워크(1990)가 인지 심리학 연구에 RNN을 활용했다.[33] 1993년에는 신경망 기반의 역사 압축 시스템이 RNN에서 1000개가 넘는 층을 필요로 하는 "매우 심층적인 학습" 과제를 해결하기도 했다.[34]
1995년, 호크라이터와 슈미트후버가 발명한 장단기 기억(LSTM) 네트워크는 여러 응용 분야에서 높은 정확도를 보이며 RNN 구조의 기본으로 자리 잡았다.[35][36]
양방향 순환 신경망(BRNN)은 같은 입력을 서로 반대 방향으로 처리하는 두 개의 RNN을 사용한다.[37] 이 두 가지를 결합하여 양방향 LSTM 구조를 만들기도 한다.
2006년경, 양방향 LSTM은 특정 음성 응용 프로그램에서 기존 모델보다 뛰어난 성능을 보이며 음성 인식 분야에 큰 영향을 주었다.[38][39] 구글 음성 검색과 안드로이드 기기의 받아쓰기에도 사용되었으며,[41] 기계 번역[42], 언어 모델링[43], 다국어 언어 처리[44] 등에서도 좋은 성과를 냈다. 또한 LSTM은 합성곱 신경망(CNN)과 결합하여 자동 이미지 캡션 생성 성능을 향상시키기도 했다.[45]
2010년대 초에는 인코더-디코더 시퀀스 변환 아이디어가 개발되었다. 2014년에 발표된 두 논문[46][47]은 seq2seq 구조의 기원으로 자주 언급된다. seq2seq 구조는 보통 LSTM인 두 개의 RNN, 즉 "인코더"와 "디코더"를 사용하여 기계 번역과 같은 시퀀스 변환 작업을 수행한다. 이 구조는 기계 번역 분야에서 높은 수준의 기술로 평가받고 있으며, 어텐션 메커니즘과 트랜스포머 개발에 중요한 영향을 미쳤다.
4. 1. 교사 강요 (Teacher Forcing)
'''교사 강요(Teacher forcing)'''는 순환 신경망(RNN) 훈련 과정에서 모델의 예측값 대신 실제 정답값을 다음 시간 단계의 입력으로 사용하는 기법이다.[51]
예를 들어, 영어 단어 시퀀스 가 주어졌을 때 프랑스어 단어 시퀀스 를 생성하는 기계 번역 문제를 seq2seq 모델로 해결한다고 가정하자.
훈련 과정에서 모델의 인코더는 먼저 을 입력받고, 디코더는 시퀀스 을 생성한다. 이때, 모델이 초기에 에서 실수를 하면, 이후의 토큰들도 잘못될 가능성이 높다. 이는 모델이 주로 를 로 이동시키는 것만 학습하고 다른 토큰들은 학습하지 않아 학습 신호를 얻는 데 비효율적일 수 있다.
교사 강요는 이러한 문제를 해결하기 위해 디코더가 다음 항목을 생성할 때 올바른 출력 시퀀스를 사용하도록 한다. 예를 들어, 을 생성하기 위해 이전 예측값 대신 실제 정답 를 참조한다.
4. 2. 경사 하강법 (Gradient Descent)
경사 하강법(Gradient descent)은 함수의 최솟값을 찾는 1차 반복 최적화 알고리즘이다. 신경망에서, 비선형 활성화 함수가 미분 가능하다면, 각 가중치를 해당 가중치에 대한 오차의 미분에 비례하여 변경함으로써 오차 항을 최소화하는 데 사용할 수 있다.[76][77]RNN을 훈련하는 표준 방법은 "시간에 따른 역전파"(BPTT) 알고리즘이며, 이는 역전파의 일반 알고리즘의 특수한 경우이다.[76][77] 이보다 계산 비용이 더 많이 드는 온라인 변형은 "실시간 순환 학습"(Real-Time Recurrent Learning, RTRL)이라고 하며, 쌓인 접선 벡터를 사용한 순방향 축적 모드의 자동 미분의 한 예이다. BPTT와 달리, RTRL은 시간적으로는 지역적이지만 공간적으로는 지역적이지 않다.
공간적으로 지역적이라는 것은 단위의 가중치 벡터를 연결된 단위와 단위 자체에 저장된 정보만 사용하여 업데이트할 수 있음을 의미하며, 단일 단위의 업데이트 복잡도는 가중치 벡터의 차원에 선형적이다. 시간적으로 지역적이라는 것은 업데이트가 지속적으로(온라인) 발생하고 BPTT와 같이 주어진 시간 지평선 내의 여러 시간 단계가 아니라 가장 최근의 시간 단계에만 의존한다는 것을 의미한다. 생물학적 신경망은 시간과 공간 모두에 대해 지역적인 것으로 보인다.[78][79]
RTRL은 재귀적으로 편미분을 계산하기 위해 야코비 행렬을 계산하는 데 시간 복잡도가 시간 단계당 O(은닉층 수 × 가중치 수)인 반면, BPTT는 주어진 시간 지평선 내의 모든 순방향 활성화를 저장하는 비용으로 시간 단계당 O(가중치 수)만 걸린다.[80] BPTT와 RTRL의 중간 복잡도를 가진 온라인 하이브리드 및 연속 시간에 대한 변형도 존재한다.[81][82][83]
표준 RNN 아키텍처에 대한 경사 하강법의 주요 문제는 중요한 이벤트 사이의 시간 지연의 크기에 따라 오차 기울기가 기하급수적으로 사라진다는 것이다.[96][84] LSTM과 BPTT/RTRL 하이브리드 학습 방법의 조합은 이러한 문제를 극복하려고 시도한다.[36] 이 문제는 또한 뉴런의 맥락을 자체 과거 상태로 줄이고, 교차 뉴런 정보는 다음 층에서 탐색될 수 있는 독립적으로 순환하는 신경망(IndRNN)에서 해결된다.[93] 장기 기억을 포함한 다양한 범위의 기억은 기울기 소멸 및 폭발 문제 없이 학습될 수 있다.
인과적 재귀 역전파(CRBP)는 국소적으로 순환하는 네트워크에 대해 BPTT 및 RTRL 패러다임을 구현하고 결합한다.[85] CRBP는 가장 일반적인 국소적으로 순환하는 네트워크에서 작동하며, 전역 오차 항을 최소화할 수 있다. 이는 알고리즘의 안정성을 향상시켜 국소 피드백이 있는 순환 네트워크에 대한 기울기 계산 기법에 대한 통합적인 관점을 제공한다.
임의의 아키텍처를 가진 RNN에서 기울기 정보 계산에 대한 한 가지 접근 방식은 신호 흐름 그래프 도식적 유도를 기반으로 한다.[86] 네트워크 민감도 계산에 대한 Lee의 정리를 기반으로 하는 BPTT 배치 알고리즘을 사용한다.[87] Wan과 Beaufays가 제안했고, 빠른 온라인 버전은 Campolucci, Uncini 및 Piazza가 제안했다.[87]
4. 3. 연결주의 시간 분류 (Connectionist Temporal Classification, CTC)
연결주의 시간 분류(Connectionist Temporal Classification, CTC)는 시계열 데이터의 길이가 가변적인 시퀀스 모델링 문제에서 순환 신경망(RNN)을 훈련하는 데 사용되는 특수한 손실 함수이다.[88][89]5. 응용 분야
순환 신경망은 다음과 같은 다양한 분야에서 활용되고 있다.
- 자연어 처리: 기계 번역[42], 언어 모델링[266], 다국어 언어 처리[44], 자동 이미지 캡션 생성[45] 등에 활용된다.
- 음성 인식 및 합성: 음성 인식[120][39][121], 음성 합성[122], 구글 음성 검색과 안드로이드 기기의 받아쓰기[41] 등에 사용된다.
- 시계열 데이터 분석: 시계열 예측[117][118][119], 시계열 이상 탐지[124] 등에 활용된다.
- 로봇 제어: 로봇 제어[116]에 활용된다.
- 기타: 리듬 학습[126], 작곡[127], 문법 학습[128][129][130], 필기 인식[131][132], 인간 행동 인식[133], 단백질 상동성 탐지[134], 단백질의 세포 내 위치 예측[135], 업무 프로세스 관리 분야의 여러 예측 작업[136], 의료 관리 경로 예측[137], 원자로에서의 핵융합 플라즈마 파괴 예측[138] 등에도 활용된다.
특히, 1997년 호크라이터와 슈미트후버가 발명한 LSTM은 음성 인식[38][39], 필기체 인식[257][258], 기계 번역[42] 등 여러 분야에서 뛰어난 성능을 보여주었다. 2014년에는 바이두가 CTC(Connectionist temporal classification) 기술로 훈련된 RNN을 활용하여 음성 인식 벤치마크를 갱신하기도 했다.[259]
6. 평가
RNN 모델의 성능은 다양한 작업과 지표를 사용하여 평가된다. 다음은 그 예시이다.
Copying 작업은 순차 처리 모델의 기억력을 평가하기 위해 "처음 제시된 숫자의 순서를 마지막에 기억해내는" 작업이다.[222] 모델에는 먼저 에서 무작위로 샘플링된 10개의 입력이 연속적으로 전달되고(기억 단계), 그 다음 L개의 이 전달되며(유지 단계), 마지막으로 가 10번 연속으로 전달된다(상기 단계). 모델은 처음 10개의 숫자를 기억하고, L단계에 걸쳐 이어지는 동안 그것을 기억해 두었다가, 에 응답하여 처음 10개의 숫자를 순서대로 출력해야 한다.[223]
Copying 작업은 장기간의 시간 지연을 거쳐 기억을 유지하는 작업이며,[224] 장기 기억을 직접 평가하는 표준적인 작업이다. 간단하지만 어려운 것으로 알려져 있으며, 엘만 네트워크와 같은 단순한 RNN은 이 작업을 해결할 수 없고, LSTM도 L=100을 부분적으로만 학습할 수 있다는 것이 알려져 있다.[225][226]
7. 관련 라이브러리
파이토치(PyTorch), 텐서플로(TensorFlow), 케라스(Keras) 등 다양한 딥러닝 라이브러리에서 순환 신경망 모델을 지원한다.[115] 이러한 라이브러리들은 RNN의 학습 및 추론을 지원하며, 일부는 즉시 컴파일(JIT)을 통해 성능을 최적화한다.
다음은 순환 신경망을 지원하는 주요 라이브러리 목록이다.
라이브러리 | 설명 |
---|---|
아파치 싱가(Apache Singa) | 딥 러닝 프레임워크 |
카페(Caffe) | 버클리 비전 및 학습 센터(BVLC) 개발. CPU 및 GPU 지원. C++ 기반, 파이썬(Python) 및 MATLAB 래퍼 제공. |
체이너(Chainer) | 파이썬(Python) 기반. CPU, GPU, 분산 학습 지원. |
딥러닝4j(Deeplearning4j) | 스파크 상에서 자바(Java)와 스칼라(Scala)로 딥 러닝 수행. 다중 GPU 지원. |
플럭스(Flux)(Flux (machine-learning framework)) | 줄리아(Julia) 기반. GRU 및 LSTM 포함 RNN 인터페이스 제공. |
케라스(Keras) | 다른 딥 러닝 라이브러리들에 대한 래퍼를 제공하는 고급 API. |
마이크로소프트 코그니티브 툴킷(Microsoft Cognitive Toolkit) | 딥 러닝 프레임워크 |
MXNet | 오픈 소스 딥 러닝 프레임워크. |
파이토치(PyTorch) | GPU 가속 기능을 갖춘 파이썬 텐서 및 동적 신경망. |
텐서플로(TensorFlow) | Apache 2.0 라이선스. CPU, GPU, 텐서 처리 장치(TPU) 지원. |
테아노(Theano)(Theano (software)) | 넘파이(NumPy)와 유사한 API를 가진 파이썬 딥 러닝 라이브러리. |
토치(Torch)(Torch (machine learning)) | C와 루아(Lua) 기반 과학 컴퓨팅 프레임워크. 머신 러닝 알고리즘 지원. |
참조
[1]
논문
Time series forecasting using artificial neural networks methodologies: A systematic review
2018-12-01
[2]
논문
A Novel Connectionist System for Improved Unconstrained Handwriting Recognition
http://www.idsia.ch/[...]
[3]
웹사이트
Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling
https://research.goo[...]
Google Research
[4]
arXiv
Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition
2014-10-15
[5]
논문
A thorough review on the current advance of neural network structures.
https://www.scienced[...]
2019
[6]
논문
State-of-the-art in artificial neural network applications: A survey
2018-11-01
[7]
논문
The Importance of Cajal's and Lorente de Nó's Neuroscience to the Birth of Cybernetics
http://journals.sage[...]
2023-07-05
[8]
서적
Histologie du système nerveux de l'homme & des vertébrés
https://archive.org/[...]
Paris : A. Maloine
1909
[9]
논문
Vestibulo-Ocular Reflex Arc
http://archneurpsyc.[...]
1933-08-01
[10]
논문
Some predictions of Rafael Lorente de Nó 80 years later
2014-12-03
[11]
웹사이트
reverberating circuit
https://www.oxfordre[...]
2024-07-27
[12]
논문
A logical calculus of the ideas immanent in nervous activity
http://link.springer[...]
December 1943
[13]
논문
On the legacy of W.S. McCulloch
https://linkinghub.e[...]
April 2007
[14]
논문
Warren McCulloch's Search for the Logic of the Nervous System
https://muse.jhu.edu[...]
December 2000
[15]
논문
Central Effects of Centripetal Impulses in Axons of Spinal Ventral Roots
https://www.physiolo[...]
1946-05-01
[16]
논문
Recurrent Neural Networks
2013-02-22
[17]
서적
Perceptual Generalization over Transformation Groups
Pergamon Press
[18]
서적
DTIC AD0256582: PRINCIPLES OF NEURODYNAMICS. PERCEPTRONS AND THE THEORY OF BRAIN MECHANISMS
https://archive.org/[...]
Defense Technical Information Center
1961-03-15
[19]
서적
Pattern Recognition and Machine Learning
1971
[20]
논문
Associatron-A Model of Associative Memory
1972
[21]
논문
Learning patterns and pattern sequences by self-organizing nets of threshold elements
1972
[22]
논문
The Existence of Persistent States in the Brain
[23]
논문
Beiträge zum Verständnis der magnetischen Eigenschaften in festen Körpern
[24]
논문
Beitrag zur Theorie des Ferromagnetismus
[25]
논문
History of the Lenz-Ising Model
[26]
논문
Roy J. Glauber "Time-Dependent Statistics of the Ising Model"
https://aip.scitatio[...]
2021-03-21
[27]
논문
Solvable Model of a Spin-Glass
https://link.aps.org[...]
1975-12-29
[28]
논문
Neural networks and physical systems with emergent collective computational abilities
1982
[29]
논문
Neurons with graded response have collective computational properties like those of two-state neurons
1984
[30]
서적
Statistical mechanics of learning
Cambridge University Press
2001
[31]
논문
Statistical mechanics of learning from examples
https://journals.aps[...]
1992-04-01
[32]
서적
Dive into deep learning
Cambridge University Press
2024
[33]
논문
Learning representations by back-propagating errors
https://www.nature.c[...]
October 1986
[34]
서적
Habilitation thesis: System modeling and optimization
ftp://ftp.idsia.ch/p[...]
[35]
Wikidata
[36]
논문
Long Short-Term Memory
1997-11-01
[37]
논문
Bidirectional recurrent neural networks
https://www.research[...]
1997
[38]
논문
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
2005-07-01
[39]
학회발표
An Application of Recurrent Neural Networks to Discriminative Keyword Spotting
http://dl.acm.org/ci[...]
Springer-Verlag
2007
[40]
학회발표
Photo-Real Talking Head with Deep Bidirectional LSTM
2015
[41]
웹사이트
Google voice search: faster and more accurate
http://googleresearc[...]
2015-09
[42]
논문
Sequence to Sequence Learning with Neural Networks
https://papers.nips.[...]
2014
[43]
arXiv
Exploring the Limits of Language Modeling
2016-02-07
[44]
arXiv
Multilingual Language Processing From Bytes
2015-11-30
[45]
arXiv
Show and Tell: A Neural Image Caption Generator
2014-11-17
[46]
arXiv
Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation
2014-06-03
[47]
arXiv
Sequence to sequence learning with neural networks
2014-12-14
[48]
arXiv
Deep contextualized word representations
2018
[49]
논문
Attention is All you Need
https://proceedings.[...]
Curran Associates, Inc.
2017
[50]
논문
Pixel Recurrent Neural Networks
https://proceedings.[...]
PMLR
2016-06-11
[51]
서적
Neural Networks as Cybernetic Systems
http://www.brains-mi[...]
[52]
논문
Finding Structure in Time
1990
[53]
학회발표
Neural-Network Models of Cognition — Biobehavioral Foundations
1997-01-01
[54]
논문
Learning Precise Timing with LSTM Recurrent Networks
http://www.jmlr.org/[...]
2002
[55]
서적
Artificial Neural Networks – ICANN 2009
http://mediatum.ub.t[...]
Springer
2009-09-14
[56]
학회발표
Sequence labelling in structured domains with hierarchical recurrent neural networks
https://www.ijcai.or[...]
2007
[57]
arXiv
Simplified Minimal Gated Unit Variations for Recurrent Neural Networks
2017-01-12
[58]
arXiv
Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks
2017-01-20
[59]
웹사이트
Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML
http://www.wildml.co[...]
2015-10-27
[60]
arXiv
Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling
2014
[61]
논문
Are GRU cells more specific and LSTM cells more sensitive in motive classification of text?
2020
[62]
논문
Bidirectional associative memories
1988
[63]
논문
Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control
2015-01-02
[64]
서적
Neural networks: a systematic introduction
https://books.google[...]
Springer
1996
[65]
논문
Harnessing Nonlinearity: Predicting Chaotic Systems and Saving Energy in Wireless Communication
2004-04-02
[66]
논문
Real-time computing without stable states: a new framework for neural computation based on perturbations
https://igi-web.tugr[...]
2002
[67]
학회발표
Proceedings of International Conference on Neural Networks (ICNN'96)
1996
[68]
MSc
The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors
University of Helsinki
1970
[69]
서적
Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation
https://books.google[...]
SIAM
2008
[70]
학회발표
28th International Conference on Machine Learning (ICML 2011)
2011
[71]
논문
Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank
http://nlp.stanford.[...]
[72]
arXiv
Neural Turing Machines
[73]
논문
Hybrid computing using a neural network with dynamic external memory
http://www.nature.co[...]
2016-10-12
[74]
서적
Adaptive Processing of Sequences and Data Structures
Springer
[75]
논문
Turing machines are recurrent neural networks
1996
[76]
서적
The Utility Driven Dynamic Error Propagation Network
https://books.google[...]
Department of Engineering, University of Cambridge
[77]
서적
Backpropagation: Theory, Architectures, and Applications
https://books.google[...]
Psychology Press
2013-02-01
[78]
논문
A Local Learning Algorithm for Dynamic Feedforward and Recurrent Networks
1989-01-01
[79]
서적
Neural and adaptive systems: fundamentals through simulations
https://books.google[...]
Wiley
[80]
arXiv
Training recurrent networks online without backtracking
2015-07-28
[81]
논문
A Fixed Size Storage O(n3) Time Complexity Learning Algorithm for Fully Recurrent Continually Running Networks
1992-03-01
[82]
보고서
Complexity of exact gradient computation algorithms for recurrent neural networks
http://citeseerx.ist[...]
Northeastern University, College of Computer Science
1989
[83]
논문
Learning State Space Trajectories in Recurrent Neural Networks
http://repository.cm[...]
1989-06-01
[84]
서적
A Field Guide to Dynamical Recurrent Networks
John Wiley & Sons
2001-01-15
[85]
논문
On-Line Learning Algorithms for Locally Recurrent Neural Networks
[86]
논문
Diagrammatic derivation of gradient algorithms for neural networks
[87]
논문
A Signal-Flow-Graph Approach to On-line Gradient Calculation
[88]
학회논문
Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks
https://axon.cs.byu.[...]
[89]
논문
Sequence Modeling with CTC
https://distill.pub/[...]
2017-11-27
[90]
citation
IJCAI 99
Morgan Kaufmann
[91]
MSc
Applying Genetic Algorithms to Recurrent Neural Networks for Learning Network Parameters and Architecture
http://arimaa.com/ar[...]
Department of Electrical Engineering, Case Western Reserve University
1995-05
[92]
논문
Accelerated Neural Evolution Through Cooperatively Coevolved Synapses
https://www.jmlr.org[...]
2008-06
[93]
arXiv
Independently Recurrent Neural Network (IndRNN): Building a Longer and Deeper RNN
[94]
논문
Learning complex, extended sequences using the principle of history compression
ftp://ftp.idsia.ch/p[...]
[95]
논문
Deep Learning
[96]
Diploma
Untersuchungen zu dynamischen neuronalen Netzen
http://people.idsia.[...]
Institut f. Informatik, Technische University Munich
1991
[97]
논문
Learning and Extracting Finite State Automata with Second-Order Recurrent Neural Networks
https://clgiles.ist.[...]
[98]
논문
Constructing Deterministic Finite-State Automata in Recurrent Neural Networks
[99]
논문
How Hierarchical Control Self-organizes in Artificial Adaptive Systems
2005-09-01
[100]
웹사이트
A Bergson-Inspired Adaptive Time Constant for the Multiple Timescales Recurrent Neural Network Model. JNNS
https://www.research[...]
[101]
논문
Forecasting CPI inflation components with Hierarchical Recurrent Neural Networks
2023
[102]
서적
Recurrent Multilayer Perceptrons for Identification and Control: The Road to Applications
University of Würzburg Am Hubland
1995-06
[103]
논문
Emergence of Functional Hierarchy in a Multiple Timescale Neural Network Model: A Humanoid Robot Experiment
2008-11-07
[104]
논문
The hierarchical and functional connectivity of higher-order cognitive mechanisms: neurorobotic model to investigate the stability and flexibility of working memory
[105]
웹사이트
Proceedings of the 28th Annual Conference of the Japanese Neural Network Society (October, 2018)
http://jnns.org/conf[...]
[106]
논문
Cortical computing with memristive nanodevices
http://www.scidacrev[...]
2019-09-06
[107]
논문
The complex dynamics of memristive circuits: analytical results and universal slow relaxation
[108]
간행물
3rd international conference on Simulation of adaptive behavior: from animals to animats 3
[109]
컨퍼런스
Evolving communication without dedicated communication channels
[110]
논문
The dynamics of adaptive behavior: A research program
[111]
컨퍼런스
Deriving the Recurrent Neural Network Definition and RNN Unrolling Using Signal Processing
https://www.research[...]
2018-12-07
[112]
논문
Computational Capabilities of Recurrent NARX Neural Networks
https://books.google[...]
[113]
논문
Comparative analysis of Recurrent and Finite Impulse Response Neural Networks in Time Series Prediction
http://www.ijcse.com[...]
2012-02-01
[114]
논문
Brain inspired neuronal silencing mechanism to enable reliable sequence identification
2022-09-29
[115]
뉴스
Google Built Its Very Own Chips to Power Its AI Bots
https://www.wired.co[...]
2016-05-18
[116]
컨퍼런스
2006 IEEE/RSJ International Conference on Intelligent Robots and Systems
2006-10-01
[117]
컨퍼런스
Evolino: Hybrid Neuroevolution/Optimal Linear Search for Sequence Learning
https://www.academia[...]
[118]
논문
Recurrent neural networks for time series forecasting
2019-01-01
[119]
논문
Recurrent Neural Networks for Time Series Forecasting: Current Status and Future Directions
[120]
논문
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
[121]
컨퍼런스
Speech recognition with deep recurrent neural networks
[122]
논문
Speech synthesis from neural decoding of spoken sentences
2019-04-24
[123]
논문
Neuroprosthesis for Decoding Speech in a Paralyzed Person with Anarthria
2021-07-15
[124]
컨퍼런스
Long Short Term Memory Networks for Anomaly Detection in Time Series
https://books.google[...]
Ciaco
2015-04-01
[125]
웹사이트
Papers with Code - DeepHS-HDRVideo: Deep High Speed High Dynamic Range Video Reconstruction
https://paperswithco[...]
2022-10-13
[126]
논문
Learning precise timing with LSTM recurrent networks
http://www.jmlr.org/[...]
[127]
서적
Artificial Neural Networks — ICANN 2002
Springer
2002-08-28
[128]
논문
Learning nonregular languages: A comparison of simple recurrent networks and LSTM
[129]
논문
LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages
ftp://ftp.idsia.ch/p[...]
2017-12-12
[130]
논문
Kalman filters improve LSTM network performance in problems unsolvable by traditional recurrent nets
[131]
컨퍼런스
Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks
http://papers.neurip[...]
MIT Press
[132]
컨퍼런스
Unconstrained Online Handwriting Recognition with Recurrent Neural Networks
http://dl.acm.org/ci[...]
Curran Associates
[133]
서적
Human Behavior Unterstanding
Springer
[134]
논문
Fast model-based protein homology detection without alignment
[135]
논문
Bidirectional Long Short-Term Memory Networks for Predicting the Subcellular Localization of Eukaryotic Proteins
2007-07-01
[136]
서적
Advanced Information Systems Engineering
[137]
논문
Doctor AI: Predicting Clinical Events via Recurrent Neural Networks
http://proceedings.m[...]
[138]
웹사이트
Artificial intelligence helps accelerate progress toward efficient fusion reactions
https://www.princeto[...]
2023-06-12
[139]
서적
Serial order: A parallel distributed processing approach
University of California, Institute for Cognitive Science
[140]
서적
Robust Automatic Speech Recognition
Academic Press
[141]
논문
A Novel Connectionist System for Improved Unconstrained Handwriting Recognition
http://www.idsia.ch/[...]
[142]
웹사이트
Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling
https://static.googl[...]
2014
[143]
arxiv
Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition
2014-10-15
[144]
논문
Comparative analysis of Recurrent and Finite Impulse Response Neural Networks in Time Series Prediction
http://www.ijcse.com[...]
2012-02-01
[145]
서적
[146]
논문
ニューラルネットワークによる構造学習の発展
http://id.nii.ac.jp/[...]
[147]
논문
Learning representations by back-propagating errors
https://www.nature.c[...]
1986-10-01
[148]
서적
Habilitation thesis: System modeling and optimization
ftp://ftp.idsia.ch/p[...]
[149]
논문
An Application of Recurrent Neural Networks to Discriminative Keyword Spotting
http://dl.acm.org/ci[...]
Springer-Verlag
2007
[150]
논문
Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks
https://papers.nips.[...]
2009
[151]
arxiv
Deep Speech: Scaling up end-to-end speech recognition
2014-12-17
[152]
논문
Photo-Real Talking Head with Deep Bidirectional LSTM
[153]
웹사이트
Unidirectional Long Short-Term Memory Recurrent Neural Network with Recurrent Output Layer for Low-Latency Speech Synthesis
https://static.googl[...]
ICASSP
2015
[154]
웹사이트
Google voice search: faster and more accurate
http://googleresearc[...]
2015-09-01
[155]
논문
Sequence to Sequence Learning with Neural Networks
https://papers.nips.[...]
2014
[156]
arxiv
Exploring the Limits of Language Modeling
2016-02-07
[157]
arxiv
Multilingual Language Processing From Bytes
2015-11-30
[158]
arxiv
Show and Tell: A Neural Image Caption Generator
2014-11-17
[159]
서적
Neural Networks as Cybernetic Systems
http://www.brains-mi[...]
[160]
논문
Finding Structure in Time
[161]
서적
Serial Order: A Parallel Distributed Processing Approach
1997-01-01
[162]
논문
Bidirectional associative memories
1988
[163]
논문
Exponential stability for markovian jumping stochastic BAM neural networks with mode-dependent probabilistic time-varying delays and impulse control
2015-01-02
[164]
서적
Neural networks: a systematic introduction
https://books.google[...]
Springer
[165]
논문
Harnessing Nonlinearity: Predicting Chaotic Systems and Saving Energy in Wireless Communication
2004-04-02
[166]
논문
A fresh look at real-time computation in generic recurrent neural circuits
http://www.lsm.tugra[...]
TU Graz
[167]
논문
Independently Recurrent Neural Network (IndRNN): Building A Longer and Deeper RNN
[168]
논문
Learning task-dependent distributed representations by backpropagation through structure
https://pdfs.semanti[...]
[169]
간행물
The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors
[170]
서적
Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation
https://books.google[...]
SIAM
[171]
논문
28th International Conference on Machine Learning (ICML 2011)
[172]
논문
Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank
http://nlp.stanford.[...]
[173]
논문
Learning complex, extended sequences using the principle of history compression
ftp://ftp.idsia.ch/p[...]
[174]
논문
Deep Learning
http://www.scholarpe[...]
[175]
간행물
Untersuchungen zu dynamischen neuronalen Netzen
http://people.idsia.[...]
[176]
논문
Learning and Extracting Finite State Automata with Second-Order Recurrent Neural Networks
https://clgiles.ist.[...]
[177]
논문
Constructing Deterministic Finite-State Automata in Recurrent Neural Networks
http://citeseerx.ist[...]
[178]
논문
Learning Precise Timing with LSTM Recurrent Networks (PDF Download Available)
https://www.research[...]
2019-04-05
[179]
논문
Deep Learning in Neural Networks: An Overview
2015-01
[180]
논문
Evolving Memory Cell Structures for Sequence Learning
http://mediatum.ub.t[...]
Springer, Berlin, Heidelberg
2009-09-14
[181]
논문
Sequence labelling in structured domains with hierarchical recurrent neural networks
[182]
논문
Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks
[183]
논문
LSTM recurrent networks learn simple context-free and context-sensitive languages
http://ieeexplore.ie[...]
2001-11
[184]
논문
Simplified Minimal Gated Unit Variations for Recurrent Neural Networks
2017-01-12
[185]
논문
Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks
2017-01-20
[186]
논문
Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling
[187]
웹사이트
Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML
http://www.wildml.co[...]
2019-04-05
[188]
논문
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
2005-07-01
[189]
논문
Bidirectional Long Short-Term Memory Networks for Predicting the Subcellular Localization of Eukaryotic Proteins
2007-07
[190]
논문
3rd international conference on Simulation of adaptive behavior: from animals to animats 3
https://www.research[...]
[191]
논문
Evolving communication without dedicated communication channels
[192]
논문
The dynamics of adaptive behavior: A research program
[193]
논문
How Hierarchical Control Self-organizes in Artificial Adaptive Systems
2005-09-01
[194]
서적
Recurrent Multilayer Perceptrons for Identification and Control: The Road to Applications
[195]
논문
Emergence of Functional Hierarchy in a Multiple Timescale Neural Network Model: A Humanoid Robot Experiment
2008-11-07
[196]
논문
The hierarchical and functional connectivity of higher-order cognitive mechanisms: neurorobotic model to investigate the stability and flexibility of working memory
[197]
논문
Neural Turing Machines
[198]
논문
The Neural Network Pushdown Automaton: Architecture, Dynamics and Training
Springer Berlin Heidelberg
[199]
서적
Serial order: A parallel distributed processing approach
University of California, Institute for Cognitive Science
[200]
서적
Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers
[201]
논문
HiPPO: Recurrent Memory with Optimal Polynomial Projections
https://proceedings.[...]
NeurIPS
[202]
서적
Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers
[203]
서적
Efficiently Modeling Long Sequences with Structured State Spaces
[204]
논문
Generalization of backpropagation with application to a recurrent gas market model
http://linkinghub.el[...]
[205]
서적
Learning Internal Representations by Error Propagation
Institute for Cognitive Science, University of California, San Diego
[206]
서적
The Utility Driven Dynamic Error Propagation Network. Technical Report CUED/F-INFENG/TR.1
University of Cambridge Department of Engineering
[207]
서적
Backpropagation: Theory, Architectures, and Applications
Psychology Press
2013-02-01
[208]
논문
A Local Learning Algorithm for Dynamic Feedforward and Recurrent Networks
[209]
서적
Neural and adaptive systems: fundamentals through simulations
Wiley
[210]
논문
Training recurrent networks online without backtracking
2015-07-28
[211]
논문
A Fixed Size Storage O(n3) Time Complexity Learning Algorithm for Fully Recurrent Continually Running Networks
1992-03-01
[212]
논문
Complexity of exact gradient computation algorithms for recurrent neural networks. Technical Report Technical Report NU-CCS-89-27
http://citeseerx.ist[...]
Northeastern University, College of Computer Science
1989
[213]
논문
Learning State Space Trajectories in Recurrent Neural Networks
https://doi.org/10.1[...]
1989-06-01
[214]
서적
A Field Guide to Dynamical Recurrent Networks
https://books.google[...]
John Wiley & Sons
2001-01-15
[215]
논문
Long Short-Term Memory
1997-11-01
[216]
논문
On-Line Learning Algorithms for Locally Recurrent Neural Networks
1999
[217]
논문
Diagrammatic derivation of gradient algorithms for neural networks
https://doi.org/10.1[...]
1996
[218]
논문
A Signal-Flow-Graph Approach to On-line Gradient Calculation
2000
[219]
간행물
IJCAI 99
http://www.cs.utexas[...]
Morgan Kaufmann
2019-04-05
[220]
웹사이트
Applying Genetic Algorithms to Recurrent Neural Networks for Learning Network Parameters and Architecture
http://arimaa.com/ar[...]
2019-04-05
[221]
논문
Accelerated Neural Evolution Through Cooperatively Coevolved Synapses
http://dl.acm.org/ci[...]
2008-06
[222]
논문
HiPPO: Recurrent Memory with Optimal Polynomial Projections
https://arxiv.org/ab[...]
2020
[223]
논문
HiPPO: Recurrent Memory with Optimal Polynomial Projections
https://arxiv.org/ab[...]
2020
[224]
논문
Unitary Evolution Recurrent Neural Networks
https://arxiv.org/ab[...]
2015
[225]
논문
Unitary Evolution Recurrent Neural Networks
https://arxiv.org/ab[...]
2015
[226]
논문
HiPPO: Recurrent Memory with Optimal Polynomial Projections
https://arxiv.org/ab[...]
2020
[227]
서적
Computational Capabilities of Recurrent NARX Neural Networks
https://books.google[...]
University of Maryland
1995
[228]
논문
A System for Robotic Heart Surgery that Learns to Tie Knots Using Recurrent Neural Networks
http://ieeexplore.ie[...]
2006-10
[229]
논문
Evolino: Hybrid Neuroevolution/Optimal Linear Search for Sequence Learning
https://www.academia[...]
2005
[230]
논문
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
2005
[231]
논문
An Application of Recurrent Neural Networks to Discriminative Keyword Spotting
http://dl.acm.org/ci[...]
Springer-Verlag
2007
[232]
논문
Speech Recognition with Deep Recurrent Neural Networks
2013
[233]
논문
Long Short Term Memory Networks for Anomaly Detection in Time Series
https://www.elen.ucl[...]
2015-04
[234]
논문
Learning precise timing with LSTM recurrent networks
http://www.jmlr.org/[...]
2002
[235]
논문
Learning the Long-Term Structure of the Blues
Springer, Berlin, Heidelberg
2002-08-28
[236]
논문
Learning nonregular languages: A comparison of simple recurrent networks and LSTM
2002
[237]
논문
LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages
ftp://ftp.idsia.ch/p[...]
2001
[238]
논문
Kalman filters improve LSTM network performance in problems unsolvable by traditional recurrent nets
2003
[239]
논문
Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks
MIT Press
2009
[240]
논문
Unconstrained Online Handwriting Recognition with Recurrent Neural Networks
http://dl.acm.org/ci[...]
Curran Associates Inc.
2007
[241]
논문
Sequential Deep Learning for Human Action Recognition
Springer
2011
[242]
논문
Fast model-based protein homology detection without alignment
2007
[243]
논문
Bidirectional Long Short-Term Memory Networks for predicting the subcellular localization of eukaryotic proteins
2007
[244]
논문
Predictive Business Process Monitoring with LSTM neural networks
2017
[245]
논문
Doctor AI: Predicting Clinical Events via Recurrent Neural Networks
http://proceedings.m[...]
2016
[246]
저널
A thorough review on the current advance of neural network structures
https://www.scienced[...]
2019
[247]
저널
State-of-the-art in artificial neural network applications: A survey
https://www.scienced[...]
2018-11-01
[248]
저널
Time series forecasting using artificial neural networks methodologies: A systematic review
https://www.scienced[...]
2018-12-01
[249]
저널
A Novel Connectionist System for Improved Unconstrained Handwriting Recognition
http://www.idsia.ch/[...]
[250]
웹인용
Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling
https://static.googl[...]
2014
[251]
arxiv
[252]
저널
Comparative analysis of Recurrent and Finite Impulse Response Neural Networks in Time Series Prediction
http://www.ijcse.com[...]
2012-02-01 # Feb-Mar 로 추정
[253]
저널
Learning representations by back-propagating errors
1986-10-01 # October 로 추정
[254]
서적
Habilitation thesis: System modeling and optimization
ftp://ftp.idsia.ch/p[...]
[255]
저널
Long Short-Term Memory
1997-11-01
[256]
서적
An Application of Recurrent Neural Networks to Discriminative Keyword Spotting
http://dl.acm.org/ci[...]
Springer-Verlag
[257]
저널
Deep Learning in Neural Networks: An Overview
2015-01-01 # January 로 추정
[258]
저널
Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks
https://papers.nips.[...]
Neural Information Processing Systems (NIPS) Foundation
[259]
arxiv
Deep Speech: Scaling up end-to-end speech recognition
2014-12-17
[260]
웹인용
Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling
https://static.googl[...]
2020-10-08 # 확인날짜
[261]
arxiv
Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition
2014-10-15
[262]
간행물
Photo-Real Talking Head with Deep Bidirectional LSTM
[263]
웹인용
Unidirectional Long Short-Term Memory Recurrent Neural Network with Recurrent Output Layer for Low-Latency Speech Synthesis
https://static.googl[...]
ICASSP
[264]
웹인용
Google voice search: faster and more accurate
http://googleresearc[...]
2015-09-01 # September 로 추정
[265]
저널
Sequence to Sequence Learning with Neural Networks
https://papers.nips.[...]
[266]
arxiv
Exploring the Limits of Language Modeling
2016-02-07
[267]
arxiv
Multilingual Language Processing From Bytes
2015-11-30
[268]
arxiv
Show and Tell: A Neural Image Caption Generator
2014-11-17
[269]
간행물
A Survey on Hardware Accelerators and Optimization Techniques for RNNs
https://www.research[...]
[270]
서적
Neural Networks as Cybernetic Systems
http://www.brains-mi[...]
[271]
저널
Finding Structure in Time
[272]
서적
Neural-Network Models of Cognition - Biobehavioral Foundations
1997-01-01
[273]
저널
Learning Precise Timing with LSTM Recurrent Networks
http://www.jmlr.org/[...]
2017-06-13 # access-date
[274]
논문
Untersuchungen zu dynamischen neuronalen Netzen
http://people.idsia.[...]
[275]
저널
Deep Learning in Neural Networks: An Overview
2015-01-01 # January 로 추정
[276]
서적
Evolving Memory Cell Structures for Sequence Learning
http://mediatum.ub.t[...]
Springer
2009-09-14
[277]
저널
Sequence labelling in structured domains with hierarchical recurrent neural networks
[278]
저널
Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks
[279]
저널
LSTM recurrent networks learn simple context-free and context-sensitive languages
https://semanticscho[...]
2001-11-01 # November 로 추정
[280]
arxiv
Simplified Minimal Gated Unit Variations for Recurrent Neural Networks
2017-01-12
[281]
ArXiv
Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks
2017-01-20
[282]
웹사이트
Recurrent Neural Network Tutorial, Part 4 – Implementing a GRU/LSTM RNN with Python and Theano – WildML
http://www.wildml.co[...]
2015-10-27
[283]
ArXiv
Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling
2014
[284]
저널
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
2005-07-01
[285]
저널
Bidirectional Long Short-Term Memory Networks for Predicting the Subcellular Localization of Eukaryotic Proteins
2007-07
[286]
저널
Sequence to Sequence Learning with Neural Networks
https://papers.nips.[...]
2014
[287]
서적
A System for Robotic Heart Surgery that Learns to Tie Knots Using Recurrent Neural Networks
2006-10
[288]
저널
Evolino: Hybrid Neuroevolution/Optimal Linear Search for Sequence Learning
https://www.academia[...]
2005
[289]
ArXiv
Recurrent neural networks for time series forecasting
2019-01-01
[290]
저널
Recurrent Neural Networks for Time Series Forecasting: Current Status and Future Directions
2020
[291]
저널
Framewise phoneme classification with bidirectional LSTM and other neural network architectures
2005
[292]
서적
An Application of Recurrent Neural Networks to Discriminative Keyword Spotting
http://dl.acm.org/ci[...]
Springer-Verlag
2007
[293]
저널
Speech Recognition with Deep Recurrent Neural Networks
2013
[294]
저널
Speech synthesis from neural decoding of spoken sentences
2019-04-24
[295]
저널
Long Short Term Memory Networks for Anomaly Detection in Time Series
https://www.elen.ucl[...]
2015-04
[296]
저널
Learning precise timing with LSTM recurrent networks
http://www.jmlr.org/[...]
2002
[297]
서적
Learning the Long-Term Structure of the Blues
Springer
2002-08-28
[298]
저널
Learning nonregular languages: A comparison of simple recurrent networks and LSTM
2002
[299]
저널
LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages
ftp://ftp.idsia.ch/p[...]
2001
[300]
저널
Kalman filters improve LSTM network performance in problems unsolvable by traditional recurrent nets
2003
[301]
저널
Offline Handwriting Recognition with Multidimensional Recurrent Neural Networks
MIT Press
2009
[302]
서적
Unconstrained Online Handwriting Recognition with Recurrent Neural Networks
http://dl.acm.org/ci[...]
Curran Associates Inc.
2007
[303]
저널
Sequential Deep Learning for Human Action Recognition
Springer
2011
[304]
저널
Fast model-based protein homology detection without alignment
2007
[305]
저널
Bidirectional Long Short-Term Memory Networks for Predicting the Subcellular Localization of Eukaryotic Proteins
2007-07
[306]
서적
Predictive Business Process Monitoring with LSTM neural networks
2017
관련 사건 타임라인
( 최근 20개의 뉴스만 표기 됩니다. )
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com