맨위로가기

독순술

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

독순술은 입술, 치아, 혀의 움직임을 통해 음성을 이해하는 기술을 의미한다. 음성 인식은 시각 정보를 활용하는 멀티모달 과정으로, 음소와 비점소의 차이를 이해하는 것이 중요하다. 독순술은 청각 장애인의 의사소통 수단으로 사용되며, 훈련을 통해 능력을 향상시킬 수 있다. 최근에는 기계 학습 기술을 활용한 자동 입술 읽기 연구도 진행되고 있다. 독순술은 뇌의 여러 영역을 활성화시키며, 뇌의 활동과 독순술 능력 간의 연관성에 대한 연구가 이루어지고 있다.

더 읽어볼만한 페이지

  • 농문화 - 수화
    수화는 손동작, 얼굴 표정 등을 활용하는 독립적인 언어이며, 각 나라마다 고유한 형태를 가지며, 농인들의 언어와 문화를 형성하는 데 중요한 역할을 한다.
  • 농문화 - 농아
    농아는 청각 및 언어 장애를 겪는 상태를 의미하며, 과거에는 의사소통의 어려움으로 사회적 제약이 있었으나 교육 기술 발달로 사회적 인식이 변화하였고, 수화, 구화 등 다양한 교육 방식으로 청각 장애 교육이 이루어지고 있다.
  • 의사소통 - 번역
    번역은 출발어 텍스트를 목표어로 변환하는 과정으로, 직역과 의역 등의 방식을 통해 완역 또는 축약역으로 나뉘며, 기계 번역과 인간 번역의 차이, 그리고 문화와 사상의 교류라는 중요한 의미를 지닌다.
  • 의사소통 - 인간-컴퓨터 상호 작용
    인간-컴퓨터 상호작용(HCI)은 인간과 컴퓨터 간의 효과적이고 효율적인 상호작용을 설계, 구현, 평가하는 학제간 분야로, 사용자 중심 설계 원칙을 통해 사용성, 효율성, 접근성을 개선하는 데 중점을 두며, 인공지능, 감정 컴퓨팅, 뇌-컴퓨터 인터페이스, 그리고 보안 상호작용 등의 새로운 연구 영역이 발전하고 있다.
  • 지각 - 마음
    마음은 의식, 사고, 지각, 감정, 동기, 행동, 기억, 학습 등을 포괄하는 심리적 현상과 능력의 총체이며, 다양한 분야에서 연구되고 인간 삶의 중추적인 역할을 한다.
  • 지각 - 비판적 사고
    비판적 사고는 정보를 객관적으로 분석하고 평가하여 합리적인 결론을 도출하는 사고 과정이며, 문제 해결, 의사 결정, 메타인지 등을 포함하고 오류를 피하며 이해하려는 노력을 강조한다.
독순술
기본 정보
명칭독순술
다른 이름입술 읽기
시각적 언어 이해
설명소리가 없는 상황에서 제한된 범위의 음성을 이해하는 기술

2. 과정

음성 인식은 청각 기술로 간주되지만, 본질적으로 다중 감각적(multimodal)이다. 음성 생성에는 입술, 치아, 혀의 움직임이 필요하며, 이는 대면 의사소통에서 시각적으로 나타나기 때문이다. 입과 얼굴에서 얻는 정보는 청각적 이해를 돕고, 대부분의 유창한 언어 사용자는 시각적인 발화 동작에 민감하다(맥거크 효과 참조).[85][3] 시각적인 발화 동작을 활용하는 정도는 발화 동작의 가시성과 지각자의 지식 및 기술에 따라 달라진다.

독순술의 기원은 18세기 알렉산더 그레이엄 벨의 아버지이자 농아 교육가인 알렉산더 멜빌 벨이 발명한 것으로 알려져 있다. 일본에는 쇼와 시대 초기에 소개되었다.

독순술은 종종 "멀리 떨어진 사람의 대화를 모두 읽어내는 스파이 기술"처럼 묘사되지만, 실제로는 매우 제한적인 정보만을 읽어낼 수 있다. 숙련된 독순술 전문가(매일 독순을 하는 청각 장애인 등)가 보청기 등의 보조 장치를 활용하고, 독순 대상자가 충분히 이해하고 천천히 명료하게 말하며, 정면에서 가까운 거리에서 관찰하는 이상적인 조건에서도 100% 내용을 파악하기는 어렵다. 실제로 자음(あかさたな)을 거울로 보아도 구별하는 것은 불가능하며, 이는 청각 장애인 커뮤니티에서 수화가 발달한 이유 중 하나이다.

특히 탁음(파와 바, 카와 가 등)의 구별이 어려운데, 순수하게 시각적인 정보만으로는 발화 내용을 30~40% 정도만 식별할 수 있다고 추정된다. 하지만 독순술은 소리가 들리지 않아도 대화를 읽을 수 있는 마법 같은 기술은 아니지만, 일부 난청인 및 농인에게는 중요한 의사소통 수단 중 하나로 활용되고 있다.

2. 1. 음소와 비점소

음소는 단어를 서로 구별하는 데 사용되는 언어에서 가장 작은 감지 가능한 음성 단위이다. 예를 들어 /pit/와 /pik/는 하나의 음소 차이로 다른 개념을 나타낸다. 영어에는 약 44개의 음소가 있다. 입술 읽기에서 시각적으로 구별되는 단위인 비점소의 수는 훨씬 적으므로, 여러 음소가 몇 개의 비점소에 매핑된다. 이는 많은 음소가 입과 목 안에서 생성되어 보기가 어렵기 때문이다. 여기에는 성문 자음과 혀의 대부분의 움직임이 포함된다. 유성음무성음 쌍은 [p]와 [b], [k]와 [g], [t]와 [d], [f]와 [v], [s]와 [z]처럼 동일하게 보이며, 비음화의 경우도 마찬가지이다(예: [m] vs. [b]).[85] 동음이의어는 입술 읽기로 볼 때 비슷하게 보이지만 다른 음소를 포함하는 단어이다. 영어에는 비점소보다 음소가 약 세 배 더 많기 때문에, 말의 30%만 입술 읽기가 가능하다는 주장이 종종 제기된다. 동음이의어는 입술 읽기 오류의 중요한 원천이다.

2. 2. 동시 조음 (Co-articulation)

시각소는 정지 이미지로 캡처할 수 있지만, 말은 시간 속에서 전개된다. 연속된 음성의 부드러운 조음은 입 모양이 인접한 음소에 의해 '형성'될 수 있음을 의미한다. 'tooth'의 'th' 소리와 'teeth'의 'th' 소리는 모음의 맥락 때문에 매우 다르게 나타난다. 이러한 동적 구화 시각 판독의 특징은 시각소를 넘어 입술 읽기에 영향을 미친다.[5]

2. 3. 적은 수의 비점소로 가능한 이유

비시메는 독순술을 이해하는 데 유용한 출발점을 제공하지만, 비시메 내의 발음 구분이 가능하며 식별을 지원할 수 있다.[6] 게다가, 언어의 어휘 내에서 음소의 통계적 분포는 균등하지 않다. 서로 음소적으로 유사한 단어의 무리(예: spit/sip/sit/stick 등과 같은 '어휘 이웃')가 있지만, 다른 단어들은 다른 모든 단어와 다르다. 즉, 음소의 분포 측면에서 '고유'하다(예: 'umbrella'가 그 예시가 될 수 있다). 숙련된 언어 사용자는 이러한 지식을 사용하여 연설을 해석하므로, 어휘 이웃이 많은 단어보다 이웃이 적은 단어를 식별하는 것이 일반적으로 더 어렵다. 이 통찰력을 보이는 연설에 적용하면, 언어 내의 일부 단어는 비시메가 거의 포함되어 있지 않더라도 모호하지 않게 입술로 읽을 수 있다. 다른 단어가 '적합'할 수 없기 때문이다.[7]

2. 4. 가독성 및 기술의 다양성

말하는 얼굴의 가시성은 조명, 머리/카메라의 움직임, 움직이는 이미지의 프레임 속도, 시청자와의 거리 등 여러 요인에 의해 영향을 받는다[8]. 일반적인 말하기에 동반되는 머리 움직임은 입술 읽기를 향상시킬 수 있다[9]. 그러나, 연결된 음성의 입술 읽기에서, 시청자가 구사하는 언어에 대한 지식, 화자에 대한 친숙함, 말하기 스타일, 입술로 읽는 자료의 맥락[10]은 화자의 가시성만큼 중요하다. 대부분의 청력 정상인들은 보이는 말에 민감하지만, 개인의 입술 읽기 능력에는 큰 차이가 있다. 입술 읽기를 잘하는 사람은 시각적 음성에서 음소를 식별하는 데 있어 입술 읽기를 못하는 사람보다 더 정확한 경우가 많다.

3. 청각 장애와 독순술

독순술은 청각 장애인 교육에서 중요한 역할을 해왔다.[43] 20세기에는 독순술의 유효성이 과대평가되어, 중도 난청 아동도 적절한 훈련을 받으면 독순술을 통해 음성 언어를 사용할 수 있다고 여겨졌다. 그러나 독순술에는 여러 제약과 한계가 있어, 1970년대 이후 미국을 중심으로 농인 커뮤니티의 큰 반발을 초래하기도 했다.

그럼에도 불구하고, 독순술은 일부 난청자 및 농인에게 중요한 의사소통 수단 중 하나로 활용되고 있다. 청각 장애인은 종종 정상적인 청력을 가진 사람들보다 더 나은 독순술 능력을 가지고 있다.[45] 인공 와우를 가진 청각 장애인의 경우, 이식 전 독순술 기술이 이식 후 (청각 또는 시청각) 언어 처리를 예측할 수 있다.[47]

큐드 스피치는 시각적 (자음) 입술 모양을 명확하게 하는 손 모양을 동반한 독순술이다.[56]

4. 청각을 가진 유아, 아동 및 성인의 독순술

입을 보는 것은 아주 어린 아기가 말을 감지하는 데 중요한 역할을 한다. 아기는 자신이 듣는 소리에 맞춰 입술 모양을 만드는 법을 배우며, 말하는 사람을 보는 것이 이를 돕는다.[16] 생후 6개월부터 12개월까지 청각 유아는 자신의 언어 음성 구조에 대한 지각적 좁아짐을 보인다.[22]

성인은 소음이 있는 환경에서 말하는 사람을 볼 때 언어 처리에 더 큰 도움을 받는다.[34] 노년기에 청력이 저하됨에 따라 사람들은 독순술에 더 많이 의존한다.[35]

4. 1. 특정 집단의 독순술

자폐 스펙트럼 장애를 가진 사람들은 독순 능력이 감소하고 시청각적 언어 지각에서 시각 의존도가 감소할 수 있다.[37][38] 이는 이러한 사람들의 얼굴 응시 이상과 관련이 있을 수 있다.[39] 윌리엄스 증후군을 가진 사람들은 시공간적 어려움과 별개로 독순에 일부 결함을 보인다.[40] 특정 언어 장애를 가진 어린이들 또한 독순 민감성이 감소하는 것으로 보고되며,[41] 난독증을 가진 사람들도 마찬가지이다.[42]

5. 독순술 교육 및 훈련

독순술 교육 및 훈련의 목적은 독순술의 본질에 대한 인식을 높이고, '눈으로' 말소리를 인지하는 능력을 향상시키는 방법을 연습하는 것이다.[58] 독순술 수업은 '독순술 및 청력 손실 관리 수업'이라고도 불리며, 주로 청력 손실이 있는 성인을 대상으로 한다. 청력 손실이 있는 성인 중 가장 많은 비율은 노화 관련 또는 소음 관련 손실을 겪는다. 이러한 청력 손실은 고주파 소리가 먼저 손실되는 특징을 가지는데, 음성에서 많은 자음이 고주파 소리이므로 음성이 왜곡된다. 보청기가 도움이 될 수 있지만, 완전한 해결책은 되지 못할 수 있다. 청력 손실 지원 단체가 의뢰한 영국 연구에서 독순술 수업의 혜택이 있는 것으로 나타났다.[60]

강사들은 독순술이 정확하지 않은 기술임을 인지하고 있다. 학생들은 입술, 혀, 턱의 움직임을 관찰하고, 언어의 강세와 리듬을 따라가며, 보청기 사용 여부에 관계없이 잔존 청력을 사용하고, 표정과 신체 언어를 관찰하며, 추론하는 능력을 사용하도록 배운다. 또한, 입술에서 비슷하게 보이는 소리 그룹(비즈메)인 p, b, m, 또는 f, v와 같은 [http://limpingchicken.com/2016/04/05/molly-berry-what-lipreading-classes-can-offer-deaf-people/ 독순술사의 알파벳]을 배운다. 독순술 수업의 목표는 대화의 요점을 파악하여 대화에 참여할 수 있는 자신감을 얻고, 청력 손실과 종종 동반되는 사회적 고립을 피하는 것이다. 독순술 수업은 소음 속에서 듣는 데 어려움을 겪는 모든 사람에게 권장되며, 청력 손실에 적응하는 데 도움이 된다.

6. 기계에 의한 독순술

자동 입술 읽기는 전산 공학 분야에서 관심의 대상이 되어 왔다. 얼굴 애니메이션은 구화 훈련에서 사용되어 왔으며,[64] 머신 기반의 구화는 신경망 기반 알고리즘을 성공적으로 사용하고 있다.[69] 기계 입술 읽기의 용도로는 비디오 전용 기록의 자동 입술 읽기, 손상된 성도를 가진 화자의 자동 입술 읽기, 대면 비디오(예: 화상 전화 데이터)에서의 음성 처리가 포함될 수 있다.[70]

7. 뇌와 독순술

보이는 발화는 청각 피질을 포함한 뇌 영역을 활성화시킨다.[73] 구화 판독을 위한 신경 회로망은 상위 모드 처리 영역을 포함한다.[74] 브로카 영역의 활성화가 보고되기도 하는데,[75][76] 이는 조음 메커니즘이 구화 판독에서 활성화될 수 있음을 시사한다.[77] 더 나은 입술 읽기 기술은 청각 능력이 있는 사람의 (좌측) 위관자 고랑 및 인접한 하측 측두(시각) 영역에서 더 큰 활성화와 관련이 있다.[80][81]

8. 독순술 관련 논란 및 오해

독순술은 미디어에서 종종 과장되게 묘사되어 현실과 동떨어진 인식을 심어주기도 한다. 많은 픽션 작품에서는 독순술을 "멀리 떨어진 사람의 대화를 모두 읽어내는 스파이 기술"처럼 묘사하지만, 실제로는 "독순"으로 읽어낼 수 있는 발화 내용은 매우 제한적이다.

매우 숙련된 독순술 전문가(예: 매일 독순을 하는 청각 장애인)가 보청기 등에서 얻는 정보를 참고하고, 발화자가 독순되고 있다는 것을 충분히 이해하며 천천히 명료하게 말하고, 정면에서 가까운 거리에서 읽는다고 해도 모든 내용을 100% 읽어낼 수는 없다. 실제로 자음(あかさたな)을 거울로 보아도 구별하는 것은 불가능하며, 이는 청각 장애인 커뮤니티에서 수화가 발달한 이유이기도 하다. 특히 탁음(파와 바, 카와 가 등)의 판단은 어렵다. 순수하게 시각적인 정보만으로 발화 내용을 식별할 수 있는 확률은 30%에서 40% 정도로 추정된다.[32][33]

독순술은 "소리가 들리지 않아도 대화를 읽을 수 있는 마법 같은 기술"과는 거리가 멀다. 하지만, 독순술이 일부 난청인 및 농인들에게 중요한 의사소통 수단 중 하나라는 사실은 분명하다. 말하는 사람을 보는 것은 음성 특징 구별에서부터 화용론적 발화 해석에 이르기까지 언어 처리의 모든 수준에서 도움이 된다.[33] 들리는 말에 시각을 더하는 긍정적인 효과는 조용한 환경보다 소음이 있는 환경에서 더 크다.[34] 이는 말 지각을 더 쉽게 만들어 말하는 사람을 보는 것이 인지 자원을 확보하여 언어 내용에 대한 더 깊은 처리를 가능하게 한다.

노년기에 청력이 신뢰성이 떨어짐에 따라 사람들은 입술 읽기에 더 많이 의존하는 경향이 있으며, 그렇게 하도록 권장된다. 그러나 입술 읽기에 대한 의존도가 높아지는 것이 항상 노화 관련 청력 손실의 영향을 개선하는 것은 아닐 수 있다. 노화에 따른 인지 기능 저하는 측정 가능한 청력 손실에 선행되거나 관련될 수 있다.[35][36] 따라서 입술 읽기는 청력 및 인지 기능의 노화 관련 감소를 완전히 보상할 수 없는 경우가 있다.

8. 1. 지네딘 지단 머리 가격 사건

2006년 FIFA 월드컵 결승전에서 지네딘 지단마르코 마테라치에게 머리로 들이받은 사건 이후, 언론은 '독순술 전문가'의 분석을 인용하여 마테라치가 지단에게 인종차별적인 발언을 했다고 보도했다.[1] 그러나 이는 사실과 달랐으며, 독순술의 한계와 부정확성을 보여주는 사례로 남았다.[1]

2006년 7월 9일 베를린에서 열린 결승전에서, "독순술 전문가"라고 자칭하는 영국인 제시카 리스는 '타임스' 지의 의뢰를 받아 문제의 장면 비디오를 검증했다.[1] 그 결과, 마테라치가 지단에게 이탈리아어로 "테러리스트의 아들", "꺼져"라는 내용의 모욕을 했다고 보도되었다.[1] 그러나 제시카 리스는 이탈리아어 화자가 아니었으며, '타임스' 지에 따르면 그녀는 "이탈리아어 번역가"의 도움을 받아 이 분석을 수행했다.[1] 한편, BBC가 의뢰한 독화자는 마테라치가 "너와 너의 가족은 비참하게 죽는 게 좋을 거야"라고 말했다고 결론 내렸다.[1]

하지만 독화로 얻을 수 있는 발화 내용 정보는 최적의 조건에서도 30%에서 40%에 불과하며, 발화 문맥을 고려하여 내용을 추측하는 것도 어렵다.[1] 비디오 영상을 여러 번 반복해서 재생하며 읽으려고 시도하더라도 신뢰하기 어렵다.[1] BBC와 '타임스'의 보도 내용 차이에서도 독화의 어려움을 알 수 있다.[1]

최종적으로 지단과 마테라치, FIFA 모두 인종차별적인 발언은 없었다고 밝혔다.[1] 마테라치에 따르면, 지단이 "그렇게 유니폼을 갖고 싶으면 나중에 줄게"라고 말했고, 마테라치는 "그럼 너의 누나가 더 낫다"고 대답했다고 한다.[1]

참조

[1] 논문 Some normative data on lip-reading skills (L) 2011
[2] 논문 Review of visual speech perception by hearing and hearing-impaired people: clinical implications
[3] 논문 Interaction of audition and vision in the recognition of oral speech stimuli
[4] 서적 Sam Loyd's Cyclopedia of Puzzles Sam Loyd 1914
[5] 논문 Coarticulation effects in lipreading
[6] 논문 Visual speech discrimination and identification of natural and synthetic consonant stimuli
[7] 논문 Investigating speechreading and deafness
[8] 논문 When half a face is as good as a whole: effects of simple substantial occlusion on visual and audiovisual speech perception
[9] 논문 Contributions of oral and extraoral facial movement to visual and audiovisual speech perception
[10] 논문 Effects of Context Type on Lipreading and Listening Performance and Implications for Sentence Processing
[11] 논문 Visual speech discrimination and identification of natural and synthetic consonant stimuli
[12] 논문 Speechreading and the structure of the lexicon: computationally modeling the effects of reduced phonetic distinctiveness on lexical uniqueness
[13] 논문 There Goes the Neighborhood: Lipreading and the Structure of the Mental Lexicon 2011-02
[14] 논문 Lipreading in school-age children: the roles of age, hearing status, and cognitive ability
[15] 논문 Lipreading, processing speed, and working memory in younger and older adults
[16] 웹사이트 HuffPost - Breaking News, U.S. and World News https://www.huffpost[...] 2020-10-11
[17] 논문 Imitation of facial and manual gestures by human neonates
[18] 논문 Lip reading in infants: attention to speech presented in- and out-of-synchrony 1976-10
[19] 논문 Infants intermodal perception of events
[20] 논문 Auditory-visual speech integration by prelinguistic infants: perception of an emergent consonant in the McGurk effect
[21] 논문 The McGurk effect in infants
[22] 논문 Narrowing of intersensory speech perception in infancy
[23] 논문 The emergence of multisensory systems through perceptual narrowing
[24] 논문 The role of auditory and visual speech in word-learning at 18 months and in adulthood 2017-01-26
[25] 서적 The development of phonology in the blind child Lawrence Erlbaum Associates 1987
[26] 논문 Infants deploy selective attention to the mouth of a talking face when learning speech 2012-01
[27] 논문 Investigating the psycholinguistic correlates of speechreading in preschool age children
[28] 서적 The acquisition of lipreading skills by normally hearing children Erlbaum NJ 1987
[29] 논문 Developmental shifts in children's sensitivity to visual speech: a new multimodal picture-word task
[30] 논문 Speechreading development in deaf and hearing children: introducing the test of child speechreading
[31] 논문 Lipreading in school-age children: the roles of age, hearing status, and cognitive ability
[32] 논문 Prediction and constraint in audiovisual speech perception
[33] 논문 The processing of audio-visual speech: empirical and neural bases
[34] 논문 Visual contribution to speech intelligibility in noise
[35] 논문 The relationship between hearing impairment and cognitive function: A meta-analysis in adults https://repository.u[...]
[36] 논문 Hearing Loss is Associated With Risk of Alzheimer's Disease: A Case-Control Study in Older People
[37] 논문 Audiovisual speech integration and lipreading in autism
[38] 논문 Can children with autism spectrum disorders "hear" a speaking face?
[39] 논문 Seeing to hear? Patterns of gaze to speaking faces in children with autism spectrum disorders
[40] 논문 Audiovisual speech perception in Williams syndrome
[41] 논문 Atypical audio-visual speech perception and McGurk effects in children with specific language impairment
[42] 논문 Speechreading and its association with reading among deaf, hearing and dyslexic individuals
[43] 웹사이트 Hands & Voices :: Articles http://www.handsandv[...]
[44] 논문 Deaf Children's bimodal bilingualism and education http://eprints.white[...]
[45] 논문 Speech perception without hearing
[46] 뉴스 null https://www.nytimes.[...]
[47] 논문 Development of audiovisual comprehension skills in prelingually deaf children with cochlear implants
[48] 논문 Speechreading in Deaf Adults with Cochlear Implants:Evidence for Perceptual Compensation 2017
[49] 웹사이트 Communication support for deaf people http://www.nidirect.[...] 2015-11-24
[50] 웹사이트 Lipspeaker UK - Communication services for deaf & hard of hearing people http://www.lipspeake[...]
[51] 웹사이트 Reading and dyslexia in deaf children | Nuffield Foundation http://www.nuffieldf[...] 2019-11-19
[52] 논문 What really matters in the early literacy development of deaf children
[53] 논문 Speechreading and its association with reading among deaf, hearing and dyslexic individuals
[54] 논문 Predictors of reading development in deaf children: a 3-year longitudinal study http://openaccess.ci[...]
[55] 논문 Speechreading Development in Deaf and Hearing Children: Introducing the Test of Child Speechreading
[56] 논문 Cued Speech and the reception of spoken language http://digitool.Libr[...]
[57] 논문 Cued speech for enhancing speech perception and first language development of children with cochlear implants
[58] 웹사이트 Lipreading Alphabet: Round Vowels http://www.lipreadin[...] 2014-06-23
[59] 논문 Lipreading: A review of its Continuing Importance for Speech Recognition with an Acquired Hearing Loss and Possibilities for Effective Training 2022
[60] 웹사이트 Campaigns and influencing https://www.actionon[...]
[61] 논문 Some normative data on lipreading skills 2011
[62] 웹사이트 Home > Rachel-Walker > USC Dana and David Dornsife College of Letters, Arts and Sciences http://www-bcf.usc.e[...]
[63] 웹사이트 Rule-Based Visual Speech Synthesis http://www.diva-port[...]
[64] 논문 Development and Evaluation of a Computer-Animated Tutor for Vocabulary and Language Learning in Children with Autism
[65] 웹사이트 Visual Speech Synthesis - UEA https://www.uea.ac.u[...]
[66] 웹사이트 Lip-reading computer can distinguish languages http://www.cnet.com/[...]
[67] 웹사이트 Video to Text: Lip reading and word spotting https://www.youtube.[...]
[68] 뉴스 The innovators: Can computers be taught to lip-read? https://www.theguard[...] 2016-04-24
[69] 웹사이트 Google's DeepMind AI can lip-read TV shows better than a pro https://www.newscien[...]
[70] 서적 Proceedings of the SIGCHI conference on Human factors in computing systems - CHI '88
[71] 웹사이트 Speaker Identification by Lipreading http://www.asel.udel[...]
[72] 웹사이트 http://www.planetbio[...]
[73] 논문 Activation of auditory cortex during silent lipreading
[74] 논문 Neural pathways for visual speech perception
[75] 논문 Hearing Lips and Seeing Voices: How Cortical Areas Supporting Speech Production Mediate Audiovisual Speech Perception
[76] 논문 Cortical substrates for the perception of face actions: an fMRI study of the specificity of activation for seen speech and for meaningless lower-face acts (gurning)
[77] 논문 Motor excitability during visual perception of known and unknown spoken languages
[78] 논문 Aulenko ''et al.'' 1991 Seeing Speech: visual information from lip movements modifies activity in the human auditory cortex
[79] 논문 Visual speech speeds up the neural processing of auditory speech 2005-01
[80] 논문 Reading fluent speech from talking faces: typical brain networks and individual differences 2005
[81] 논문 Visual phonetic processing localized using speech and nonspeech face gestures in video and point-light displays
[82] 논문 Cortical circuits for silent speechreading in deaf and hearing people
[83] 논문 Some normative data on lip-reading skills (L) 2011
[84] 논문 Review of visual speech perception by hearing and hearing-impaired people: clinical implications
[85] 논문 Interaction of audition and vision in the recognition of oral speech stimuli



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com