맨위로가기

준언어

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

준언어는 언어 외적인 소리 신호로, 화자의 위치, 생물학적 특성, 감정 표현 등 다양한 측면을 포함한다. 운율과 같은 언어적 특징을 포함하며, 텍스트 기반 의사소통에서도 이모티콘 등을 통해 나타난다. 헐떡거림, 한숨, 신음, 목청 가다듬기, "음...", "어?" 등 구체적인 형태로 나타나며, 뇌의 청각 피질과 같은 부위의 활성화를 통해 준언어적 정보를 처리하는 것으로 알려져 있다.

더 읽어볼만한 페이지

  • 화용론 - 문맥
    문맥은 표현의 의미를 이해하는 데 영향을 미치는 주변 환경으로, 언어학에서는 언어적, 사회적 문맥을 구분하고 신경언어학에서는 상호작용에 미치는 영향으로, 자연어 처리에서는 의미 모호성 해소에 활용되며, 언어인류학에서는 기호 이론을 통해 중요성을 강조하는 의사소통의 핵심 요소이다.
  • 화용론 - 담론 윤리
    담론 윤리는 위르겐 하버마스와 카를오토 아펠이 창시한 인지주의 윤리 이론으로, 도덕 규범의 타당성이 의사소통적 합리성을 통해 상호 주관적으로 정당화될 수 있다고 주장하며 공적인 담론을 통해 공공의 이익을 증진시키는 것을 목표로 한다.
  • 의사소통 - 번역
    번역은 출발어 텍스트를 목표어로 변환하는 과정으로, 직역과 의역 등의 방식을 통해 완역 또는 축약역으로 나뉘며, 기계 번역과 인간 번역의 차이, 그리고 문화와 사상의 교류라는 중요한 의미를 지닌다.
  • 의사소통 - 인간-컴퓨터 상호 작용
    인간-컴퓨터 상호작용(HCI)은 인간과 컴퓨터 간의 효과적이고 효율적인 상호작용을 설계, 구현, 평가하는 학제간 분야로, 사용자 중심 설계 원칙을 통해 사용성, 효율성, 접근성을 개선하는 데 중점을 두며, 인공지능, 감정 컴퓨팅, 뇌-컴퓨터 인터페이스, 그리고 보안 상호작용 등의 새로운 연구 영역이 발전하고 있다.
  • 음성학 - 음성 인식
    음성 인식은 음성 신호를 텍스트로 변환하는 기술로, 인공지능과 심층 학습의 발전으로 인식 정확도가 향상되어 다양한 분야에 활용되고 있지만 보안 문제가 남아있다.
  • 음성학 - 음성 합성
    음성 합성은 텍스트를 음성으로 변환하는 기술(TTS)로, 기계 장치에서 컴퓨터 기반 시스템으로 발전해왔으며 통계적 모델과 심층 학습 기반 기술 발전을 거쳐 다양한 분야에서 활용되지만 윤리적 문제와 기술적 과제도 안고 있다.
준언어

2. 준언어의 다양한 측면

준언어는 음성 신호에 담긴 여러 정보를 포함하며, 화자와 청자 간의 상호작용에 영향을 미친다.

사람의 발성 기관은 성별, 연령 등에 따라 크기가 달라 목소리의 음높이와 음성에 영향을 준다. 이러한 음성의 유기적 특성은 화자에 대한 정보를 제공하며, 화자의 의도와는 관계없이 표현된다. 음성의 크기, 속도, 음높이, 음조 등 준언어적 단서는 발화의 감정이나 태도를 나타내는데, 일반적으로 태도는 의도적으로, 감정은 의도 없이 표현되지만 감정을 숨기려는 시도도 있을 수 있다.[6]

표현과 관련된 준언어적 단서는 의미 파악에 영향을 준다. 표현 방식을 통해 메시지의 일관성을 조절할 수 있는데, "나는 잠자리에 들기 전에 매일 밤 와인 한 잔을 마신다"와 같은 문장을 어른이 말할 때와 아이가 말할 때 의미가 다르게 느껴지는 것이 그 예이다.[6] 뇌파검사에서 N400으로 측정될 만큼 이러한 차이는 중요하며, 자폐증 환자는 이러한 효과에 대한 민감도가 떨어진다.[7] 또한, 목소리의 감정적 톤은 동음이의어와 같이 어휘적 모호성을 해소하는 데 영향을 미치기도 한다.[8]

소리 신호는 청취자의 귀에 도달하여 청취자가 화자의 위치(거리 및 방향)를 식별할 수 있는 음향적 특성을 갖는다.[1]

운율과 같은 음성의 일부 언어적 특징은 준언어적이거나 언어 이전적인 기원을 가지고 있다. 이는 작은 발성체의 목소리에서 음향 주파수가 높고, 큰 발성체의 목소리에서는 낮다는 사실에서 기인한다. 이것은 작음과 자연스럽게 연관되는 "해롭지 않음", "복종적", "주장하지 않음"과 같은 이차적인 의미를 발생시키며, "위험한", "지배적인", "주장하는"과 같은 의미는 큼과 연관된다.

이메일, 채팅방, 인스턴트 메시징과 같은 텍스트 기반 통신에서는 이모티콘, 글꼴 및 색상 선택, 대문자 사용, 비알파벳 또는 추상적 문자를 통해 준언어적 요소를 표시할 수 있다.[9]

2. 1. 화자 지향적 측면

사람의 발성 기관은 성별, 연령 등에 따라 크기가 다르며, 이는 목소리의 음높이와 음성에 영향을 미친다. 이러한 음성의 유기적 특성은 화자에 대한 정보를 제공하며, 화자의 의도와는 관계없이 표현된다. 음성의 크기, 속도, 음높이, 음조 등 준언어적 단서는 발화의 감정이나 태도를 나타내는데, 일반적으로 태도는 의도적으로, 감정은 의도 없이 표현되지만 감정을 숨기려는 시도도 있을 수 있다.[6]

표현과 관련된 준언어적 단서는 의미를 파악하는데 영향을 준다. 즉, 표현 방식을 통해 메시지의 일관성을 조절할 수 있다. 예를 들어, "나는 잠자리에 들기 전에 매일 밤 와인 한 잔을 마신다"와 같은 문장을 어른이 말할 때와 아이가 말할 때 의미가 다르게 느껴질 수 있다.[6] 뇌파검사에서 N400으로 측정될 만큼 이러한 차이는 중요하며, 자폐증 환자는 이러한 효과에 대한 민감도가 떨어진다.[7] 또한, 목소리의 감정적 톤은 동음이의어와 같이 어휘적 모호성을 해소하는 데 영향을 미치기도 한다.[8]

2. 1. 1. 원근적 측면

소리 신호는 청취자의 귀에 도달하여 청취자가 화자의 위치(거리 및 방향 감지)를 식별할 수 있는 음향적 특성을 갖는다.[1] 음원 위치는 비언어적 소리에도 유사하게 작용한다.[1] 입술 읽기의 관점적 측면은 머리 돌림이 포함될 때 더욱 분명하게 드러나며 더 큰 영향을 미친다.[1]

2. 1. 2. 생물학적 측면

화자의 발성 기관은 성별, 연령 등에 따라 크기가 다르다. 어린이가 성장함에 따라 발성 기관이 커지며, 성인 남성과 여성 간에도 발성 기관의 크기뿐만 아니라 비율에도 차이가 있다. 이러한 차이는 목소리의 음높이에 영향을 미치며, 다양한 음성을 특징짓는 포먼트 주파수에도 상당한 영향을 미친다. 음성의 유기적 특성은 제한적인 의미에서 의사 전달 기능을 하는데, 이는 단순히 화자에 대한 정보를 제공하기 때문이다. 이는 화자의 의도와 관계없이 표현된다.

2. 1. 3. 표현적 측면

준언어적 단서, 예를 들어 음성의 크기, 속도, 음높이, 음조, 그리고 어느 정도는 발화의 포먼트 주파수는 발화의 감정적 또는 태도적 품질에 기여한다. 일반적으로 태도는 의도적으로 표현되고, 감정은 의도 없이 표현되지만, 감정을 속이거나 숨기려는 시도는 드물지 않다.[6]

표현과 관련된 준언어적 단서는 의미 표시에 적당한 영향을 미친다. 즉, 표현 방식을 조정하여 메시지의 일관성을 높이거나 낮출 수 있다. 예를 들어, "나는 잠자리에 들기 전에 매일 밤 와인 한 잔을 마신다"와 같은 발화를 성인 화자가 말할 때는 일관성이 있지만, 아동 화자가 말할 때는 작은 의미적 이상을 보인다.[6] 이 이상은 뇌파검사를 통해 N400으로 측정될 만큼 충분히 중요하다. 자폐증 환자는 이러한 효과 및 유사한 효과에 대한 민감도가 감소한다.[7]

목소리의 감정적 톤 자체도 준언어적 정보인데, 어휘적 모호성 해소에 영향을 미치는 것으로 나타났다. 일부 단어에는 동음이의어가 있으며, 이 중 일부 동음이의어는 내재적인 감정적 품질을 갖는 것으로 보인다. 예를 들어, 슬픈 "die"는 중립적인 "dye"와 대조된다. 슬픈 음조로 /dai/ 소리를 발음하면 청취자가 중립적인 음조로 발음했을 때보다 전자의 단어를 훨씬 더 자주 쓰게 될 수 있다.[8]

2. 2. 언어적 측면

일반적인 발화의 음성 기호는 언어적 정보만을 반영한다. 청취자가 음성 신호에서 언어적 정보를 어떻게 추출하는지에 대한 연구는 현재 진행 중이다.

2. 2. 1. 운율

운율과 같은 음성의 일부 언어적 특징은 준언어적이거나 언어 이전적인 기원을 가지고 있다. 이러한 종류의 가장 근본적이고 널리 퍼진 현상은 존 오할라에 의해 "주파수 코드"로 설명된다.[9] 이 코드는 종간 의사소통에서도 작동한다. 이는 작은 발성체의 목소리에서 음향 주파수가 높고, 큰 발성체의 목소리에서는 낮다는 사실에서 기인한다. 이것은 작음과 자연스럽게 연관되는 "해롭지 않음", "복종적", "주장하지 않음"과 같은 이차적인 의미를 발생시키며, "위험한", "지배적인", "주장하는"과 같은 의미는 큼과 연관된다. 대부분의 언어에서 주파수 코드는 또한 질문과 진술을 구별하는 역할을 한다. 이는 표현의 변화에 보편적으로 반영되며, 이는 평균적인 여성과 남성 성인 간의 음높이 차이를 발생시킨 계통 발생적 성적 이형성의 기원이 되었을 것으로 추정할 수 있다.

2. 2. 2. 텍스트 기반 의사소통

이메일, 채팅방, 인스턴트 메시징과 같은 텍스트 기반 통신에서는 이모티콘, 글꼴 및 색상 선택, 대문자 사용, 비알파벳 또는 추상적 문자를 통해 준언어적 요소를 표시할 수 있다.[9] 그럼에도 불구하고, 텍스트 기반 의사소통에서의 준언어는 대면 대화에 비해 제한적이며, 때때로 오해를 유발할 수 있다.

3. 준언어적 호흡의 구체적인 형태

준언어적 호흡에는 여러 가지 형태가 있으며, 각각 특정한 감정이나 생리적 상태를 나타낸다. 주요 형태는 다음과 같다.


  • 헐떡거림: 놀람, 충격, 혐오 등의 감정을 나타낼 때 사용된다.
  • 한숨: 실망, 불만, 지루함 외에도 안도감과 같은 긍정적인 감정을 나타낼 수 있다.
  • 신음: 성적인 상황, 유령과 관련된 소리, 또는 불쾌감을 나타낼 때 사용된다.
  • 목청 가다듬기: 자신의 존재를 알리거나 불찬성을 전달하는 비언어적 의사소통의 일종이다.
  • "음...": 생각할 시간을 갖거나 상대방의 말을 경청하고 있음을 나타낼 때 사용된다.
  • "어?": 상대방의 말을 제대로 듣지 못했거나 추가 설명이 필요할 때 사용된다.

3. 1. 헐떡거림 (Gasps)

헐떡거림은 일종의 준언어적 호흡으로, 을 통해 공기를 갑작스럽고 날카롭게 흡입하는 형태를 말한다. 헐떡거림은 호흡 곤란과 폐로 공기를 들이쉬려는 당황한 노력을 나타낼 수 있으며, 놀람, 충격 또는 혐오감정에서도 발생한다. 한숨, 하품, 신음과 마찬가지로 헐떡거림은 종종 자동적이고 의도하지 않은 행위이다.[10] 헐떡거림은 한숨과 밀접한 관련이 있으며, 충격이나 놀라움으로 유발된 헐떡거림을 특징짓는 흡입은, 처음에 관찰자가 믿었던 것보다 초기 감정적 반응을 일으킨 사건이 덜 충격적이거나 놀랍다고 판단되면 한숨으로 방출될 수 있다.[11]

3. 2. 한숨 (Sighs)

'''한숨'''은 감정을 전달하기 위해 인간이 사용하는 일종의 준언어적 호흡으로, 입이나 코를 통해 공기를 깊고 특히 소리 내어 한 번 날숨하는 형태이다. 이는 발성된 인두 마찰음이며, 때로는 낮은 톤으로 내쉬는 거친 성문 호흡과 연관되기도 한다. 한숨은 실망, 불만, 지루함, 헛됨과 같은 부정적 정서와 관련되는 경우가 많다.[10] 어떤 부정적인 상황이 끝나거나 회피될 때처럼 안도감과 같은 긍정적인 감정에서 비롯될 수도 있다.[12] 숨을 헐떡이거나, 하품, 신음하는 것처럼 한숨은 종종 자동적이고 의도하지 않은 행위이다.[10]

과학적 연구에 따르면 아기는 50~100번의 호흡 후에 한숨을 쉰다. 이는 폐 조직의 기계적 특성을 개선하는 데 도움이 되며, 아기가 규칙적인 호흡 리듬을 발달시키는 데도 도움이 된다. 한숨과 유사한 행동이 , 원숭이, 과 같은 동물에서도 관찰되었다.

3. 3. 신음 (Moans and groans)

신음과 끙끙 앓는 소리는 모두 목에서 나는 길게 늘어지는 소리를 의미하며, 이는 일반적으로 성행위를 할 때 발생한다.[14][15] 신음과 끙끙 앓는 소리는 전통적으로 유령과 관련되어 있으며, 유령이 사후세계에서 겪는 고통을 표현하는 것으로 여겨진다. 또한 불쾌감을 나타내기 위해 사용되기도 한다.

3. 4. 목청 가다듬기 (Throat clearing)

목청 가다듬기는 방에 들어가거나 그룹에 접근할 때 자신의 존재를 알리는 데 사용되는 비언어적 의사소통의 일종이다.[16] 이는 자신이 접근하는 집단보다 더 높은 지위에 있다고 인식하는 개인이 수행하며, 목청 가다듬기를 통해 이러한 인식을 다른 사람들에게 전달하는 형태로 활용한다.[17] 이는 비언어적으로 불찬성을 전달할 수도 있다.[18][19]

침팬지 사회적 계층에서, 이 발성은 계급의 신호이며, 알파 수컷 및 더 높은 계급의 침팬지가 더 낮은 계급의 침팬지에게 보내는 가벼운 경고나 약간의 짜증을 나타내는 신호이다.[20]

3. 5. "음..." (Mhm)

mhm|음...영어은 문자 그대로의 언어와 움직임 사이의 것으로, "hmm" 또는 "mhm" 소리를 내어 대화를 잠시 멈추거나 생각할 시간을 갖게 한다.

"mhm" 발화는 재난 생존자나 성폭력 피해자와의 인터뷰와 같은 서술 인터뷰에서 자주 사용된다.[22] 이러한 종류의 인터뷰에서 인터뷰 진행자 또는 상담자는 인터뷰 대상자가 말할 때 너무 많이 개입하지 않는 것이 좋다. "mhm"은 인터뷰 대상자가 자신의 이야기가 경청되고 있다는 것을 확신하고 계속할 수 있도록 한다.[22] 감정적 차이를 관찰하고 인터뷰 대상자의 정신 상태를 관리하는 것은 대화 중 미세한 변화를 발견하는 중요한 방법이다.[22]

3. 6. "어?" (Huh?)

"어?"는 "뭐?"라는 의미로, 상대방의 말을 제대로 듣지 못했거나 명확한 설명이 필요할 때 사용하는 보편적인 표현이다.[23][24] 거의 모든 언어에서 동일한 소리와 의미로 발견되는 드문 단어일 수 있다.[23]

4. 준언어적 이해의 생리학적 기반

뇌 과학 연구를 통해 준언어적 정보 처리에 관여하는 뇌 영역이 밝혀지고 있다. fMRI 연구에 따르면, 준언어적 정보가 풍부할수록 청각 피질 이랑과 뇌교 등 하위 뇌 구조에서 높은 혈역학적 반응이 나타나며, 이는 감정적 반응과 관련이 있을 수 있다.[25]

4. 1. fMRI 연구

fMRI를 이용한 여러 연구에서 준언어적 정보 처리에 따른 뇌 활성화 변화를 관찰했다. 한 연구에서는 단어 수와 중립적 또는 감정적 발음 방식에 따른 감탄사의 효과를 조사했다. 그 결과, 감탄사 등 준언어적 정보가 풍부할수록 청각 피질 이랑에서 더 높은 혈역학적 반응이 나타났다. 또한, 뇌교와 같은 하위 뇌 구조에서도 활성화가 관찰되었는데, 이는 감정적 반응과 관련이 있을 수 있다.[25]

5. 한국 사회와 준언어

한국어는 억양, 강세, 장단 등 운율적 요소가 풍부하며, 존댓말과 반말의 구분 등 언어 사용 방식 자체가 사회적 관계를 반영한다.[1]

참조

[1] 논문 Notes in the history of intercultural communication: The Foreign Service Institute and the mandate for intercultural training 1990
[2] 논문 Paralanguage: A first approximation 1958
[3] 논문 Taos III: Paralanguage 1960
[4] 논문 The typology of paralanguage 1961
[5] 서적 Discourse strategies https://books.google[...] Cambridge University Press 1982
[6] 논문 The neural integration of speaker and message 2008
[7] 논문 Semantic, factual, and social language comprehension in adolescents with autism: an fMRI study 2010
[8] 논문 Resolution of lexical ambiguity by emotional tone of voice https://link.springe[...] 2002
[9] 논문 An ethological perspective on common cross-language utilization of F0 of voice 1984
[10] 서적 A labor of love: a complete guide to childbirth for the mind, body, and soul 2004
[11] 서적 Paralanguage: a linguistic and interdisciplinary approach to interactive speech and sounds 1993
[12] 서적 Emotions revealed: recognizing faces and feelings to improve communication 2007
[13] 웹사이트 UCLA and Stanford researchers pinpoint origin of sighing reflex in the brain http://newsroom.ucla[...] 2019-02-01
[14] 웹사이트 What Our Sex Sounds Say About Us https://time.com/537[...] Time (magazine) 2018-08-21
[15] 웹사이트 Why We Moan and Scream During Sex https://www.psycholo[...] Psychology Today 2019-04-16
[16] 웹사이트 Throat-Clear https://web.archive.[...] 2016-09-10
[17] 서적 Question Authority: Think for Yourself 2012
[18] 웹사이트 ahem – Onomatopoeia List http://www.onomatopo[...] 2013-08-10
[19] 웹사이트 the definition of verbal http://www.dictionar[...]
[20] 서적 Primatology 1984
[21] 서적 Book of Etiquette and Manners, Chapter 3
[22] 서적 The healing effect of storytelling 2003
[23] 간행물 Is 'Huh?' a Universal Word? Conversational Infrastructure and the Convergent Evolution of Linguistic Items PLOS 2013-11-08
[24] 웹사이트 Huh Means the Same Thing in Every Language https://www.theatlan[...] 2013-11-12
[25] 논문 Understanding the emotional expression of verbal interjections: a functional MRI study 2008



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com