감성 컴퓨팅
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
감성 컴퓨팅은 컴퓨터가 인간의 감정을 인식하고, 표현하며, 이에 대응하는 기술 및 연구 분야를 의미한다. 초기 연구에서는 감정을 객관적인 신호로 간주하여 인간-컴퓨터 상호 작용에 초점을 맞추었으나, 상호 작용적 접근 방식은 감정을 사회적, 문화적으로 구성되는 것으로 본다. 감성 인식 기술은 센서를 통해 신체 상태나 행동 데이터를 수집하고, 기계 학습 기술을 사용하여 의미 있는 패턴을 추출한다. 감정 인식에는 얼굴 표정, 음성, 생체 신호, 몸짓 등 다양한 입력 데이터가 활용되며, 다중 양식 데이터를 융합하여 인식 정확도를 높이는 기술이 발전하고 있다. 감성 컴퓨팅은 교육, 교통, 의료, 비디오 게임 등 다양한 분야에서 활용되며, 윤리적 고려 사항을 신중하게 다루어야 한다.
더 읽어볼만한 페이지
| 감성 컴퓨팅 | |
|---|---|
| 개요 | |
| 분야 | 컴퓨터 과학, 인지 과학 |
| 유형 | 인공지능 |
| 관련 주제 | 감정 인식, 인간-컴퓨터 상호 작용, 정서 심리학, 신경 과학 |
| 창시자 | 로잘린드 피카드 |
| 세부 사항 | |
| 정의 | 사용자 감정 상태를 이해하는 것을 목표로 하는 컴퓨터 과학 연구 분야 |
| 목표 | 컴퓨터가 인간의 감정을 인식, 해석, 처리, 시뮬레이션할 수 있도록 하는 것 |
2. 역사 및 발전 과정
감성 컴퓨팅 분야에서는 계산 장치가 타고난 감정적 능력을 보이거나 감정을 설득력 있게 시뮬레이션하도록 설계하는 연구가 진행되었다. 현재 기술 수준에서는 대화형 에이전트를 통해 감정을 시뮬레이션하여 인간과 기계 간의 상호 작용을 풍부하게 하는 것이 더 실용적인 접근 방식이다.[8]
인공지능 분야의 선구자인 마빈 민스키는 저서 ''감정 기계''에서 감정을 기계 지능의 더 넓은 문제와 연관시키면서, 감정이 "우리가 '사고'라고 부르는 과정과 특별히 다르지 않다"고 주장했다.[9] "디지털 휴먼" 또는 가상 인간이라는 혁신적인 접근 방식은 인간 시뮬레이션 프로그램에 실제 사람이 특정 감정 자극 상황에서 반응하는 것과 같은 반응, 얼굴 표정, 몸짓을 포함한 감정적 차원을 부여하려는 시도이다.[10]
기계의 감정은 주로 AI 기반 시스템의 감정을 의미하며, '감정 AI'라는 용어가 사용된다.[11]
2. 1. 초기 연구
감성 컴퓨팅 연구는 1990년대 MIT 미디어 랩의 로잘린드 피카드 교수의 연구를 기점으로 본격화되었다.[4] 초기에는 주로 얼굴 표정, 음성, 생체 신호 등 객관적인 데이터를 기반으로 감정을 인식하는 연구가 진행되었다. 예를 들어, 비디오 카메라로 표정, 몸짓을 캡처하고, 마이크로 음성을 캡처하며, 다른 센서로 피부 저항과 같은 생리적 데이터를 측정하여 감정적 단서를 감지한다.[7]2. 2. 인지주의적 접근과 상호작용적 접근
로잘린드 피카드로 대표되는 인지주의적 접근 방식은 감정을 객관적이고 측정 가능한 심리적 신호로 간주하며, 기계 학습을 통해 감정을 분류하고 예측하는 데 중점을 둔다.[4] 이러한 접근 방식은 감정을 신체 내부에서 발생하는 개별적인 심리적 신호로 축소하고, 이를 측정 가능하며 인지의 입력으로 간주하여 감정 경험의 복잡성을 약화시킨다는 비판을 받는다.[63]반면, 키르스텐 뵈너 등이 제시하는 상호작용적 접근 방식은 감정을 본질적으로 사회적인 것으로 본다.[61] 이들은 감정이 생물물리적 측면을 가지고 있지만, "문화적으로 기반을 두고, 역동적으로 경험되며, 어느 정도는 행동과 상호작용 속에서 구성된다"고 주장한다.[63] 즉, 감정을 "우리의 상호작용을 통해 경험되는 사회적, 문화적 산물"로 간주한다.[62][63][64]
상호작용적 접근 방식은 "사람들이 자신의 감정을 이해하고 경험하도록 돕는 것"[63]과 컴퓨터를 통한 대인 커뮤니케이션을 개선하는 것을 추구한다. 이는 감정을 기계 해석을 위한 객관적인 수학적 모델로 맵핑하는 것을 반드시 추구하지 않으며, 오히려 인간이 모호하고 주관적이며 맥락에 민감할 수 있는 열린 방식으로 서로의 감정 표현을 이해하도록 한다.[63]
3. 감정 인식 기술
감정 인식은 응용 분야의 요구 사항을 충족할 수 있도록 신뢰성 있는 데이터베이스, 지식 베이스, 벡터 공간 모델을 생성하고, 빠르고 정확하게 감정을 식별하는 분류기를 선택하는 과정이 필요하다.[21]
2010년 기준으로 자주 사용되는 분류기는 선형 판별 분석기(LDC), k-최근접 이웃(k-NN), GMM, SVM, ANN, 의사 결정 트리 알고리즘, HMM이다.[22] 적절한 분류기 선택은 시스템의 전반적인 성능을 크게 향상시킬 수 있다.[19]
- LDC: 특징 값의 선형 조합을 기반으로 분류한다.
- k-NN: k개의 가장 가까운 이웃(훈련 예제)과 비교하여 다수결 투표로 분류한다.
- GMM: 하위 모집단의 존재를 나타내는 확률 모델이다. 혼합 분포를 사용하여 관측치를 하위 모집단으로 분류한다.[23]
- SVM: 입력이 속할 수 있는 두 개(또는 그 이상)의 클래스 중 하나를 결정하는 (일반적으로 이진) 선형 분류기이다.
- ANN: 생물학적 신경망에서 영감을 얻은 수학적 모델로, 특징 공간의 비선형성을 파악한다.
- 의사 결정 트리 알고리즘: 의사 결정 트리를 따라 분류 결과를 나타내는 잎과 특징 결합을 나타내는 분기로 작업한다.
- HMM: 상태와 상태 전이가 직접 관찰되지 않는 통계적 마르코프 모델이다. 음성 감정 인식에서 음성 특징 벡터의 시퀀스를 통해 감정 상태를 예측하는 데 사용된다.
사람의 감정 상태는 다수결 투표 분류기 집합(kNN, C4.5, SVM-RBF 커널)을 통해 분류할 수 있으며, 이는 개별 분류기보다 더 나은 성능을 보인다.[24]
현재 시스템은 대부분 데이터에 의존적이다. 음성 기반 감정 인식의 주요 과제는 분류기 훈련에 적절한 데이터베이스를 선택하는 것이다. 연기된 데이터베이스는 폴 에크먼의 기본 감정 이론에 기반하며 높은 음질과 균형 잡힌 클래스를 제공하지만, 실제 적용을 위해서는 자연스러운 데이터가 필요하다. 자연스러운 데이터는 인간-컴퓨터 상호 작용(HCI) 중 자연스럽게 발생하는 상태를 반영하지만, 획득이 어렵고 감정 강도와 신호 품질이 낮을 수 있다. 이러한 데이터베이스를 생산하려는 첫 시도는 CEICES를 위한 FAU Aibo Emotion Corpus였으며, 소니 Aibo 로봇 애완동물과 놀고 있는 어린이(10–13세)의 현실적인 상황을 기반으로 개발되었다.[26][27]
갈바닉 피부 반응(GSR)은 피부전도활동(EDA)의 이전 용어이다. EDA는 피부의 전기적 특성 변화 현상으로, [교감 신경계]의 지배를 받아 저항이나 전도도 측정을 통해 자율 신경계 변화를 정량화할 수 있다. 땀샘 활성화 시 피부 전도도를 통해 자율 각성 변화를 구별할 수 있으며, 각성도가 높을수록 피부 전도도가 커진다.[40] 피부 전도도는 염화은 전극을 피부에 놓고 전압을 가하여 측정하며, 편안함을 위해 손목, 다리, 발에 배치할 수 있다.
3. 1. 다중 양식 감정 인식
감정 인식의 정확성과 신뢰성을 높이기 위해 얼굴 표정, 음성, 몸짓, 생체 신호 등 다양한 양식(modality)의 데이터를 융합하여 분석하는 기술이 발전하고 있다.둘 이상의 양식을 결합하거나 융합(다중 모달 인식)하여 대상의 감정 상태를 더 정확하게 추정할 수 있다. 예를 들어 얼굴 표정과 음성 운율,[29] 얼굴 표정과 손 제스처,[30] 또는 다중 모달 데이터 및 메타데이터 분석을 위한 얼굴 표정과 음성 및 텍스트를 결합할 수 있다.
제스처는 특히 음성 및 얼굴 인식과 함께 사용될 때 사용자의 특정 감정 상태를 감지하는 수단으로 효율적으로 사용될 수 있다.[38] 신체 제스처를 감지하기 위한 방법으로는 3D 모델 기반과 외형 기반 접근 방식이 있다.[39] 손 제스처는 신체 제스처 감지 방법의 일반적인 초점이다.[39]
사용자의 생리적 징후를 모니터링하고 분석하여 감정 상태를 감지할 수도 있다. 일반적으로 분석되는 네 가지 주요 생리적 징후는 혈량 맥파, 피부 반응, 얼굴 근전도 및 얼굴 색상 패턴이다.
3. 2. 얼굴 표정 인식
얼굴 표정은 감정을 나타내는 가장 직접적인 단서 중 하나이다. 얼굴 표정 인식 기술은 얼굴 동작 코딩 시스템(FACS)을 기반으로 얼굴 근육의 움직임을 분석하여 감정을 분류한다. 폴 에크먼의 연구에 따르면, 분노, 혐오감, 공포, 행복, 슬픔, 놀람 등 6가지 기본 감정은 문화 보편적으로 나타나는 얼굴 표정을 갖는다.[31]얼굴 표정의 감지 및 처리는 광학 흐름, 은닉 마르코프 모델, 인공 신경망 처리 또는 활성 외형 모델과 같은 다양한 방법을 통해 수행된다. 둘 이상의 양식을 결합하거나 융합하여(다중 모달 인식, 예를 들어 얼굴 표정과 음성 운율,[29] 얼굴 표정과 손 제스처,[30] 또는 다중 모달 데이터 및 메타데이터 분석을 위한 얼굴 표정과 음성 및 텍스트) 대상의 감정 상태를 보다 강력하게 추정할 수 있다.
1960년대 말 폴 에크먼은 파푸아뉴기니의 포레족을 대상으로 문화 간 연구를 수행하여, 감정의 표정이 문화적으로 결정되는 것이 아니라 보편적이라는 아이디어를 제시했다.[25] 따라서 그는 감정의 표정이 생물학적 기원을 가지며, 안전하고 정확하게 분류될 수 있다고 제안했다. 1990년대에 에크먼은 기본 감정 목록을 확장하여, 얼굴 근육에 모두 암호화되지 않은 다양한 긍정적 및 부정적 감정을 포함시켰다.[32] 새롭게 포함된 감정은 재미, 경멸, 만족감, 당혹감, 흥분, 죄책감, 성취에 대한 자부심, 안도, 만족, 감각적 쾌락, 수치심이다.
심리학자들은 얼굴의 감정적 표현을 공식적으로 분류하기 위해 얼굴 동작 코딩 시스템(FACS)을 개발했다. FACS의 핵심 개념은 동작 단위(AU)이며, 1978년 칼-헤르만 횓츠셰의 이전 연구를 바탕으로 폴 에크먼과 윌러스 V. 프리젠이 개발하였다.[33] 동작 단위는 하나 이상의 근육의 수축 또는 이완을 의미한다. 심리학자들은 동작 단위에 따라 6가지 기본 감정을 다음과 같이 분류했다("+"는 "그리고"를 의미한다).
| 감정 | 동작 단위 |
|---|---|
| 행복 | 6+12 |
| 슬픔 | 1+4+15 |
| 놀라움 | 1+2+5B+26 |
| 공포 | 1+2+4+5+20+26 |
| 분노 | 4+5+7+23 |
| 혐오 | 9+15+16 |
| 경멸 | R12A+R14A |
3. 2. 1. 얼굴 표정 데이터베이스
감정 데이터베이스 생성은 어렵고 시간이 많이 소요되는 작업이다. 하지만 데이터베이스 생성은 인간의 감정을 인식하는 시스템을 만드는 데 필수적인 단계이다. 공개적으로 이용 가능한 대부분의 감정 데이터베이스는 포즈를 취한 얼굴 표정만을 포함한다. 포즈 표정 데이터베이스에서는 참가자들에게 다양한 기본 감정 표현을 표시하도록 요청하는 반면, 자발적 표정 데이터베이스에서는 표정이 자연스럽게 나타난다. 자발적인 감정 유발은 의도된 감정을 풍부하게 표현할 수 있는 적절한 자극을 선택하는 데 상당한 노력을 필요로 한다. 다음으로, 이 과정에는 훈련된 개인이 수동으로 감정을 태깅하는 작업이 포함되는데, 이로 인해 데이터베이스의 신뢰성이 높아진다. 표정과 그 강도에 대한 인식은 본질적으로 주관적이므로, 검증을 위해서는 전문가의 주석이 필수적이다.[25]연구자들은 정점 표정 이미지 데이터베이스, 중립에서 정점에 이르기까지 감정을 묘사하는 이미지 시퀀스 데이터베이스, 감정 주석이 포함된 비디오 클립 등 세 가지 유형의 데이터베이스를 사용한다. 많은 얼굴 표정 데이터베이스가 생성되어 표정 인식 목적으로 공개되었다. 널리 사용되는 두 가지 데이터베이스는 CK+와 JAFFE이다.
3. 2. 2. 과제
감성 컴퓨팅의 주요 과제 중 하나는 조명, 자세, 가려짐 등 다양한 환경 변화에 강건한 얼굴 표정 인식 기술을 개발하는 것이다. 이를 위해 실제 상황에서 감정 인식의 정확도를 높이는 것이 중요하다.[25]현재 대부분의 감성 인식 시스템은 연기된 데이터베이스에 의존하고 있다. 이 데이터베이스는 주로 배우들이 연기한 여섯 가지 기본 감정(폴 에크먼의 기본 감정 이론에 기반)을 포함한다.[25] 연기된 데이터는 높은 음질과 균형 잡힌 클래스를 제공하지만, 실제 상황과는 차이가 있을 수 있다.
따라서 실제 적용을 위해서는 자연스러운 상황에서 얻은 자연스러운 데이터가 필요하다. 자연스러운 데이터는 인간-컴퓨터 상호 작용(HCI) 중에 자연스럽게 발생하는 감정을 반영하여 실제 현실 적용 가능성을 높인다.[26][27]
하지만 자연스러운 데이터를 얻는 것은 어렵고 감정 강도가 낮으며, 주변 소음과 대상과의 거리 등으로 인해 신호 품질이 낮을 수 있다. 이러한 문제를 해결하고 다양한 감정 인식 시스템을 평가하고 비교하기 위해 표준화된 데이터베이스를 구축하는 노력이 필요하다.
3. 3. 음성 감정 인식
음성은 얼굴 표정과 함께 감정을 나타내는 중요한 단서이다. 음성 감정 인식 기술은 음높이, 강도, 속도, 발음 등 음성의 음향학적 특징을 분석하여 감정을 분류한다. 예를 들어, 공포, 분노, 기쁨과 같은 감정 상태에서는 빠르고, 크며, 정확하게 발음되며, 음높이 범위가 더 높고 넓어지는 경향이 있다. 반면, 피로, 지루함, 슬픔과 같은 감정은 느리고, 낮은 음조, 그리고 불분명한 음성을 생성하는 경향이 있다.[13] 분노[15]나 칭찬[14]과 같이 일부 감정은 다른 감정보다 더 쉽게 인식된다.음성 분석은 감정 상태를 식별하는 효과적인 방법이며, 2003년과 2006년의 연구에서는 평균 70~80%의 정확도를 보고했다.[17][18] 이는 평균적인 인간의 정확도(약 60%[15])보다 뛰어난 성능이지만, 생리적 상태나 얼굴 표정과 같은 다른 감정 감지 방식보다는 정확도가 떨어진다.[19] 그럼에도 불구하고, 많은 음성 특성이 의미나 문화와 독립적이기 때문에, 이 기술은 더 많은 연구를 통해 발전할 가능성이 높다.[20]
감정 인식 과정에는 신뢰할 수 있는 데이터베이스, 지식 베이스 또는 벡터 공간 모델을 만들고, 빠르고 정확하게 감정을 식별할 수 있는 분류기를 선택하는 과정이 필요하다.[21]
음성 감정 인식에는 다양한 특징들이 사용되는데, 이들은 다음과 같이 분류할 수 있다.[26][27]
폴 에크먼은 1960년대 말 파푸아뉴기니의 포레족을 대상으로 문화 간 연구를 수행하여 감정 표현이 문화적으로 결정되는 것이 아니라 보편적이라는 것을 발견했다. 그는 감정 표현이 생물학적 기원을 가지며, 따라서 안전하고 정확하게 분류될 수 있다고 제안했다.[25] 1972년에 에크먼은 여섯 가지 기본 감정을 발표했다.[31]
이후 1990년대에 에크먼은 기본 감정 목록을 확장하여 다양한 긍정적 및 부정적 감정을 포함시켰다.[32]
심리학자들은 얼굴의 감정적 표현을 체계적으로 분류하기 위해 얼굴 동작 코딩 시스템(FACS)을 개발했다. FACS의 핵심 개념은 동작 단위(AU)이며, 이는 하나 이상의 근육 수축 또는 이완을 의미한다.
| 감정 | 동작 단위 |
|---|---|
| 행복 | 6+12 |
| 슬픔 | 1+4+15 |
| 놀라움 | 1+2+5B+26 |
| 공포 | 1+2+4+5+20+26 |
| 분노 | 4+5+7+23 |
| 혐오 | 9+15+16 |
| 경멸 | R12A+R14A |
3. 3. 1. 음성 감정 데이터베이스
음성 감정 인식 기술 개발을 위해 다양한 음성 감정 데이터베이스가 구축되어 활용되고 있다. 현재 시스템의 대다수는 데이터에 의존적이며, 음성 기반 감정 탐지에 있어 가장 큰 과제 중 하나는 분류기 훈련에 적절한 데이터베이스를 선택하는 것이다.데이터베이스는 크게 연기된 데이터베이스와 자연스러운 데이터베이스로 나뉜다. 연기된 데이터베이스는 배우들이 연기한 감정 표현을 담고 있으며, 폴 에크먼의 기본 감정 이론에 기반하여 여섯 가지 기본 감정(분노, 공포, 혐오, 놀라움, 기쁨, 슬픔)을 주로 다룬다.[25] 이러한 데이터베이스는 높은 음질과 균형 잡힌 클래스를 제공하여 감정 인식 성공률을 높이는 데 기여한다.
그러나 실제 적용을 위해서는 자연스러운 데이터가 선호된다. 자연스러운 데이터베이스는 대상의 자연스러운 상황에서의 관찰과 분석을 통해 생성된다. 이러한 데이터는 인간-컴퓨터 상호 작용(HCI) 중에 자연스럽게 발생하는 상태를 반영하므로 실제 현실 적용에 용이하다.
자연스러운 데이터는 연기된 데이터에 비해 많은 장점을 가지지만, 획득하기 어렵고 감정 강도가 낮은 경우가 많다. 또한, 주변 소음과 마이크로부터의 거리 때문에 신호 품질이 낮을 수 있다. 이러한 데이터베이스를 생산하려는 첫 번째 시도는 CEICES(Combining Efforts for Improving Automatic Classification of Emotional User States)를 위한 FAU Aibo Emotion Corpus였으며, 소니의 Aibo 로봇 애완동물과 놀고 있는 어린이(10–13세)의 현실적인 상황을 기반으로 개발되었다.[26][27]
3. 3. 2. 알고리즘
음성 감정 인식에는 선형 판별 분석기(LDC), k-최근접 이웃(k-NN), 가우시안 혼합 모델(GMM), 서포트 벡터 머신(SVM), 인공 신경망(ANN), 의사 결정 트리 알고리즘, 은닉 마르코프 모델(HMM) 등 다양한 기계 학습 알고리즘이 사용된다.[25]3. 4. 생체 신호 기반 감정 인식
생체 신호는 자율신경계의 변화를 반영하여 감정 상태를 나타내기 때문에, 이를 기반으로 감정을 인식하는 것은 객관적이고 무의식적인 감정 변화를 감지할 수 있다는 장점이 있다.[7] 사용자의 생리적 징후를 모니터링하고 분석하여 사용자의 감정 상태를 감지하는데, 여기에는 혈량 맥파, 피부 반응, 얼굴 근전도, 얼굴 색상 패턴 등 네 가지 주요 생리적 징후가 분석된다.3. 4. 1. 혈량 맥파(Blood Volume Pulse)
혈량 맥파(BVP)는 심장에서 혈액이 방출될 때 혈관의 용적 변화를 측정하는 것이다. 이를 통해 심박수 및 심박 변이도(HRV)를 분석하여 감정 상태를 추정할 수 있다.[40]3. 4. 2. 피부 전도도(Galvanic Skin Response)
피부 전도도는 땀샘 활동에 따른 피부의 전기적 특성 변화를 측정하는 것으로, 교감신경계의 활성화 정도를 나타낸다.
3. 4. 3. 안면 근전도(Facial Electromyography)
안면 근전도(Facial Electromyography)는 얼굴 근육의 미세한 수축을 모니터링하고 분석하여 사용자의 감정 상태를 감지하는 데 사용되는 생리적 징후 중 하나이다.[37] 얼굴 근육의 미세한 전기적 활동을 측정하여, 특정 감정과 관련된 근육의 움직임을 감지한다.3. 4. 4. 얼굴 색상 패턴
얼굴의 혈류 변화는 감정에 따라 다르게 나타난다. 이러한 혈색 패턴 변화를 분석하여 감정을 추정할 수 있다.3. 5. 몸짓 인식
몸짓은 의사소통 과정에서 감정을 표현하는 비언어적 수단이다. 감성 컴퓨팅에서 몸짓 인식 기술은 수동 센서를 통해 사용자의 신체 상태나 행동 데이터를 캡처하고, 이를 해석하여 감정 정보를 인식한다. 예를 들어, 비디오 카메라는 몸짓을 캡처할 수 있다.[7]4. 활용 분야
감성 컴퓨팅은 교육, 교통, 의료, 비디오 게임 등 다양한 분야에서 활용될 수 있다.
- 교육: 학습자의 감정과 학습 상태를 파악하여 맞춤형 교육을 제공하고, 특히 원격 교육 환경에서 학습 효과를 높이는 데 도움을 줄 수 있다. (하위 섹션 '교육'에서 더 자세히 다룸)
- 교통: 운전자의 감정 상태를 모니터링하여 안전 운전을 돕고, 운전자 보조 시스템과 연동하여 사고 위험을 줄일 수 있다. (하위 섹션 '교통'에서 더 자세히 다룸)
- 의료: 소셜 로봇과 같이 환자와 상호작용하는 로봇에 감성 인식 기술을 적용하여 환자의 정서적 안정을 돕고, 자폐증 환자의 소통 기술 개발에도 활용될 수 있다. (하위 섹션 '의료'에서 더 자세히 다룸)
- 비디오 게임: 생체 피드백 장치를 통해 플레이어의 감정 상태를 파악하여 게임의 몰입도를 높이고, 자폐 스펙트럼 아동의 정서 발달을 돕는 데 활용될 수 있다. (하위 섹션 '비디오 게임'에서 더 자세히 다룸)
텍스트의 감성적 요소도 점점 더 주목받고 있으며, 특히 감성적 또는 감성 인터넷에서의 역할이 중요해지고 있다.[52]
이 외에도 감성 컴퓨팅은 사용자의 감정에 따라 음악을 추천하거나, 화난 이메일을 보내기 전에 경고를 보내는 등 인간-컴퓨터 상호작용에 잠재적인 응용 분야가 있다.[59]
특정 제품 사용자의 얼굴 분석을 통해 제품의 시장 반응을 예측할 수 있다.[60] 예를 들어, 아이스크림을 사용하는 사람의 얼굴 분석으로 해당 제품의 성공 가능성을 예측할 수 있다. TV 광고의 효과를 판단하기 위해 사람들의 실시간 비디오 녹화와 얼굴 표정 연구를 활용할 수도 있다. 대규모 그룹의 결과를 통해 광고나 영화가 원하는 효과를 내는지, 시청자의 관심 요소를 파악할 수 있다.
4. 1. 교육
감성 컴퓨팅 기술을 사용하여 컴퓨터는 얼굴 표정을 인식하여 학습자의 감정과 학습 상태를 판단할 수 있다. 교육 분야에서 교사는 분석 결과를 사용하여 학생의 학습 능력과 수용 능력을 이해하고 합리적인 교육 계획을 수립할 수 있다. 동시에 학생의 내면 감정에 주의를 기울여 학생의 심리적 건강에 도움을 줄 수 있다.[46] 특히 원격 교육의 경우, 시공간의 분리로 인해 교사와 학생 간의 양방향 소통에 정서적 자극이 부족하다. 전통적인 교실 학습이 주는 분위기가 없으면 학생들은 쉽게 지루해하고 학습 효과에 영향을 미칠 수 있다. 이러한 상황은 원격 교육 시스템에 감성 컴퓨팅을 적용하면 효과적으로 개선할 수 있다.[46]4. 2. 교통
감성 컴퓨팅은 도로 안전을 개선하는 데 기여할 수 있다. 예를 들어, 자동차는 모든 탑승자의 감정을 모니터링하고 운전자가 화가 났다고 감지하면 다른 차량에 경고하는 등 추가적인 안전 조치를 취할 수 있다.[47] 또한, 운전자의 스트레스를 모니터링하기 위한 감성 컴퓨팅 시스템은 스트레스 수준에 따라 조정되는 운전자 보조 시스템[48] 및 운전자의 감정 상태를 개선하기 위한 최소한의 직접적인 개입과 같은 다양한 개입을 허용할 수 있다.[49]4. 3. 의료
소셜 로봇을 비롯한 의료 분야에서 사용되는 로봇의 수가 늘어나면서, 감성 인식은 사용자와 환자의 감정 상태를 더 잘 파악하여 그에 맞는 행동이나 프로그래밍을 할 수 있게 해준다.[50] 이는 고령화 인구가 증가하거나 젊은 노동력이 부족하여 노인들의 요구를 충족시키지 못하는 국가에서 특히 중요하다.[50]감성 컴퓨팅은 자폐증 환자들의 소통 기술 개발에도 활용된다.[51] 또한, 감성 게임은 자폐 스펙트럼 아동의 정서 발달을 돕는 의료 연구에도 사용되고 있다.[57]
4. 4. 비디오 게임
감성 비디오 게임은 생체 피드백 장치를 통해 플레이어의 감정 상태를 파악할 수 있다.[53] 간단한 형태의 생체 피드백은 버튼을 누르는 압력을 측정하는 게임패드를 통해 가능한데, 이는 플레이어의 각성 수준과 강한 상관관계를 보인다.[54] 더 나아가 뇌-컴퓨터 인터페이스를 활용하는 경우도 있다.[55][56] 감성 게임은 자폐 스펙트럼 아동의 정서 발달을 돕기 위한 의료 연구에도 활용된 바 있다.[57]4. 5. 기타
감성 컴퓨팅은 인간-컴퓨터 상호작용에 여러 응용 가능성이 있는데, 사용자의 감정에 따라 음악을 추천하거나,[59] 기분에 맞는 트랙을 선택하는 뮤직 플레이어 등이 그 예시이다.[59] 또한, 특정 제품 사용자의 얼굴 분석을 통해 제품의 시장 반응을 예측할 수 있다.[60] 예를 들어, 아이스크림을 사용하는 사람의 얼굴 분석으로 해당 제품의 성공 가능성을 예측할 수 있다. TV 광고의 효과를 판단하기 위해 사람들의 실시간 비디오 녹화와 얼굴 표정 연구를 활용할 수도 있다. 대규모 그룹의 결과를 통해 광고나 영화가 원하는 효과를 내는지, 시청자의 관심 요소를 파악할 수 있다.참조
[1]
학술대회
Affective Computing: A Review
Springer
[2]
논문
What Is Emotion
https://zenodo.org/r[...]
[3]
보고서
Affective Computing
https://vismod.media[...]
MIT Technical Report #321
[4]
서적
Affective Computing
MIT Press
1997
[5]
웹사이트
Recognition and Simulation of Emotions
http://ls12-www.cs.t[...]
2008-05-13
[6]
간행물
The Love Machine; Building computers that care
https://www.wired.co[...]
2008-05-13
[7]
논문
Assistive Technology and Affective Mediation
http://www.humantech[...]
2008-05-12
[8]
서적
Agent Culture: Human-Agent Interaction in a Mutlicultural World
Lawrence Erlbaum Associates
[9]
뉴스
Mind Over Matter
https://www.washingt[...]
2008-05-13
[10]
논문
The Effect of Multimodal Emotional Expression on Responses to a Digital Human during a Self-Disclosure Conversation: a Computational Analysis of User Language
http://dx.doi.org/10[...]
2020-07-22
[11]
논문
An analytical framework for studying attitude towards emotional AI: The three-pronged approach
2023-03-29
[12]
논문
A model of the perception of facial expressions of emotion by humans: Research overview and perspectives.
https://www.jmlr.org[...]
2012
[13]
논문
Recognition of Affective Communicative Intent in Robot-Directed Speech
http://web.media.mit[...]
Springer
[14]
서적
Proceedings of the Second International Conference on Automatic Face and Gesture Recognition
1996-10-01
[15]
문서
Recognizing Emotion in Speech
Proc. Of ICSLP 1996, Philadelphia, PA
[16]
문서
Recognition of Negative Emotion in the Human Speech Signals
Workshop on Auto. Speech Recognition and Understanding
2001-12
[17]
논문
Emotion recognition in spontaneous speech using GMMs
http://www.speech.kt[...]
2006
[18]
논문
Recognition of Emotions in Interactive Voice Response Systems
2003
[19]
문서
[20]
문서
[21]
서적
Cross-Cultural Universals of Affective Meaning
https://archive.org/[...]
Univ. of Illinois Press
[22]
문서
[23]
웹사이트
Gaussian Mixture Model
http://cnx.org/conte[...]
Connexions – Sharing Knowledge and Building Communities
2011-03-10
[24]
논문
Extended speech emotion recognition and prediction
http://ntv.ifmo.ru/e[...]
[25]
문서
The repertoire of nonverbal behavior: Categories, origins, usage, and coding
http://www.communica[...]
[26]
웹사이트
FAU Aibo Emotion Corpus
http://www5.cs.fau.d[...]
Pattern Recognition Lab
2011-03-05
[27]
문서
[28]
서적
2021 International Conference on Computer Communication and Informatics (ICCCI)
[29]
학술대회
Modeling naturalistic affective states via facial and vocal expressions recognition
http://www.image.ece[...]
2006-11-02
[30]
서적
Machine Learning for Multimodal Interaction
Springer-Verlag
[31]
학술대회
Universals and Cultural Differences in Facial Expression of Emotion
University of Nebraska Press
[32]
서적
Handbook of Cognition and Emotion
http://www.paulekman[...]
John Wiley & Sons
[33]
웹사이트
Facial Action Coding System (FACS) and the FACS Manual
http://face-and-emot[...]
A Human Face
2011-03-21
[34]
웹사이트
Spatial domain methods
http://homepages.inf[...]
[35]
웹사이트
Bacterial Foraging Optimization Algorithm – Swarm Algorithms – Clever Algorithms
http://www.cleveralg[...]
Clever Algorithms
2011-03-21
[36]
웹사이트
Soft Computing
http://www.softcompu[...]
2011-03-18
[37]
웹사이트
Better Face-Recognition Software – Technology Review
http://www.technolog[...]
2011-03-21
[38]
논문
Human Motion Analysis: A Review
[39]
학술지
Visual Interpretation of Hand Gestures for Human–Computer Interaction: A Review
http://www.cs.rutger[...]
[40]
서적
Affective Computing
MIT
[41]
논문
Effects of positive and negative affect on electromyographic activity over zygomaticus major and corrugator supercilii
https://web.archive.[...]
2003-09
[42]
학술지
Facial color is an efficient mechanism to visually transmit emotion
2018-03-19
[43]
학술지
oRGB: A Practical Opponent Color Space for Computer Graphics
[44]
논문
Micro Expression Classification using Facial Color and Deep Learning Methods
http://openaccess.th[...]
The IEEE International Conference on Computer Vision (ICCV)
[45]
논문
Studying Aesthetics in Photographic Images Using a Computational Approach
https://web.archive.[...]
Proceedings of the European Conference on Computer Vision
2006-05
[46]
학술지
Review of affective computing in education/Learning: Trends and challenges
http://www.learntech[...]
2016-11
[47]
웹사이트
In-Car Facial Recognition Detects Angry Drivers To Prevent Road Rage
https://gizmodo.com/[...]
2018-08-30
[48]
학술지
Associating Vehicles Automation With Drivers Functional State Assessment Systems: A Challenge for Road Safety in the Future
2019-04-24
[49]
서적
Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems
ACM
2019-05-02
[50]
서적
Heart of the Machine: Our Future in a World of Artificial Emotional Intelligence
Arcade Publishing
[51]
웹사이트
Projects in Affective Computing
http://affect.media.[...]
[52]
서적
Computing Attitude and Affect in Text: Theory and Applications
Springer Science & Business Media
[53]
학회
Affective Videogames and Modes of Affective Gaming: Assist Me, Challenge Me, Emote Me
http://comp.eprints.[...]
2016-12-10
[54]
학회
Affective gaming: Measuring emotion through the gamepad
[55]
학술지
Turning shortcomings into challenges: Brain–computer interfaces for games
http://wwwhome.cs.ut[...]
[56]
학회
Affective Pacman: A Frustrating Game for Brain–Computer Interface Experiments
[57]
학술지
Designing affective video games to support the social-emotional development of teenagers with autism spectrum disorders
[58]
학술지
Stress-Adaptive Training: An Adaptive Psychomotor Training According to Stress Measured by Grip Force
2022-11-01
[59]
학술지
Tune in to Your Emotions: A Robust Personalized Affective Music Player
2012-07
[60]
웹사이트
Mona Lisa: Smiling? Computer Scientists Develop Software That Evaluates Facial Expressions
https://www.scienced[...]
2006-08-01
[61]
학술지
Co-experience: user experience as interaction
http://www2.uiah.fi/[...]
2016-02-02
[62]
학술지
Affection: From Information to Interaction
2005
[63]
학술지
How emotion is made and measured
2007
[64]
학술지
Interactional empowerment
http://research.micr[...]
2008
[65]
논문
Affective Computing: A Review
http://www.springerl[...]
Springer
[66]
논문
Affective Computing
http://affect.media.[...]
MIT Technical Report #321
[67]
학술지
What is Emotion
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com