brunch

You can make anything
by writing

C.S.Lewis

by 김도환 Jan 06. 2023

인공지능도 사람의 마음을 읽을 수 있을까?

인공감성지능에 대한 설명


1. 인공감성지능이란?




▣ 인공감성지능이란?



▪ 인공지능(Artificial Intelligence: AI) + 감성지능(Emotional Intelligence)을 인공감성지능이라 함


▪ 인공지능에 감정, 공감, 윤리, 비판적 사고 등을 불어넣는 작업, 인공지능 기술자들의 목표


▪ 인공감성지능은 인공지능의 가치와 그 쓰임새에 있어 중요한 차별화 요소



➪ 인공감성지능은 감성지능과 인공지능의 결합으로, 인공지능 혹은 로봇이 스스로 가지고 있는


감정을 통해 사람처럼 자신과 타인의 감정을 구별하고, 새로운 사고와 행동을 결정하는 감정의


근거를 도출하는 것








 감성 컴퓨팅이란?



▪ 인간의 감성을 인지하고 해석할 수 있는 인공지능 기반의 시스템 개념을 감성 컴퓨팅 (Affective Computing: AC)이라고 함


▪ 물리적/감각적 자극으로부터 사람들이 보이는 심리적인 반응을 인지하여 인간과 컴퓨터 간의 상호작용에 활용하기 위한 기술


▪ 2022년이면 인공지능이 인간의 감정을 이해해 지금보다 한층 더 적극적인 교감을 할 것


▪ 하지만, 현실은 대부분 인간과의 상호작용에서 감정을 인지하는 감성 컴퓨팅 기술에만 집중



※ 시장 조사 전문기관 가트너(Gartner)는 감성 컴퓨팅을 새로운 비즈니스 생태계 조성 가능성을 가진 잠재적 기술로서 인식









※ 감성지능의 주요 구성요소



 자기 인식 능력(self-awareness):

자신의 기분, 감정, 취향 등 이러한 것이 타인에게 미치는 영향을 분명히 이해하는 능력



 자기 관리 능력(Self-management):

성취 지향성, 적응력, 정서적 통제력, 긍정적 관점 등을 관리하는 능력



 관계 관리 능력(Relationship management):

갈등 관리, 코칭 및 멘토링, 영향력, 고무적 리더십, 팀워크 등 인간관계를 형성하는 능력



 타인 인식 능력(Social awareness):

타인의 감정/시각을 헤아리고 관심을 보일 수 있는 능력과 다른 사람들의 감정적인 반응에 대응해 처리하는 능력






▣ 인공감성지능 주요 기술요소 동향



▪ 감정 인식기술은 딥러닝, 신경망, 빅데이터 등 인공지능의 핵심 기술들을 기반으로

안면인식(Facial expression), 언어인지(Speech Recognition), 동작 인식(Gesture Recognition),

생체인식(Biometrics) 등을 통해 진행



▪ 하지만 인공감성지능은 위와 같은 감정 인식과 더불어 감정 생성(emotion generation),

감정 증강(emotion augmentation) 기술이 더해졌을 때 비로소 인공지능이 인공감성지능으로

거듭날 수 있음









▣ 인공감성지능을 위한 3가지 주요 기술




① 감정 인식 기술



▪ 어쿠스틱 스피치, 말하고 쓰기의 언어적 내용, 얼굴 표정, 몸의 자세나 움직임, 걸음걸이, 심박수, 피부전도, 뇌 활동과 같은 생리학적 신호 등을 분석하여 감정 상태를 인식


※ 관련연구 : Deep end-to-end 학습기술 개발에 초점을 맞춘 연구가 진행




② 감정 생성 기술



▪ 감정 생성은 기계에 감정을 합성(synthesizing)하는 것


▪ 감정을 합성하는 것은 기계가 실제 감정이 있는 것처럼 보이거나, 인간이나 동물의 감정과 유사한 내부 

메커니즘을 가지고 있는 것처럼 만드는 것



▪ 예컨대, 감정이나 상황에 따라 다양한 어조와 속도로 합성하거나, 감정 상태를 나타낼 수 있도록 필요한 동작 등을 합성하는 과정이 요구



※ 관련연구 : 감정적 스피치 생성을 위한 WaveNet과 같은 Deep-learning 기반의 연구가 증가






③ 감정 증감 기술



▪ AI 기반 감성증강 기술은 인식 단계, 이해 단계, 표현 단계의 세 가지 단계로 구성



인식 단계에서는 Text, 음성, 표정, 행동 및 동작, 생체신호 등을 인식하여 디지털화


이해 단계는 추론 모델을 기반으로 인식 단계의 디지털화 신호를 통합하여 감정이나 감성 상태를 파악하고 개인 맞춤형으로 소통하는 방법을 탐색


표현 단계에서는 음성, 동영상, 로봇 등의 다양한 매체를 활용하여 개인에게 소통 방법을 실현







▣ 인공감성지능 적용사례








* 반드시 인간처럼 감정을 표현하는 것이 아닌 인간의 감정을 분석하여 인간과 상호작용하는 것을

인공감성지능 기술이라 할 수 있음










2. 페르소나란?



▪ 페르소나는 인공지능 분야에서 제품에 부여하는 인격적 특징을 말함


▪ 페르소나는 사람들이 쉽게 AI와 친숙하게 만들고, 개성을 부여해 다른 유사 제품과 차별화할 수 있는 장점이 있다.





페르소나는 AI와 이용자의 관계에 영향을 끼쳐,

'제품으로서의 AI' 기획 단계의 중요한 요소로 작용하며 개발 의도가 반영되게 된다.





▸ 스캐터랩은 메신저 대화를 분석해 연애에 조언을 건네는 앱 '텍스트앳', '진저 포 비트윈', '연애의 과학'으로 카톡 대화를 수집



▸ 특히, ‘텍스트앳’이라는 서비스는 사용자의 카톡 대화를 넣으면 상대편이 나를 좋아하는지 아닌지 감정을 분석해주는 서비스



▸ 이를 통해, 사람 간의 메신저 데이터를 축적해왔고, 여기에 딥러닝 기술을 결합하여 ‘오픈 도메인 대화’를

가능하게 만듦



*오픈 도메인 대화: 특정 영역이 아니라, 일상생활의 대화에서 포괄할 수 있는 모든 영역을 주제로 이뤄지는 대화




※ 하지만, ‘스캐터랩’의 개인정보 수집, 이용 과정의 문제점이 존재,


- ‘텍스트앳’과 ‘연애의 과학’의 대화 정보 수집 과정에서 스캐터랩이 개인정보 동의를 제대로 받지 않음

- 2인 이상의 대화 데이터를 수집해 분석했으니 대화 상대방에게도 동의를 받아야 한다는 지적



 한 개인의 성격이 담긴 인공지능을 만들기 위해서는


▸ 개인의 대화, 표정, 몸짓 등의 정보를 데이터베이스화하여 인공감성지능 기술로 구현할 수 있음

▸ 하지만, 그 개인과 소통한 상대의 개인정보 또한 한 명 한 명 모두 동의를 받아야 한다는 주장이 존재











▣ 한 개인을 챗봇으로 구현



▪ Microsoft는 지난해 말 특정인을 챗봇으로 환생시키는 인공지능(AI) 시스템을 특허출원


▪ 가족이나 친구 등 특정인이 소셜 미디어에 남긴 대화나 사진ㆍ동영상ㆍ음성 등이 그 바탕이 됨


▪ MS 측은 살아있는 사람뿐 아니라, 이미 세상을 떠난 망자(亡者)도 챗봇으로 만들어 낼 수 있다고 밝힘


▪ 하지만, 마이크로소프트의 특허는 2017년 출원되어 작년 12월에 승인되었지만, AI 프로그램 총괄 매니저 팀 오브라이언이 실제로 이를 만들거나 출시할 계획은 아직 없다고 밝힘







넷플릭스의 영화 '블랙미러'의 에피소드 중 ‘돌아올게(Be Right Backㆍ2013)’는 교통사고로 사망한 남편을 평소 그가 남겼던 소셜미디어 속 디지털 데이터를 이용해 디지털 휴먼으로 살려낸다는 스토리를 담고 있음




▣ 개인을 AI로 구현한 국내 사례


▪ AI 전문기업 솔트룩스는 지난해 이동통신사 유플러스와 함께 실제 5세 아이를 바탕으로 만든 두 가지 성격의 디지털 휴먼 ‘가람이’를 공개



▪ AI뿐 아니라 사람도 어떤 데이터를 접하느냐에 따라 착한 아이도, 나쁜 아이도 될 수 있다는 취지의 캠페인성 프로젝트








출처 : 인공감성지능 기술 동향 및 산업 분야별 적용 사례

https://www.iitp.kr/




AI개발 무료 컨설팅 받기⇩

https://walla.my/newclients




매거진의 이전글 AI 음성합성 기술 개발 의뢰전 확인하세요!
브런치는 최신 브라우저에 최적화 되어있습니다. IE chrome safari