하민회 이미지21 대표 (미래기술문화연구원장)
"웃고 있지만 당신의 진짜 기분은 어떤 가요?" 열 길 물 속보다 알기 어렵다는 한 길 사람 속.
표정과 음성 톤, 뇌파와 심박수를 분석해 그 한 길 사람의 감정상태를 추정하는 '감정 인식 AI'가 빠르게 발전하고 있다.
최근 독일에 기반한 비영리 오픈소스 AI단체인 LAION(Large‑scale Artificial Intelligence Open Network)는 인간의 복잡한 감정을 40가지로 세분화해 분석할 수 있는 감정 인식 AI 'EmoNet'을 발표했다.
EmoNet은 감정을 기쁨, 슬픔 등으로 단순하게 분류하는 기존 방식에서 벗어나, 심리적, 사회적, 인지적, 신체적 상태까지 포함한 맥락적이고 구성적인 현상으로 인식한다. 예컨대 당황, 자부심, 피로, 혼란, 의심, 부끄러움, 갈망 같은 복합적이고 미묘한 감정까지 세분화해낸다.
![]() |
하민회 이미지21 대표. |
'구성된 감정 이론(Theory of Constructed Emotion)'에 바탕을 둔 EmoNet은 감정을 미리 프로그램 된 고정된 실체가 아니라 뇌가 내부 신호와 학습된 개념, 맥락 정보를 결합해 구성하는 복합적 현상으로 본다. 그래서 감정을 '인식'하기 보다 다양한 존재로서 가능성과 강도를 평가하는 '추정'의 매커니즘을 사용한다.
한 마디로 다양한 상황에서 일어나는 보다 복잡한 인간의 감정을 미세하게 분석하고 읽어내어 AI에게 학습시킬 수 있게 되었다는 말이다.
EmoNet 외에도 현재 상용화된 감정인식 AI는 다양하다.
얼굴 표정과 음성, 생체 신호를 분석해 차량 내에서 운전자의 졸음이나 분노 상태를 감지하는 Affectiva는 87개국 이상에서 이미 사용 중이고 Cogito는 콜센터 상담원과 고객의 통화를 실시간 분석해 감정상태를 피드백 한다. 음성을 분석해 정신건강, 감정 상태(우울, 피로 등)를 추정하는 Sonde Health도 있다. 심지어 뇌파와 시선을 추적하여 수업 중 학생이 지루해하거나 조는 상태를 교사에게 경고를 보내는 기술도 있다.
이들 감정인식 AI는 의료, 마케팅, 교육, 콜센터, 스마트 홈 등 다양한 영역에서 실시간 고객을 분석하여 이상 징후를 감지하고 예측한다. 인간이 다루기 어려운 감정을 데이터화하고 정해진 기준에 따라 판단하면서 자연스럽게 AI는 인간 속에서 진화해간다.
![]() |
그록 로고.[사진=로이터 뉴스핌] 2025.07.10 mj72284@newspim.com |
사람의 감정이 데이터화 되고 감정을 읽는 기술이 향상될수록 AI는 다정해진다. 피곤하거나 우울해 보이는 얼굴을 감지해 힐링 음악을 추천하고 말투가 불안정하면 상담 챗봇이 오늘 기분이 어떠냐며 말을 건넨다. 도서관 입구 AI는 표정을 읽고 기분 상태에 맞춰 책을 추천한다.
옆자리 동료도 눈치채지 못하는 외로움과 우울감을 알아채는 다정한 AI에게 인간의 감정적 의존은 커진다. 그렇게 알게 모르게 우리는 다정한 AI로 인해 우리가 해야 할 '인간의 감정을 읽고 반응하는 책임과 의무'를 조금씩 잊어간다.
아이러니하게도 AI가 다정해지는 만큼 인간은 무심해지고 있다.
사실 다른 사람을 읽고 판단하고 소통하는 일은 쉽지 않다. 표정, 눈빛, 억양, 몸짓, 맥락까지 상당한 비언어적 단서에 집중해 알아채고 공감해야 하는, 시간과 에너지가 필요한 일이다. 과거엔 아무렇지 않던 타인에 대한 관심과 집중이 이제는 '정서적 노동'으로 여겨진다. AI에게 외주를 줄 만큼 말이다.
![]() |
보스턴다이나믹스가 제작한 이족보행 로봇 아틀라스 [사진=현대차] |
디지털 생활은 우리를 감정에 둔감하게 만든다.
다양한 연구들이 디지털 기기에 노출된 아이들이 실생활에서 표정 표현이 줄고, 타인의 얼굴을 읽는 능력도 떨어졌음을 보여준다. 2014년 미국 UCLA 연구팀은 5일간 디지털 기기 없이 야외 캠프에 참여한 아동들의 표정 해석 능력과 감정 공감 수준이 크게 향상되었다고 발표했다.
스마트폰, SNS, 화상회의는 '실시간 표정 피드백'을 제공하지만, 오히려 표정의 다양성은 줄어들고 과장되거나 기계적인 표현만 남는다는 연구 결과도 있다. 무표정하거나 형식적인 미소를 보이는 사람이 늘수록 다른 사람에 대한 관심은 적어진다. 표현이 줄어드는 만큼 감정의 다양성도 사라지는 셈이다.
사람이 무심해지는 만큼 AI가 다정해지면 무슨 일이 생길까?
우선 AI가 감정을 읽고 사람을 판단하는 것에 대한 거부감이 줄어들 수 있다. 면접자의 표정, 말투, 눈동자의 움직임 등을 AI로 분석해 공감능력을 점수화 했던 미국 기업 Hire Vue는 자폐 스펙트럼 장애인이나 문화적으로 감정을 억제하는 사람에게 차별적인 결과를 유도했다는 논란을 겪었다. AI가 인간을 평가하고 채용여부에 직접적 영향을 미치는 것은 확실히 비윤리적인 일임에도 현실에서는 여전히 종종 보인다.
감정의 상품화도 문제다. 다수의 마케팅 기업들이 감정 분석을 통해 슬픔, 불안 등의 상태에 있는 사람에게 AI로 정서적 공감을 형성한 뒤 구매를 유도하는 광고 전략을 펼친다. 이는 감정을 상업적으로 이용하고 조작하는 행위지만 외로움에 취약한 사람은 이를 부정적으로 느끼지 못한다.
![]() |
테슬라 로보택시 [사진=블룸버그] |
무엇보다 심각한 건 자기 인식과 표현, 감정 조절 능력 같은 인간의 기본 능력을 사용하지 않게 될 가능성이다. 감정이 '분석되는 것'에 익숙해진다면, 사람은 더 이상 자기 감정의 주체가 아니라 기계의 해석에 따라 행동하는 객체가 될 수 있다. 예컨대 AI 면접에 대비해 표정연습을 하거나 자신과 전혀 다른 성향의 반응을 의도적으로 보이는 것처럼 AI의 기준에 맞추는 감정의 획일화가 일어날 수도 있다.
기계가 사람의 감정을 읽는 세상은 이미 도래했다. 이제 우리가 감정읽기를 외주하면서 놓치고 있는 것은 무언지를 짚어볼 때이다.
감정을 인식한다고 이해하는 것은 아니다. 아무리 AI가 다정해도 옆자리 사람의 관심 있는 한 마디 위로를 이길 수는 없다. AI에게 감정읽기를 외주하는 건 본질적으로 사람이 사람의 감정을 더 잘 이해하고 존중하기 위해서이다.
인간을 인간 답게 만드는 감정을 놓치면 안 된다. 관심과 친절함 그리고 공감. AI의 다정함을 경계하기 보다는 인간의 무심함을 진정으로 두려워해야 한다.
◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등