default_top_notch
ad78
ad79
ad74

[홍석윤의 AI 천일야화] 기계에 감정이입 가르친다

스마트 테크놀로지 추구, 사람의 감정과 표정에 대응하는 감성 AI 개발

공유
   
▲ 지난 몇 년 동안 AI는 점점 터치, 제스처, 음성 같은 보다 더 자연스러운 사용자 인터페이스로 발전해 왔다.    출처= Digitalist

[이코노믹리뷰=홍석윤 기자] 2000년대 초 캠브리지 대학교(Cambridge University)에서 컴퓨터 과학을 공부하던 라나 엘 칼리우비는 종종 향수병에 시달렸다. 그녀는 가족에게 보내는 메시지에 슬픈 얼굴의 이모티콘을 올리곤 했지만 그것만으론 향수병을 달래기에 충분치 않았다.

"내가 느끼는 모든 뉘앙스와 감정을 사이버 공간에서 표현할 수 없었습니다. 그 순간 깨닫게 되었지요. 우리의 기술과 장치가 우리가 생각하는 것을 그대로 이해하게 하려면 무엇이 필요할까?"

그 질문은 그녀로 하여금 그에 관한 연구를 하게 만들었고, 마침내 2009년에 인간의 감정을 읽을 수 있는 기술을 만드는 회사인 어펙티바(Affectiva)의 출범으로 이어졌다.

어펙티바는 우리의 기분, 감정, 얼굴 표정, 음성 톤, 그 외 비언어적 신호(대부분 인간의 뇌에 내재되어 있지만 채팅봇, 디지털 장치, 스마트 기기에는 없는 기능들)를 인식하고 그에 대응하는 인공지능을 만드는 것을 목표로 하는 이른 바 ‘감성 AI’라는 새로운 분야의 선두 주자다.

인텔리전트 퓨처 컨설팅(Intelligent Future Consulting)의 설립자인 리차드 욘크는 "지난 몇 년 동안 우리는 점점 터치, 제스처, 음성 같은 보다 더 자연스러운 사용자 인터페이스로 발전해 왔다."고 말했다. 이 회사의 목표는 인간과 보다 부드럽게 상호작용하는 기술을 만드는 것이다.

당신의 기분이 울적할 때 이를 감지하고 당신에게 일어나 몸을 움직이라고 권하는 스마트폰을 상상해 보라. 또는, 당신이 피곤하다는 것을 알고 운전을 멈추라고 권하는 자동차, 당신의 비꼬는 말투에 적절하게 반응하는 디지털 비서는 어떤가?

"어떤 분야나 활동에서든, 당신의 감정을 인식하고 그에 반응하는 시스템을 보게 될 것입니다.”

감정을 이해하는 지능적인 AI는, 억압적인 정권에서 반체제 인사를 식별하는 일과 같은 불순한 목적을 위해 사용될 수도 있다. 중국은 이미 지하철역, 공항, 국경, 그리고 거리에서 AI로 작동되는 안면인식 기술을 이용해 법을 어긴 사람들을 추적하고 식별하고 있다. 당국이 언젠가는 그들의 기분이나 심리상태를 파악하기 위해 감성 AI를 이용하는 것을 상상하는 것은 어렵지 않다.

엘 칼리우비는 이미 감성 AI를 상업적 목적으로 사용하고 있다. 어펙티바는 벤처캐피털로부터   2600만 달러(300억 원)의 자금을 지원받았으며, 전 세계 40억 명의 이미지 데이터베이스를 보유하고 있다.

   
▲ 어펙티바는 머신러닝을 이용해 사람들의 웃는 얼굴, 화난 얼굴, 찡그린 얼굴 사진을 분석한다.    출처= Monk's Hill Ventures

이 회사는 다른 제품에 사용하기 위해, 머신러닝을 이용해 사람들의 웃는 얼굴, 화난 얼굴, 찡그린 얼굴 사진을 분석한다. 그 중 하나는, 소비자 패널리스트를 웹캠으로 촬영해 광고나 기타 디지털 콘텐츠에 대한 실시간 반응을 분석하는 시장조사 서비스다. 이미 초콜릿 회사 마스(Mars), 시리얼 회사 켈로그(Kellogg’s), 방송사 CBS 등 1400개의 고객사들이 이 기술을 사용했다.

어펙티바는 운전자들이 피곤할 때 실내 카메라가 이를 인식해 커피 한잔을 마시거나 도로에 집중하라는 음성을 내보내는 프로그램도 테스트하고 있다. 어펙티바의 컴퓨터 과학자들은 전세계의 데이터를 이용해 성별, 인종 및 기타 인구통계 전반의 얼굴 표정을 추적하도록 그들의 감정인식 소프트웨어를 훈련시켰다.

구글의 모회사 알파벳이 2015년에 설립한 구글 감성연구소(Google Empathy Lab)는 하드웨어에서부터 구글 어시스턴트(Google Assistant)에 이르기까지 구글의 모든 제품팀에 조언하는 역할을 한다. 구글의 대화설계팀장인 캐시 펄은 "시간이 지나면서 인공지능 비서가 사람의 대화를 더 잘 이해할 수 있게 됨에 따라, 우리의 설계에 감정 이입을 더 잘 반영하게 되었다”고 말했다.

"예를 들어, 아침에는 사용자가 급한 마음에 인공지능 비서가 빠르게 응답하기를 원하지만, 저녁에는, 예를 들어 어떤 음악을 들을 것인가에 대해 인공지능 비서와 좀 더 긴 대화를 원할지도 모르지요. 사용자의 감정을 이해하려면 사용자의 대화 상황, 즉 그들이 운전 중인지, 바쁜지, 도는 서두르고 있는 지 등을 이해하는 것까지 포함됩니다. 그래야 대화의 흐름을 따라갈 수 있으니까요."

매사추세츠 공과대학 미디어랩(Media Lab.)에서 감성 컴퓨팅 박사과정을 밟고 있는 아스마 간데하리운은 "AI와의 상호작용에 있어서, 사용자가 감성을 표현하는 봇을 선호하는지 아닌지는 아직 확실하지 않다"고 말한다.

"사람들은 인간처럼 공감하는 봇을 좋아할까요, 아니면 당신의 감정에는 관심이 없는 일반적인 봇을 좋아할까요, 그도 저도 아니면 우리의 감정을 다 알면서도 아는 척하지 않는 봇을 더 좋아할까요? "

   
▲ 구글 홈 허브(Google Home Hub) 스마트홈 컨트롤러. 2015년에 2015년에 설립된 구글 감성연구소(Google Empathy Lab)는 하드웨어에서부터 구글 어시스턴트(Google Assistant)에 이르기까지 구글의 모든 제품팀에 조언하는 역할을 한다.   출처= Digital Trends

간데하리운은 마이크로소프트에서 인턴으로 활동하면서, 디지털 기기를 통한 정신건강 개선 방법을 연구하기 위해 ‘감성적이고 지적인 개인 비서’ 엠마(EMMA)를 개발하는데 참여했다. 엠마는 스마트폰 앱인데, 이 앱은 사용자들에게 자신의 기분과 에너지 활력 등 자신의 감정 상태를 설명하도록 요구하는 경보를 보내고 위치 데이터도 추적한다. 이를 통해 엠마는 사용자들의 변하는 기분을 이해하고 프로그램이 그들의 기분에 반응하게 할 뿐 아니라 그들의 기분을 예측할 수도 있다. 예를 들어, 사용자가 낮 8시간 동안 운동하지 않으면 엠마가 이를 알아차리고, 사용자가 우울하다는 것을 직감한다. 이때 사용자가 앱을 열면, 엠마는 "당신이 우울한 걸 보니 안됐군요. 기분이 나아졌으면 좋겠습니다”라고 말한다. 그리고는 심호흡이나 친구와의 대화, 또는 귀여운 사진의 링크를 클릭하라는 등, ‘가벼운 활동’을 제안하기도 한다.

연구자들이 엠마로 탐구하고 싶었던 핵심 질문은 설계자들이 AI를 좀 더 중립적으로 만들어야 하는지 아니면 상담자나 신뢰할 수 있는 동반자로 만들어야 하는지에 관한 것이었다. 지금까지의 결과는, 외향적인 사람들이 내향적인 사람들보다 기계가 자신의 기분을 이해한다는 메시지에 더 잘 반응한다는 것이다. 언젠가는 엠마가 개인에 대한 반응을 맞춤화해서, 예를 들어, 기계가 자신의 감정을 이해하는 것을 좋아하는 사람들에게는 좀 더 찐한(?) 사랑을 표현하게 만들 수 있을 것이다.

인텔리전트 퓨처 컨설팅의 욘크는 "감정이 우리 자신을 나타내는 핵심이고 인류의 가장 초기의 의사소통 수단이기 때문에, 감성 컴퓨팅과 감정을 이해하는 AI는 매우 중요한 의미가 있다"고 말했다. 그러나 그는 "언제 어디서나 우리의 감정을 원활하게 이해하는 AI의 개발은 좋은 일이긴 하지만 아직 갈 길이 멀다”고 지적했다.

"우리 사회가 기술과 상호작용하는 이 새롭고 매우 개인화된 양식에 익숙해지려면 시간이 좀 걸릴 것입니다.”

홍석윤 기자 syhong@econovill.com

기사승인 2019.10.12  15:00:02

<경제를 리뷰, 미래를 본다 © 이코노믹리뷰 무단전재 및 재배포금지>
<필자의 견해는 ER편집방향과 무관합니다.>

홍석윤 기자 의 기사더보기



ad81
인기뉴스
ad73
SPONSORED
ad61
ad62

헤드라인

ad63

중요기사

default_side_ad1

최근 전문가칼럼

ER TUBE

1 2 3 4 5
item52
default_side_ad2
ad36

피플+

1 2 3
set_P1
1 2 3
item49
ad66
-->
default_side_ad3

섹션별 인기기사 및 최근기사

ad57
default_setNet2
ad67
default_bottom
#top
default_bottom_notch