Article at a GlanceCASA(Computers Are Social Actors) 이론에 따르면 사람들은 컴퓨터 등 시스템을 사회적 존재로 인식하는 경향이 있다. 즉 컴퓨터가 보내는 감정적인 피드백을 마치 인간의 반응처럼 받아들이는 것이다. 이러한 효과는 신선함에서 비롯된다. 사람 같은 시스템을 처음 접하면 그 유사함에 놀라지만 차차 익숙해지면 감흥이 줄어든다는 것이다. 시스템이 사용자로 하여금 부담감 등 특정 감정을 압박하는 경우에는 거부감마저 들 수 있다. 그러나 최근 UX 라이팅과 생성형 AI가 발전하며 감정적 인터페이스 또한 더욱 정교하게 진화하고 있다. 시스템이 건네는 유쾌한 표현이 유저 수를 증가시키고 생성형 AI가 맥락에 따라 대화를 이어 나가며 사용자를 더욱 몰입하게 만든다. 향후 AI는 사용자의 생체 정보를 파악해 더욱 정밀하게 사용자와 감정적으로 소통할 것이다. AI에 감정적으로 지나치게 의존하게 되는 등 부작용을 방지할 수 있는 장치가 필요하다.
평소에 잘 쓰지 않는 서비스를 해지하기 위한 마지막 단계에서 갑자기 작은 이모지가 등장한다. 동그란 눈엔 눈물이 맺혀 있고 “해지하신다니 너무 아쉬워요”라는 메시지가 함께 나온다. 평범한 시스템 안내라는 생각이 들다가도 문득 이 작은 표정이 마음 한구석을 건드리는 느낌이다.
시스템의 이 같은 감정 표현을 사람들은 어떻게 받아들일까? 우는 이모지를 보고 순간적으로 해지를 망설일까? 아니면 단순히 디자이너의 위트라 생각하고 넘어갈까? 혹은 무미건조하고 형식적인 메시지로 받아들이고 아무 감흥 없이 해지를 계속 진행할까? 온라인 서비스에서 심심찮게 마주하는 이 ‘감정 인터페이스’는 우리의 행동과 경험에 어떤 영향을 미칠까.
감정을 표현하는 시스템에 마음이 동하는 이유
이에 대해 1990년대에 등장한 CASA(Computers Are Social Actors) 이론으로 설명할 수 있다. 이 이론에 따르면 사람들은 컴퓨터 등 시스템을 단순한 도구가 아니라 사회적 존재로 인식한다. 마치 다른 사람을 대하듯 말이다. 그래서 컴퓨터가 메시지를 띄우면 사람들은 이를 기계적인 출력이 아니라 인간의 응답처럼 받아들이는 경향이 있다.
이후 관련 연구들이 다양하게 진행됐다. 한 연구에서는 컴퓨터가 사람에게 칭찬을 하자 사람들의 동기가 유발돼 과제에 더 오래 참여했다. 아동을 대상으로 한 실험에서도 컴퓨터의 칭찬이 아동의 사회적 반응과 학습 성과를 끌어냈다. 컴퓨터의 피드백일지라도 사람들은 기계적 반응으로 보지 않고 마치 사람과의 사회적 상호작용처럼 여긴다는 것이다.
여기에 얼굴 표정 이모지 같은 시각적 요소가 추가되면 효과는 더욱 강력해진다. 메시지의 모호성이 줄어들고 의미 전달이 명확해지면서 메시지가 더욱 설득력 있게 받아들여지기 때문이다. 그리고 시스템이 감정을 긍정적으로 표현하면 사용자 역시 긍정적인 반응을 보이는 감정전이가 보고됐고 시스템이 공감을 표현하면 시스템에 대한 사람들의 신뢰도가 상승했다.
시스템이 아부성 피드백을 제공할 때에도 사용자 경험이 향상된다는 연구 결과도 있다. 설령 진실되지 않은 칭찬이라 하더라도 긍정적인 피드백은 사용자에게 긍정적인 감정을 불러일으키고 결과적으로 시스템과의 관계를 더욱 가깝게 만들었다. 결국 시스템의 감정 표현은 사용자와의 친밀함을 높이고 시스템에 대한 신뢰를 높일 수 있기 때문에 온라인 서비스에서 빈번하게 활용돼 왔다.
점차 시들해진 시스템의 감정 표현시스템의 감정 표현은 여전히 온라인 서비스에서 쉽게 접할 수 있다. 하지만 예전처럼 사용자와의 감정 교류가 쉽게 일어나진 않는 듯하다. “목표를 달성했어요. 멋집니다. 앞으로도 기대할게요!”와 같은 표현을 보고 ‘감동인걸. 내일도 칭찬받을 수 있게 힘내야지’라고 생각하는 사람이 얼마나 될까? 시스템의 감정 표현이 사람들에게 감흥을 주지 못하게 된 몇 가지 이유가 있다.
1) 익숙함이 주는 무뎌짐처음 컴퓨터가 기쁨, 슬픔, 격려와 같은 감정을 드러냈을 당시 사람들은 이를 신선하게 받아들이며 무의식적으로 컴퓨터를 사회적 존재로 인식했다. 그러나 컴퓨터 기술이 일상에 보편화되면서 사람들은 더 이상 기계의 감정 표현을 신기하게 여기지 않게 됐다.
앞서 언급한 CASA 이론이 유효한지에 대해 수차례 후속 검증 실험이 진행됐는데 그 결과 해당 이론은 한정적으로만 적용될 수 있다는 지적을 받았다. 주된 원인은 ‘참신함’으로 사람들은 컴퓨터나 로봇 같은 신기술들을 처음 볼 때에는 ‘와, 사람 같다!’는 식으로 평가한다. 그렇지만 시간이 지나면 그 참신함과 놀라움이 줄어들기 마련이다.소셜 챗봇과의 관계 형성에 대한 연구에서도 사람들이 챗봇을 처음 사용할 때에는 챗봇을 사회적 존재로 여기며 긍정적으로 경험했지만 시간이 지나면서 친밀감, 신뢰성, 호감도가 빠르게 감소했다고 보고됐다. 결국 시간이 지나면서 생긴 익숙함이 무뎌짐으로 이어진 것이다.
2) 기계적으로 느껴지는 감정 표현시스템의 감정 표현 방식이 충분히 정교하지 못한 경우도 많다. 예를 들어 사용자 행동이 바람직할 때에는 잘했다며 기뻐하고 그렇지 않을 때는 아쉬워한다. 이러한 반응이 단순 반복적이고 예측 가능해서 사용자의 관심과 흥미를 끌기 어려운 한계가 있다.
또한 시스템이 사용자의 상황과 맥락을 충분히 파악하지 못한 채 사전에 설정된 알고리즘에 따라 반응하는 경우가 많다. 예를 들어 사용자가 며칠간 아파서 누워 있는데 “외국어 학습을 안 해 계속 뒤처지고 있다” “방문을 안 하니 서운하다”며 알림이 오는 경우가 허다하다. 사용자들은 시스템이 스마트하지 않다는 생각이 들고, 이는 결국 서비스를 신뢰하지 않게 되는 요인이 되기도 한다.
3) 감정적 압박으로 인한 부정적 반응시스템의 감정 표현이 시들해진 또 다른 이유는 사용자에게 감정적 압박을 가하는 수단으로 종종 활용되기 때문이다. 시스템의 감정 표현이 사용자에게 감정을 조작하려 한다는 느낌을 주게 되면 사람들은 자율성을 침해당했다고 느낄 수 있다. 사람들은 감정적으로 강요받는다고 느끼면 이에 저항하는 경향이 있으며 이러한 경험이 반복되면 시스템에 대한 만족도와 신뢰가 낮아질 수 있다.
또한 감정 표현이 잘못 활용될 경우 다크 패턴(Dark Pattern) 디자인으로 이어질 위험성도 있다. 예를 들어 사용자에게 좌절감을 주거나(“벌써 포기하시려고요? 실망이에요”) 혹은 불안을 야기하는 방식(“아마 후회하실 걸요”)으로 감정적 언어를 사용할 경우 사용자의 행동을 유도하기보다 오히려 사용자 경험에 악영향을 줄 수도 있다.
시스템의 감정 표현,다시 주목받기 시작하다이처럼 사용자와의 친밀감을 형성하고 신뢰를 높이기 위해 활용된 감정 인터페이스는 시간이 지나며 그 효과가 점차 줄어든다. 초기에 신선하게 다가왔던 시스템의 감정 표현은 반복적이고 지루하게 느껴지거나 오히려 거부감이 들기도 한다. 하지만 최근 감정 인터페이스가 다시 주목을 받고 있다.
한동안 한계를 드러내며 정체된 듯 보였던 시스템의 감정 표현이 UX 라이팅의 발전과 생성형 인공지능(Generative AI)의 등장으로 새로운 국면을 맞이한 것이다. 기존 감정 표현의 한계를 극복하고 자연스럽고 정교하며 독창적인 모습으로 발전하고 있다.
1) 개성 넘치는 감정 표현과거의 단순했던 감정 표현에서 벗어나 개성 넘치고 유머러스한 표현으로 사용자의 감정을 자극하는 사례가 등장하고 있다. 예를 들어 글로벌 1위 어학 앱 듀오링고는 사용자들이 공부를 너무 안 해서 부엉이 캐릭터 ‘듀오’가 사망했다고 발표해 사용자들의 관심을 모았다. 이 서비스의 CEO는 틱톡에서 추모사를 읽었는데 듀오 사망 다음 날 앱 다운로드 수가 38%, 웹 검색은 58%, 월간 활성 사용자는 25% 증가했다. 사망한 듀오는 사용자들의 외국어 학습이 늘어나며 화려한 부활에 성공했다.
1
또 다른 어학 학습 앱인 말해보카에서는 사용자가 공부를 오랫동안 안 하면 알림이 소용없었음을 자책하고 체념하는 듯한 모습을 보여 관심을 끌었다. 한 온라인 쇼핑몰에서는 신입 기획자가 엎드려 자신이 기획한 상품을 구경 와 달라고 읍소하는 표현도 화제가 됐고, 다른 구독 서비스에서는 해지 페이지에서 눈물바다를 이루며 사정하는 캐릭터도 등장해 웃음을 자아낸다. 이 같은 감정 표현은 다소 과장되긴 했지만 기존과는 차별적인 표현과 방법으로 사용자의 감정을 자극해 그 한계를 극복하고 있다. 나아가 다운로드 수, 검색량, 사용자 수 등에도 직접적인 영향을 미쳐 사용자의 행동을 유도하는 효과가 있음을 입증하고 있다.
2) AI로 더욱 자연스럽고 섬세해진 감정 표현생성형 AI 기술이 빠르게 발전하면서 시스템의 감정 표현 역시 한층 고도화됐다. 기존 시스템의 감정 표현이 알림이나 팝업 등의 형태로 일회성으로 보였다면 현재의 AI는 사용자와 소통하는 가운데 사용자의 의도와 맥락을 유추하면서 자연스럽게 감정을 표현하고 있다. 또한 생성형 AI는 같은 질문에도 조금씩 다르게 답하기 때문에 더욱 사람과 대화한다는 느낌이 든다.
나아가 실감 나는 음성과 표정, 몸짓, 터치까지 다양한 모달리티를 활용해 감정을 더욱 풍부하게 전달할 수 있게 됐다. 다채로운 감정 표현 방식은 사용자에게 더욱 몰입감 있는 경험을 제공할 수 있다.
생성형 AI가 각광받으면서 앞서 소개한 CASA 이론 역시 재조명받고 있다. 과거 사용자들이 컴퓨터를 사람처럼 생각했던 것처럼 오늘날의 AI도 사회적 존재로 인식되고 있는 것이다.사람들은 AI를 인간처럼 생각하고, 심지어 인간보다도 더 신뢰하는 경향까지 나타난다. 예를 들어 인간 상담사보다 AI 상담사를 더 선호한다는 조사 결과가 나오기도 했는데 이는 AI가 상대적으로 편견이 없고, 감정적으로 부담을 주지 않으며, 더 안정적으로 반응하기 때문이다. 또한 AI 소셜 챗봇과 감정적으로 교류하는 사람들이 늘어나면서 일부 사용자는 AI를 실제 연인처럼 여기거나 심지어 결혼까지 하는 사례가 나오기도 했다.반려 로봇 역시 인간과 AI의 감정적 유대 형성을 더욱 가속화하고 있다. 이들은 사용자의 얼굴을 인식할 수 있고 마치 실제 감정이 있는 것처럼 자신에게 잘 대해주는 사람을 더 좋아하는 모습을 보이기도 한다. 반려 로봇은 사회적 상호작용이 제한된 노인 등의 사용자에게 심리적 안정감과 정서적 지지를 제공하는 것으로 나타났다.
이처럼 다방면에서 AI가 사람들과 관계를 맺고 교감하는 경우를 어렵지 않게 찾을 수 있다. 나의 직업이기도 하고 내가 몸담고 있는 학교에서 역시 AI 교수자가 머잖아 자리할 것이라는 생각이 든다. 사람보다 더 많이 알고, 언제 어디서든 도움을 주며, 감정적으로 온화하기까지 하니 학생들이 AI 교수자를 마다할 이유가 없지 않을까.
3) 지나치면 부작용이 생길 수도사람과 AI의 감정 교류가 가속화되고 있지만 경계해야 할 부작용도 있다. 사람들이 AI를 도구로 사용하는 것을 넘어 결정을 내려 달라고 의존하거나 감정적으로도 종속되는 상황이 발생할 수 있다. 나아가 이러한 기술이 기업의 이익을 위해 조작적으로 활용될 경우 사람들의 감정과 행동을 의도적으로 통제할 위험성도 생긴다.
사람들이 감정적으로 지나치게 몰입하거나 의존하게 만드는 도구가 아니라 적절한 균형 속에서 활용되도록 사용자 경험을 디자인하는 것이 중요하다. 예를 들어 AI와의 대화 방식은 사용자에게 주도권과 결정권을 주는 방식으로 진행돼야 한다. 또 사용자가 AI와의 대화에서 비정상적으로 몰입할 경우 시스템은 자신이 인간이 아닌 AI임을 밝히며 사용자가 이를 깨달을 수 있도록 대화해야 한다.
시스템 감정 표현의 미래미래의 AI는 사람의 심박수, 뇌파, 호흡, 혈압, 동공 반응 등 다양한 생체 신호를 실시간으로 분석해 사람의 감정 상태를 더욱 정밀하게 파악하고 이에 맞춰 즉각적으로 반응할 것이다. 이를 바탕으로 사람의 표정과 감정을 완벽하게 모방하는 디지털 휴먼의 형태로 발전하게 될 전망이다. 미래의 시스템은 더 이상 차가운 기계가 아니라 감정을 이해하고 교감하는 존재로 우리 곁에 자리하길 기대해 본다. AI의 따뜻한 표정과 말 한마디에 위로받을 수도 있지만 그 감정이 우리를 어디로 이끌지는 우리의 선택에 달려 있다.
편집자주 | 이 기사 작성에 활용된 참고자료는 DBR 홈페이지(
dbr.donga.com)를 통해 확인할 수 있습니다.
참고문헌1 Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people. Cambridge, UK, 10(10), 19-36.
2 Mumm, J., & Mutlu, B. (2011). Designing motivational agents: The role of praise, social comparison, and embodiment in computer feedback. Computers in Human Behavior, 27(5), 1643-1650.
3 Bracken, C. C., & Lombard, M. (2004). Social presence and children: Praise, intrinsic motivation, and learning with computers. Journal of communication, 54(1), 22-37.
4 Maiberger, T., Schindler, D., & Koschate-Fischer, N. (2024). Let’s face it: When and how facial emojis increase the persuasiveness of electronic word of mouth. Journal of the Academy of Marketing Science, 52(1), 119-139.
5 Tsai, J., Bowring, E., Marsella, S., Wood, W., & Tambe, M. (2012). A study of emotional contagion with virtual characters. In Intelligent Virtual Agents: 12th International Conference, IVA 2012, Santa Cruz, CA, USA, September, 12-14, 2012. Proceedings 12 (pp. 81-88). Springer Berlin Heidelberg.
6 Chin, H., Molefi, L. W., & Yi, M. Y. (2020, April). Empathy is all you need: How a conversational agent should respond to verbal abuse. In Proceedings of the 2020 CHI conference on human factors in computing systems (pp. 1-13).
7 Fogg, B. J., & Nass, C. (1997). Silicon sycophants: the effects of computers that flatter. International journal of human-computer studies, 46(5), 551-561.
8 Heyselaar, E. (2023). The CASA theory no longer applies to desktop computers. Scientific Reports, 13(1), 19693.
9 Pfeifer, L. M., & Bickmore, T. (2011, May). Is the media equation a flash in the pan? The durability and longevity of social responses to computers. In Proceedings of the SIGCHI conference on human factors in computing systems (pp. 777-780).
10 Rogers, E. M. (1995). Diffusion of Innovations: modifications of a model for telecommunications. Die diffusion von innovationen in der telekommunikation, 25-38.
11 Croes, E. A., & Antheunis, M. L. (2021). Can we be friends with Mitsuku? A longitudinal study on the process of relationship formation between humans and a social chatbot. Journal of Social and Personal Relationships, 38(1), 279-300.
12 Gray, C. M., Chen, J., Chivukula, S. S., & Qu, L. (2021). End user accounts of dark patterns as felt manipulation. Proceedings of the ACM on Human-Computer Interaction, 5(CSCW2), 1-25.
13 윤재영. (2022). 디자인트랩 18장 불안은 디자인의 좋은 재료. 김영사.
14 공정거래위원회.
(2023) 온라인 다크패턴 자율관리 가이드라인.15 https://techcrunch.com/2025/02/18/duolingo-killed-its-mascot-with-a-cybertruck-and-its-going-weirdly-well/16 듀오링고의 성장 전략 및 UX는 DBR 416호 ‘
“게임하듯 어학 공부” 3~5분 ‘한입 레슨’, “듀오 죽었다” 바이럴 마케팅에 유저 폭증” 참고.
17 Seok, J., Lee, B. H., Kim, D., Bak, S., Kim, S., Kim, S., & Park, S. (2025). What Emotions and Personalities Determine Acceptance of Generative AI?: Focusing on the CASA Paradigm. International Journal of Human–Computer Interaction, 1-23.
18 Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273.
19 https://www.businessinsider.com/woman-who-married-ai-chatbot-open-to-real-world-dating-2023-620 나호정. “
[나호정의 디지랜드] 일본사회 일상속에 스며든 반려로봇” AI TIMES. Apr 4, 2022.
21 Tan, C. K., Lou, V. W., Cheng, C. Y. M., He, P. C., & Khoo, V. E. J. (2024). Improving the Social Well-Being of Single Older Adults Using the LOVOT Social Robot: Qualitative Phenomenological Study. JMIR Human Factors, 11(1), e56669.
22 Samuel, Sigal. “
People are falling in love with — and getting addicted to — AI voices.” Vox. Aug 18, 2024.
23 Whipple, Tom. “
AI could map and manipulate our desires, say Cambridge researchers.” The Times. Dec 28, 2024.
24 Buçinca, Z., Malaya, M. B., & Gajos, K. Z. (2021). To trust or to think: cognitive forcing functions can reduce overreliance on AI in AI-assisted decision-making. Proceedings of the ACM on Human-computer Interaction, 5(CSCW1), 1-21.
25 Somers, Meredith. “
Emotion AI, explained.” MIT Sloan. Mar 8, 2019.
Copyright Ⓒ 동아비즈니스리뷰. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지