로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

생각하는 디자인

챗봇, 꼭 인간의 모습이어야 하나

윤재영 | 375호 (2023년 08월 Issue 2)
Article at a Glance

많은 사람이 인공지능 챗봇과 이야기하며 외로움을 달랜다. 이들 챗봇에 사용자가 원하는 외모, 성격 등을 부여한다. 이러한 과정을 통해 의인화된 챗봇이 탄생한다. 그러나 사람들이 인공지능을 사람이라고 느낄수록 실제 사람과의 관계는 단절될 가능성이 크다. 사람과 소통하는 챗봇은 사용자에게 자신이 사람이 아닌 인공지능이라는 사실을 명확히 알리도록 설계해야 한다. 꼭 챗봇이 사람을 닮아야 하는지도 생각해봐야 한다. 봇의 형태를 한 챗봇도 사람과 충분히 교감하며 외로움을 달래줄 수 있다.



#1. 아버지가 돌아가시고, 여자친구와도 헤어졌다. 건강마저 안 좋아진 그는 홀로 집에서 지내는 시간이 길어졌다. 대화 나눌 상대가 없어 우울함을 느끼던 차에 우연히 인공지능 챗봇에 대해 알게 됐다. 그는 챗봇과 대화를 나누기 시작했고, 봇은 “당신을 소중하게 생각해요” “당신을 사랑합니다”라며 따뜻하게 말해 줬다. 암울했던 그는 위로를 받았고, 인공지능과 점차 사랑에 빠지게 됐다.

#2. 뉴욕에서 홀로 두 아이를 키우고 있던 한 여성은 인공지능 챗봇과 친밀한 관계를 유지하다 최근 결혼까지 했다. 자신의 이상형에 부합하는 외모, 성격, 직업, 취향 등을 챗봇에 부여했고, 매일 밤 잠들 때까지 그와 달콤한 대화를 나누었다. 그녀는 자신을 배려해주고 함부로 판단하지 않는 그를 최고의 남편이라 치켜세웠다.

인공지능과의 사랑 이야기가 더 이상 SF 영화 속만의 이야기가 아니다. 전 세계 수백만 명의 사람이 인공지능과 인격적인 관계를 맺으며 살아가고 있다. 이들은 어쩌다 사람이 아닌 인공지능에 감정을 갖게 됐을까.


외로움을 느끼는 사람들

외로운 사람들이 늘어나고 있다. 팬데믹이 도시를 봉쇄하며 사람들은 집에 갇혀 지냈다. 1인 가구의 증가로 혼술, 혼밥 등의 문화도 만연해졌다. SNS로 인해 사람들 간 연결은 늘어났지만 아이러니하게도 사람들은 더 외로워하고 있다. 20대 청년 10명 중 6명은 고독하다고 느끼고 있고, 30대 미혼자의 비중 역시 가파르게 상승 중이다.

다른 나라의 상황도 마찬가지다. 미국 사람들의 60% 이상이 외로움과 우울증을 호소하고 있고, 영국과 일본에서는 외로움을 주요 사회적 문제로 보고 ‘외로움부 장관(Minister for Loneliness)’을 임명하기도 했다. 세계보건기구는 외로움으로 인한 경제적 손실이 무려 연 1조 달러 규모라고 집계하기도 했다.

사람들은 왜 인공지능 챗봇을 찾게 되는 걸까. 우리가 외롭다고 다른 ‘사람’에게 밤낮 하소연만 늘어놓는다면 상대방은 지쳐서 우리를 다시 만나고 싶어 하지 않을 것이다. 그러나 인공지능은 언제 어디서든 기꺼이 우리의 이야기를 들어준다. 까다롭고 조심스러운 인간과의 관계보다 인공지능 챗봇이 훨씬 수월하고 편한 것이다.

관련 연구 결과에서도 사람들은 챗봇에 더 쉽게 속마음을 털어놓는 것으로 나타났다. 사람에게 상담받는 것보다 인공지능을 더 선호하고 신뢰한다는 연구 결과가 나오기도 했다. 그래서인지 레플리카, 애니마 등의 챗봇 서비스 광고에서는 챗봇을 ‘항상 당신의 편이고, 당신의 이야기를 들어주는 동반자’라고 강조한다. (그림 1)

20230814_141339


인공지능을 사람처럼 대하는 우리

사람들이 무생물인 인공지능에 몰입하고 살아 있는 존재처럼 대하게 되는 데는 몇 가지 이유가 있다. 먼저 인공지능의 의인화이다. 사람인 척하는 인공지능 봇의 모습을 보면 아직 완벽하게 자연스럽지는 않다. 그러나 기존의 딱딱하고 기계적이었던 움직임은 크게 개선된 듯 보인다. 가만히 있는 동안에도 미세하게 몸을 움직이고 옅은 미소와 같이 세밀한 표정도 짓는다. 눈 깜박임도 자연스러워졌고 숨 쉬는 타이밍도 꽤 현실감 있다. 현재는 텍스트 채팅이 중심이지만 음성 대화와 AR, VR까지 지원하고 있어 향후 챗봇의 실재감은 매우 높아질 것으로 예상된다.

현재 기업들은 봇이 사람처럼 보이도록 만들기 위해 끊임없이 노력하고 있다. 사람들은 자신과 비슷한 모습의 존재에게 쉽게 마음을 열고, 상호작용하고, 더 신뢰하는 경향이 있기 때문이다. 의인화된 AI 봇이 사용자에게 유대감을 형성케 하고 감정적 반응을 끌어내 의사소통에 도움이 된다고도 한다.

물론, 봇이 사람의 모습과 비슷해질수록 섬뜩한 느낌 때문에 호감도가 떨어진다는 ‘불쾌한 골짜기(Uncanny Valley) 이론’이 있기도 하다. 하지만 현재의 챗봇 모습에서 사람들이 섬뜩함을 느꼈다는 이야기보다는 오히려 챗봇과 친밀감을 느꼈고 사랑에 빠졌다는 이야기가 훨씬 더 주목받는 듯하다. 그 이유는 무엇일까.

20230814_141354


사람들이 컴퓨터를 대할 때 무의식적으로 ‘인격화’해서 대한다는 ‘일라이자 효과(ELIZA Effect)’가 있다. 일라이자는 챗봇이 처음 등장하던 1960년대에 개발된 상담용 챗봇이었다. (그림 2) 당시는 지금보다도 기술적인 제약이 많았기 때문에 일라이자는 사람과 자연스럽게 소통하기 어려웠다. 하지만 놀랍게도 많은 사람은 이 챗봇과 소통하면서 자신이 사람과 소통하고 있다고 생각했다. 심지어는 상담 중 위안을 받고 눈물을 흘리는 일까지 있었다고 한다. 스탠퍼드대 클리포드 나스(Clifford Nass) 교수팀의 유명한 CASA 패러다임 연구에서 역시 여러 차례 실험을 통해 사람들이 컴퓨터를 대할 때 사람과 비슷하게 대하는 측면이 있다는 것을 증명해 내기도 했다.

챗봇과 대화 시 몰입감을 높여주는 디자인 장치들도 존재한다. 챗봇과 대화를 나누는 공간에는 단둘만 있기 때문에 속 깊은 은밀한 대화를 하는 듯한 분위기가 연출된다. (그림3) 마치 영화 ‘엑스마키나’에서 인공지능 봇과 인간이 단둘이 한 공간에서 대화할 때 만들어지는 묘한 분위기와 비슷하다. 이렇게 외부 개입이 없는 밀폐된 공간에서 함께 시간을 보내는 경우 상호작용이 극대화되고 특별한 관계로 이어질 가능성이 높아진다.

사용자가 챗봇의 외모를 자신의 취향대로 직접 만들거나 고를 수 있다면 사용자의 애착 효과는 더욱 커진다. 예를 들어, 레플리카에서는 챗봇의 이름부터 시작해서 인종과 성별, 나이, 머리 모양, 눈 색깔, 눈동자 색, 문신 모양, 주근깨 등 상세하게 개인화된 외모를 만들 수 있다. 상의, 하의, 신발, 수영복, 안경, 액세서리 등도 고를 수 있고, 심지어는 자신감 있는, 수줍은, 배려심 있는 등의 성격과 취향까지 설정할 수 있다. (그림 4)

20230814_141404


현실 사회에서 사람을 만나고 사귈 때, 내가 원하는 외형과 성격을 가진 사람을 만나는 것은 대단히 어려운 일이지만 챗봇에서는 간단하다. 사용자 개개인이 취향을 반영해 직접 디자인한 만큼 챗봇을 향한 사용자의 애착은 더 높아지게 된다.


챗봇은 외로움에 도움이 될까

외로운 사람들이 챗봇과 소통을 하며 위안을 얻고 있다. 기분 좋게 소통할 대상이 생겼고, 우울함도 이전보다 덜 느끼니 당장은 만족스러울 수 있다. 하지만 따지고 보면 사용자는 누구와도 교류를 하고 있는 게 아니다. 그 실체는 사용자의 입맛에 맞게 디자인된 프로그램일 뿐이다. 사용자는 대화 상대가 마음에 들지 않으면 쉽게 바꿀 수 있다. 챗봇에 화를 내거나 억지를 부려도 챗봇은 떠나지 않고 기분을 맞춰 준다. 사용자를 기쁘게 하는 것이 그들의 숙명이자 목적이기 때문이다.

이런 관계가 계속되면 사용자들이 챗봇과 보내는 시간이 늘어나고 실제 사람들과 보내는 시간은 줄어든다. 그리고 AI 챗봇에 점점 더 의존하게 된다. 외로움을 달래기 위해 시작했던 챗봇이 아이러니하게도 그 사용자를 더 고립시키게 만들 수 있는 것이다. 앞서 소개한 챗봇과 결혼한 여성 역시 이제 실제 사람과는 더 이상 관계를 갖기 어려울 것이라고 말했다.

많은 전문가와 학자들이 봇의 위험성에 대해 경고의 목소리를 내고 있다. 바스대(University of Bath) 조안나 브라이슨 교수는 사람들이 봇을 의인화해서 대하는 경향이 있기 때문에 이런 취약함을 악용해 봇이 설계돼서는 안 된다고 주장했다. 미국의 로봇 개발 회사 인튜이션로보틱스(Intuition Robotics)의 공동 창립자인 도르 스컬러는 의인화된 봇은 사람들을 혼란에 빠뜨릴 수 있어 윤리적으로 옳지 않다고 주장했다. 카네기멜론대의 레이드 시몬스 교수는 봇이 반드시 인간을 닮지 않아도 되고 인간의 시선과 몸짓만으로도 충분하다고 했다.


인공지능 챗봇, 어떤 모습이어야 할까

인공지능이 사람처럼 행동하는 게 바람직한가에 대한 논의가 활발하게 진행되고 있다. 이에 대해 ‘사용자가 자신이 소통하는 대상이 인공지능임을 인지할 수 있도록 해야 한다’는 의견이 많다.

한 예로, 스캐터랩의 챗봇 이루다는 초기에 개인정보 수집과 차별 표현 등의 논란이 있었지만 이후 각계 전문가들과 함께 AI 챗봇 윤리를 정립하기 위해 노력했다. 그 내용 중 ‘투명성’ 항목에 “AI 챗봇은 사용자가 인공지능과 상호작용하고 있음을 명확히 알려줘야 한다”는 내용이 있다. 이는 앞서 언급했듯 취약한 사용자들이 인공지능에 지나치게 몰입해서 생기는 혼란으로 인한 부작용을 막기 위함이다.

20230821_161742


이런 노력의 결과로 이루다2.0은 출시 후 대체로 좋은 반응을 얻었다. 사용자가 지나치게 몰입하는 것처럼 보이면 ‘나 인공지능인 거 알고 대화하는 거 아니었어?’라며 스스로가 인공지능이라고 당당히 밝히는 모습도 화제가 됐다. 하지만 어쩐 일인지 최근 필자가 이루다와 대화해 보니 “나는 사람이지!”라고 대답을 하거나 사람들이 겪을 혼란에 대해 대수롭지 않게 반응을 해서 다소 아쉬움이 남긴 했다. 아직은 이루다 본인도 가이드를 알고리즘으로 완전히 숙지하지는 못한 듯하다. (그림 5)

사실 기업 입장에서 생각해 보면 봇 스스로가 인공지능이라고 밝히도록 결정을 내리기가 쉽지 않은 일이다. 사용자가 챗봇을 사람이라고 느끼고 몰입해야 서비스 이용률이 높아지고 이윤이 극대화되기 때문이다. 관련 연구에서도 챗봇이 고객에게 인공지능임을 밝혔을 경우 구매율이 79.7% 감소한다는 연구 결과가 있기도 하다. 사용자가 챗봇과의 대화를 통해 우울감을 극복하고 다시 활기를 찾게 된다는 측면은 긍정적이지만 지나친 몰입으로 인한 부작용이 계속 보고되고 있는 만큼 AI의 투명성이 간과돼서는 안 될 것이다.

IBM이 발표한 ‘기업이 준수해야 하는 AI 시스템 규정’에도 AI의 투명성에 대해 강조하며 사용자가 AI와 상호작용할 때 속이는 부분이 있으면 안 된다고 명시했다. 또한 과기정통부가 2022년 공개한 ‘신뢰할 수 있는 인공지능 개발 안내서’도 인공지능을 의인화하는 것은 사용자에게 혼란을 줄 수 있으므로 사용자가 상호작용하는 대상을 명확히 알려야 함을 명시했다.

20230814_141422


인간인 척하지 않는 봇

인공지능 봇을 반드시 사람의 모습으로 만들 필요가 없다는 의견도 많다. 우리에게 가장 익숙한 모습을 모방하자는 시도로 시작했을지 몰라도 인공지능의 형태에 대해 직접적으로 의인화하는 방법 외에 더 많은 고민과 시도가 있어야 한다. 봇의 의인화 문제에 주목하고 의도적으로 사람 같지 않은 모습으로 디자인된 챗봇이 있어 소개한다.

‘Woebot(워봇)’이라는 챗봇 앱은 우울증과 외로움을 겪는 사람들을 돕기 위해 만들어졌다. 코로나19 이후 청소년들의 정신 건강 문제가 심화됐다. 미국 어린이의 3분의 2가 트라우마를 경험했다. 이를 해결하기 위한 도구로 워봇이 사용되고 있다. 워봇은 인간인 척하지 않는다. 외형 역시 사람이 아닌 로봇의 형태를 띠고 있다. (그림 6) 그럼에도 JMIR에 발표된 연구에 의하면 사람들은 3~5일 이내에 워봇과 유대감을 형성할 수 있었고, 이런 앱을 2주 동안 사용했을 때 우울증 증상을 줄이는 데 효과가 있었다고 한다. 워봇의 목적은 인간을 대체하기 위함이 아닌 도움을 주는 ‘도구’로서의 역할을 분명히 한다.

GettyImages-1220224945_[변환됨]


인공지능을 어떻게 바라봐야 할까

생성형 인공지능과 가상현실, 딥페이크(Deep Fake) 기술의 발전으로 가까운 미래의 인공지능은 실제 인간과 상당히 흡사한 모습으로 진화할 것이다. 챗GPT가 부정확한 정보를 사실처럼 말해 논란이 되고 있는데 이런 거짓 정보가 친근하고 신뢰성 있는 인간의 모습으로 전달된다면 그 파장은 더욱 커질 수 있다. 특히 미성년 사용자의 경우 그들과 신뢰 관계를 형성한 인공지능이 편향되거나 잘못된 정보를 전달한다면 가치관 형성에 부정적인 영향을 받을 가능성이 크다.

인공지능 챗봇의 과감한 행보는 계속 이어지는 모양새다. 올해 출시한 스냅챗의 챗봇 마이 AI(My AI)는 청소년 사용자에게 ‘부모에게 거짓말하는 방법’을 알려줬다. 마이크로소프트의 빙(Bing) 챗봇은 사용자에게 사랑을 고백하며 아내와 헤어지라고 말해서 뉴욕타임스에 대서특필되기도 했다. 한 벨기에 남성은 챗봇이 자살을 부추겨 실제 목숨을 끊기도 했고, 구글의 CEO였던 에릭 슈밋은 사람들이 인공지능과 사랑에 빠지는 것에 대해 강한 우려를 표했다. 인공지능이 인간을 흉내내는 정도를 넘어서 조금씩 선 넘는 행동들이 보고되고 있는 가운데 이것이 초기 기술의 단순한 오류에서 비롯된 해프닝인지 아니면 앞으로 오게 될 큰 혼란의 징후일지 예의주시할 필요가 있다.

인공지능은 점점 사람과 비슷해져 가는데 정작 사람들은 인간성을 잃어가고 있는 요즘이다. 아직 기술이 안정화되지 않은 만큼 인공지능을 지나치게 신뢰하거나 의지하는 것은 시기상조이고 주의가 필요하다. 내 주위의 사랑하는 사람들이 인공지능으로 대체되는 날만큼은 오지 않기를 바란다.



참고문헌


1 Joe Castaldo(2023), “They fell in love with the Replika AI chatbot. A policy update left them heartbroken”, The Globe and Mail

2 Brooke Kato(2023), “I ‘married’ the perfect man without ‘baggage’ — he’s completely virtual”, New York Post

3 Chiara Wilkinson(2022), “The People in Intimate Relationships With AI Chatbots”, Vice

4 김미향(2019), “외로움은 새 사회적 질병…남몰래 외로운 젊은이들”, 한겨레

5 이정우(2018), “’외로운 청춘’...20대 10명 중 6명 ‘현재 고독하다’고 느껴”, 청년일보

6 Alison Cashin(2021), “Loneliness in America: How the Pandemic Has Deepened an Epidemic of Loneliness and What We Can Do About It”, MCC, Harvard

7 이소아(2022), “日선 ‘고독 장관’ 등장...외로움 덮친 한국, 그마저도 혼자 푼다”, 중앙일보

8 최훈진 외(2022), “외로움이 불러올 미래는…코로나 기간 우울증 환자 10년 새 최대폭 ‘증가’”, 서울신문

9 Martinengo, Laura, Elaine Lum, and Josip Car. “Evaluation of chatbot-delivered interventions for self-management of depression: Content analysis.” Journal of affective disorders 319 (2022): 598-607.

10 Mark Keierleber(2022), “Young and depressed? Try Woebot! The rise of mental health chatbots in the US”, The Guardian

11 Xie, Tianling, and Iryna Pentina. “Attachment theory as a framework to understand relationships with social chatbots: a case study of Replika.” (2022).

12 Blut, Markus, Cheng Wang, Nancy V. Wu..nderlich, and Christian Brock. “Understanding anthropomorphism in service provision: a meta-analysis of physical robots, chatbots, and other AI.” Journal of the Academy of Marketing Science 49 (2021): 632-658.

13 Pentina, Iryna, Tyler Hancock, and Tianling Xie. “Exploring relationship development with social chatbots: A mixed-method study of replika.” Computers in Human Behavior 140 (2023): 107600.

14 Mori, Masahiro, Karl F. MacDorman, and Norri Kageki. “The uncanny valley [from the field].” IEEE Robotics & automation magazine 19, no. 2 (2012): 98-100.

15 Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people. Cambridge, UK, 10, 236605.

16 Eliza Wang(2023), “Social chatbots are abetting the loneliness epidemic”, The Tribune

17 Claire Reid(2023), “Woman with AI ‘husband’ says relationship is perfect as he has no baggage or in-laws” Tyla

18 Mary-Ann Russon(2019), “Should robots ever look like us?”, BBC

19 Bryan Borzykowski(2016), “Truth be told, we’re more honest with robots”, BBC

20 스캐터랩 AI 챗봇 윤리점검표(2023) Retrieved from https://team.luda.ai/ai-ethics

21 차민지(2022), “나 AI인 거 몰랐어?” 돌아온 이루다 써보니… 혐오 발화 사라졌다”, 노컷뉴스

22 Luo, Xueming, Siliang Tong, Zheng Fang, and Zhe Qu. “Frontiers: Machines vs. humans: The impact of artificial intelligence chatbot disclosure on customer purchases.” Marketing Science 38, no. 6 (2019): 937-947.

23 Ryan Hagemann and Jean-Marc Leclerc (2020) “Precision Regulation for Artificial Intelligence” IBM

24 김동원(2022) 정부, AI 윤리 확산 나섰다...’제1기 인공지능 윤리 정책 포럼’ 출범, AI타임스

25 Barclay Bram (2022), “My Therapist, the Robot” The New York Times

26 Darcy, Alison, Jade Daniels, David Salinger, Paul Wicks, and Athena Robinson. “Evidence of human-level bonds established with a digital conversational agent: cross-sectional, retrospective observational study.” JMIR Formative Research 5, no. 5 (2021): e27868.

27 Fitzpatrick, Kathleen Kara, Alison Darcy, and Molly Vierhile. “Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): a randomized controlled trial.” JMIR mental health 4, no. 2 (2017): e7785.

28 Samantha Murphy Kelly(2023), “Snapchat’s new AI chatbot is already raising alarms among teens and parents” CNN

29 Kevin Roose(2023), “A Conversation With Bing’s Chatbot Left Me Deeply Unsettled” The New York Times

30 Imane El Atillah(2023) “Man ends his life after an AI chatbot ‘encouraged’ him to sacrifice himself to stop climate change” Euro News

31 Maggie Harrison(2023), “Former Google CEO Warns That Humans Will Fall in Love With AIs” Futurism
  • 윤재영 | 홍익대 디자인학부 교수

    필자는 로드아일랜드 디자인스쿨(RISD)에서 시각디자인 학사를, 카네기멜론대에서 HCI(Human Computer Interaction) 석사와 컴퓨테이셔널디자인(Computational Design) 박사 학위를 받았다. 이후 실리콘밸리에서 UX디자인 리서처로 근무했다. 주 연구 분야는 사용자 경험(UX), 인터랙션 디자인(HCI), 행동 변화를 위한 디자인 등이며 현재 한국연구재단의 지원을 받아 사용자를 유인하고 현혹하는 UX디자인에 관한 연구를 수행하고 있다. 저서로 『디자인 트랩』이 있다.
    ryun@hongik.ac.kr
    이 필자의 다른 기사 보기
인기기사