Based on “User Trust in Recommendation Systems: A comparison of Content-Based, Collaborative and Demographic Filtering” (2022) by Mengqi Liao and S. Shyam Sundar and Joseph B. Walther. in CHI Conference on Human Factors in Computing Systems (CHI '22) .
무엇을, 왜 연구했나?인공지능(AI) 기술의 성능이 발전함에 따라 적용 가능한 분야가 확대되고 있다. 일상 속 사람과 AI 간의 접점도 늘어나고 있다. 그러나 눈부신 기술 발전에도 불구하고 아직까지 AI가 모든 상황에서 완벽하진 못한 것이 현실이다. 이런 상황에서 AI가 만들어 낸 결과를 사용자에게 전달할 때 결과가 만들어진 이유와 과정을 함께 잘 설명하는 ‘설명 가능한 AI(XAI, Explainable AI)’가 주목받고 있다. AI가 100% 완벽하다면 사용자가 받은 결과를 온전히 따르면 된다. 하지만 아직 기술이 완벽하지 않기에 AI가 내놓은 결과를 사용자는 어떻게 활용해야 할지 고민할 필요가 있다. 이때 사용자가 AI를 잘 활용할 수 있도록 돕는 정보를 제공하는 것이 바로 설명 가능한 AI의 역할이다.
설명 가능한 AI의 중요성이 커지는 응용 분야 중 하나는 추천 시스템(Recommender System)이다. 시스템이 제공한 추천 결과를 사용자가 받아들이고 이해하는 데 있어 부가적인 설명은 굉장히 유용한 정보가 될 수 있다. 연구에 따르면 추천 결과에 대한 상세한 설명은 사용자가 인식하는 추천 성능을 높여주고, 전반적인 사용자 경험을 개선하는 데 효과가 있는 것으로 나타났다. 본 연구를 수행한 미국 펜실베이니아주립대와 캘리포니아대 공동 연구진은 추천 시스템이 사용하는 추천 방식에 주목했다. 추천 방식에 따라 추천에 대한 설명도 달라지는데 이에 따라 사용자 신뢰에도 차이가 있을 수 있다는 가설을 세웠다.
연구진은 실험에 세 가지 대표적인 추천 방식을 활용했다. 사용자의 선호도와 제품 특성을 매칭하는 콘텐츠 기반 추천(Content-based Recommendation), 유사한 선호도를 가진 사용자를 매칭하는 협업 필터링(Collaborative Filtering), 인구통계학적 특성을 기반으로 사용자에게 맞춤화하는 인구통계학적 필터링(Demographic filtering)에 따라 설명이 포함된 추천 결과를 제시했을 때 추천 시스템에 대한 사용자 신뢰가 어떻게 달라지는지 분석했다.