로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

AI

AI 추천 신뢰도 높이려면 ‘설명 장치’ 잘 갖춰야

고민삼 | 369호 (2023년 05월 Issue 2)
JW1


Based on “User Trust in Recommendation Systems: A comparison of Content-Based, Collaborative and Demographic Filtering” (2022) by Mengqi Liao and S. Shyam Sundar and Joseph B. Walther. in CHI Conference on Human Factors in Computing Systems (CHI '22) .



무엇을, 왜 연구했나?

인공지능(AI) 기술의 성능이 발전함에 따라 적용 가능한 분야가 확대되고 있다. 일상 속 사람과 AI 간의 접점도 늘어나고 있다. 그러나 눈부신 기술 발전에도 불구하고 아직까지 AI가 모든 상황에서 완벽하진 못한 것이 현실이다. 이런 상황에서 AI가 만들어 낸 결과를 사용자에게 전달할 때 결과가 만들어진 이유와 과정을 함께 잘 설명하는 ‘설명 가능한 AI(XAI, Explainable AI)’가 주목받고 있다. AI가 100% 완벽하다면 사용자가 받은 결과를 온전히 따르면 된다. 하지만 아직 기술이 완벽하지 않기에 AI가 내놓은 결과를 사용자는 어떻게 활용해야 할지 고민할 필요가 있다. 이때 사용자가 AI를 잘 활용할 수 있도록 돕는 정보를 제공하는 것이 바로 설명 가능한 AI의 역할이다.

설명 가능한 AI의 중요성이 커지는 응용 분야 중 하나는 추천 시스템(Recommender System)이다. 시스템이 제공한 추천 결과를 사용자가 받아들이고 이해하는 데 있어 부가적인 설명은 굉장히 유용한 정보가 될 수 있다. 연구에 따르면 추천 결과에 대한 상세한 설명은 사용자가 인식하는 추천 성능을 높여주고, 전반적인 사용자 경험을 개선하는 데 효과가 있는 것으로 나타났다. 본 연구를 수행한 미국 펜실베이니아주립대와 캘리포니아대 공동 연구진은 추천 시스템이 사용하는 추천 방식에 주목했다. 추천 방식에 따라 추천에 대한 설명도 달라지는데 이에 따라 사용자 신뢰에도 차이가 있을 수 있다는 가설을 세웠다.

연구진은 실험에 세 가지 대표적인 추천 방식을 활용했다. 사용자의 선호도와 제품 특성을 매칭하는 콘텐츠 기반 추천(Content-based Recommendation), 유사한 선호도를 가진 사용자를 매칭하는 협업 필터링(Collaborative Filtering), 인구통계학적 특성을 기반으로 사용자에게 맞춤화하는 인구통계학적 필터링(Demographic filtering)에 따라 설명이 포함된 추천 결과를 제시했을 때 추천 시스템에 대한 사용자 신뢰가 어떻게 달라지는지 분석했다.

가입하면 무료

  • 고민삼 | 한양대 ERICA ICT융합학부 교수

    필자는 한국과학기술원(KAIST) 지식서비스공학과에서 박사학위를 취득하고 인공지능연구원, 삼성전자에서 근무했다. 2022년부터 딜라이트룸의 연구 책임자를 겸직하고 있다. HCI 분야 국제 저명 학술대회에 논문을 다수 게재했고 세계컴퓨터연합회(ACM)가 주최한 ‘컴퓨터 지원 공동 작업 및 소셜 컴퓨팅(CSCW)’ ‘인간-컴퓨터 상호작용 학회(CHI)’에서 우수 논문상을 수상하기도 했다. 인간-인공지능 상호작용 연구실을 이끌며 HCI 분야에 AI 기술을 응용하기 위한 다양한 연구를 수행하고 있다.
    minsam@hanyang.ac.kr
    이 필자의 다른 기사 보기
인기기사