로그인|회원가입|고객센터|HBR Korea
페이지 맨 위로 이동
검색버튼 메뉴버튼

DBR Column

AI, 다시 인간의 가치를 묻다

박정근 | 432호 (2026년 1월 Issue 1)
올해도 어김없이 AI(인공지능)는 인류 역사의 진보를 가속화할 전망이다. 사실 최근 몇 년간 새해의 화두는 늘 신기술이었다. AI는 날로 정교해지고, 자동화는 일상의 영역으로 확장되며, 기업의 의사결정 과정에도 깊숙이 스며들고 있다. 그러나 이 거대한 변화의 한가운데에서 우리가 놓치기 쉬운 본질적인 질문이 있다. 바로 “기술이 진화할수록 인간은 어디에 서 있어야 하는가”라는 질문이다.

다만 우리가 마주한 기술의 파도에는 조금씩 중대한 균열이 포착되고 있다. AI는 기술을 잘 활용하는 사람과 아직 익숙하지 않은 사람을 조용히 갈라놓기 시작했다. 단순한 능력의 차이를 넘어 기술을 이해하는 태도와 수용 속도의 차이가 사람들 사이에 새로운 간극, 즉 ‘디지털 문턱’을 만들어내는 시대가 된 것이다.

또한 지금의 AI는 단순한 도구를 넘어 판단의 주체처럼 작동한다. 데이터를 기반으로 추천하고, 분류하며, 선택지를 제시한다. 때로는 사람보다 더 합리적이고 일관된 결정을 내리는 것처럼 보인다. 그러나 그 판단이 언제나 ‘옳다’고 말할 수 있을까. AI는 계산할 수 있지만 그 결과에 대해 책임지지는 않는다. 효율을 극대화할 수는 있지만 그 효율이 누군가를 배제하는 결과를 낳았을 때 스스로 질문하지도 않는다.

전 세계 학자들의 논문을 검토하는 에디터로 활동하며 다양한 연구자의 시선을 접하다 보면 최근 학계의 관심 또한 이런 문제의식을 반영하기 시작했음을 체감하게 된다. 과거에는 AI가 무엇을 가능하게 하는지, 즉 효율의 극대화를 탐구하는 연구가 주류였다면 이제는 기술의 반대편에 놓인 ‘보이지 않는 존재들’이나 AI 활용의 이면에 주목하기 시작했다. 또한 기술 도입의 의도와 다르게 나타나는 부작용에 대한 문제의식도 깊어지고 있다. 이는 단순히 알고리즘이 특정 계층을 서비스 밖으로 밀어내는 ‘AI 디바이드’ 현상만을 뜻하는 것이 아니다. AI를 오용해 혼란을 빚는 교육 현장의 진통부터 인간을 대체하려 도입했으나 왜곡된 정보를 생산해 신뢰를 무너뜨리는 사례까지 모두 아우르는 고민이다. 도입의 의도와 다르게 나타나는 예상치 못한 부작용들에 대해 우리의 문제의식은 더욱 깊어지고 있다.

기업 현장에서 AI가 본격적으로 활용되면서 효율성과 정확성은 분명 크게 향상됐다. 그러나 빛이 강할수록 그림자도 짙어지는 법이다. 그래서 AI 시대에 더욱 중요해지는 것은 기술을 얼마나 잘 쓰느냐가 아니라 기술이 만들어낸 결과를 어떻게 해석하고 책임질 것인가이다.

판단의 마지막 키는 여전히 인간이 쥐고 있다. 새해를 맞는 지금, 우리 기업과 사회에 필요한 태도 역시 달라져야 한다. 기술의 속도를 추격하는 데만 몰두하기보다 그 기술이 어디를 향하고 있는지 방향을 점검할 필요가 있다. 또 기술이 할 수 있는 일과 반드시 사람이 해야 할 일을 구분하는 명확한 기준이 필요하다.

AI 시대에 다시 인간의 가치를 묻는다는 것은 과거로 돌아가자는 뜻이 아니다. 오히려 기술이 정교해질수록 우리가 무엇을 지키고, 무엇을 책임질 것인지를 분명히 하자는 제안이다. 새해의 출발점에서 기술보다 사람을 먼저 떠올리는 이 질문이 우리 사회에 깊은 울림을 주고 의미 있는 변화의 이정표가 되기를 기대한다.
  • 박정근

    박정근viroid2007@gmail.com

    한양대 경영학과 교수

    미국 일리노이주립대 경제학과를 졸업하고 테네시주립대에서 유통학·통계학으로 박사학위를 받았다. 퍼듀대와 휴스턴대에서 15년간 교수로 재직했으며 약 100편의 국제 학술 논문을 주요 학회지에 게재했다. 현재 마케팅·유통 분야 주요 국제 학술지인 Journal of Retailing and Consumer Services의 에디터로 활동하고 있다.

    이 필자의 다른 기사 보기
인기기사

경제·경영 질문은
Askbiz에게 물어보세요

GO

K-FOCUS TOP 5

지금 주목해야 할 산업과 기업 트렌드