DBR Column
“AI를 HR(인사·조직 관리)에 어디까지 써야 할까요?”
최근 기업 경영진을 만나면 빠지지 않고 등장하는 질문이다. 그런데 이 질문에는 함정이 있다. ‘어디까지’라는 프레이밍 자체가 AI 도입을 기술 범위의 문제로 축소시킨다. 실제로 AI를 가장 적극적으로 실험하는 글로벌 기업들을 보면 기술을 많이 쓰는 조직일수록 HR의 핵심 의사결정에서는 오히려 분명한 선을 긋는다. 기술이 부족해서가 아니라 의도된 전략적 선택이라 할 수 있다.
기업이 고민하는 사이 규제 환경은 이미 빠르게 움직이고 있다. EU(유럽연합) AI Act는 채용, 인사관리, 승진에 활용되는 AI 시스템을 고위험(High Risk)으로 분류했다. 이에 따라 기업은 위험관리, 인적 감독, 기술 문서화, 설명 가능성 확보 등 핵심 의무를 이행해야 한다. 위반 시 최대 3500만 유로 또는 전 세계 매출의 7%에 달하는 벌금이 부과되며 이 규정은 2026년 8월부터 전면 적용된다. 한국도 예외가 아니다. 올해 1월 시행된 AI 기본법은 채용, 의료·금융 등 국민의 권익에 중대한 영향을 미치는 영역의 AI를 ‘고영향 인공지능’으로 규정하고 사업자에게 투명성과 안전성 확보 의무를 부과한다. 핵심은 AI의 판단은 설명 가능해야 하고, 사람의 관리·감독 아래 있어야 한다는 것이다.
그렇다면 기업은 HR에서 AI의 역할을 어떻게 설계해야 할까. 전략적 HR 연구자들은 두 가지 질문을 제시한다. 첫째, 이 의사결정이 얼마나 큰 책임 리스크를 낳는가. 둘째, 이 의사결정이 데이터와 규칙으로 얼마나 구조화될 수 있는가.
가입하면, 한 달 무료!
걱정마세요. 언제든 해지 가능합니다.
경제·경영 질문은
Askbiz에게 물어보세요
회원 가입만 해도, DBR 월정액 서비스 첫 달 무료!
15,000여 건의 DBR 콘텐츠를 무제한으로 이용하세요.