김승환 LG AI연구원 랩장 인터뷰
LG AI ‘엑사원’ 행동모델 개발
방대한 제조 경험에 AI 개발 경험 접목
제조업 현장 ‘자동화’ 넘어 ‘자율화’로
9일 서울 강서구 LG AI연구원에서 김승환 피지컬인텔리전스랩장이 동아일보와 인터뷰하고 있다. LG AI연구원은 기존 이미지·영상 인식 인공지능(AI) 개발을 담당하던 ‘비전랩’을 피지컬 AI의 행동모델을 연구하는 ‘피지컬인텔리전스랩’으로 개편했다. LG AI연구원 제공
“LG의 피지컬 인공지능(AI)이 2027년에는 현장에서 ‘임팩트’를 내는 것이 목표입니다.”
9일 서울 강서구 LG AI연구원에서 만난 김승환 LG AI연구원 피지컬인텔리전스랩장(상무)이 동아일보 인터뷰에서 강조한 말이다. LG AI연구원은 개발 중인 피지컬AI를 내년 중 계열사 제조 현장에 투입해 생산비용 절감과 수율 향상 등 성과를 낼 수 있도록 관련 연구를 진행하고 있다.
● 속도 내는 LG그룹 피지컬AI
LG는 그룹의 AI 연구를 총괄하는 LG AI연구원의 ‘비전랩’을 올 1월 ‘피지컬인텔리전스랩’으로 개편했다. 기존 비전랩 인력에 데이터인텔리전스랩에서 강화학습(AI가 시행착오를 겪으며 경험을 쌓는 학습 방법)을 담당하던 인력을 더해 조직을 확대했다. 기존 이미지·영상 인식 AI를 연구하던 조직을 로봇과 스마트팩토리를 연구하는 ‘행동모델’ 개발 전담 조직으로 재정비한 것이다. 김 상무는 “로봇 기술의 출발점은 로봇의 눈을 만들어 주는 것”이라며 “이미지를 공간으로, 이를 다시 시공간으로 확장해 궁극적으로는 ‘로봇 파운데이션 모델’을 개발하는 것이 과제”라고 말했다.
LG AI연구원 피지컬인텔리전스랩이 개발하고 있는 이 모델은 LG AI연구원이 ‘엑사원’ 개발을 통해 성과를 입증한 ‘대형언어모델(LLM)’ 등과는 다른 분야다. 기존 모델이 보고, 듣고, 읽는 과정을 통해 주변을 이해하는 데 초점이 맞춰져 있다면, 행동모델은 이 인식을 바탕으로 물체를 집거나 장애물을 피하는 방법을 추론한다. 또 상황에 맞춰 관절을 어떻게 움직여야 할지도 결정한다. 김 상무는 “가상현실에서 학습한 행동을 현실에 구현하는 이른바 ‘심투리얼(Sim2Real)’이 행동모델 개발의 핵심”이라며 “현실과 얼마나 유사한 데이터를 구축할 수 있느냐가 성패를 가를 것”이라고 강조했다.
● 제조업이 한국 피지컬AI의 열쇠
LG는 피지컬 AI 행동모델 구축의 해법을 제조업에서 찾고 있다. 김 상무는 “LG는 수십 년의 제조업 경험을 통해 남들이 가지지 못한 현장 데이터를 축적해 왔고 이를 활용하고 있다”며 “제품 불량 검사 과정을 자동화한 LG이노텍 사례가 대표적”이라고 설명했다.
LG이노텍은 반도체 기판 생산 과정에 ‘AI 비전검사’를 도입해 AI가 불량을 판별하는 시스템을 구축했다. 이를 통해 납품 시간과 검사 인력을 각각 90%가량 줄였다.
앞으로 피지컬AI가 적용된 제조 현장은 단순 ‘자동화’를 넘어 ‘자율화’에 이를 것이란 전망이 나온다. 피지컬AI가 비전 센서를 통해 받아들이는 시각 정보, 손끝 압력 센서로 인지하는 촉각 정보 등을 종합해 순간 가장 적합한 행동을 도출하고 능동적으로 행동하는 공장이 될 것이기 때문이다. 로봇이 사전 입력된 정보를 바탕으로 정해진 동작만을 반복하는 자동화와는 다른 개념이다.
김 상무는 피지컬AI 시장에서 한국 기업들의 발전 가능성이 미국이나 중국 AI 기업들과 비교해 투자가 다소 늦었던 LLM 시장보다 더 높다고 보고 있다. 그는 “현재 글로벌 빅테크들이 내놓고 있는 로봇 파운데이션 모델은 아직 초기 단계”라며 “한국 제조업의 현장 경험, 인프라에 글로벌 기업들에 뒤지지 않는 파운데이션 모델 개발 역량을 투입하면 피지컬AI 시장에서 충분히 승산이 있다”고 강조했다.
박종민 기자 blick@donga.com
ⓒ dongA.com All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지
인기 뉴스