엔비디아, 신호등 고장 감지하는 자율주행
현대차, 인간-로봇 협업하는 제조 공장 시연
Article at a Glance‘화려한 쇼’보다는 ‘당장 쓰이는 기술’이 주인공이었다. 미국 라스베이거스에서 CES 2026 현장을 취재한 DBR 취재팀이 놓치면 후회할 ‘에디터 픽’ 전시장 7곳을 꼽아봤다. 차세대 AI 칩세트 ‘베라 루빈’과 AI 기반 자율주행 모델 ‘알파마요’ 등을 앞세운 엔비디아는 이번 CES의 주인공이라 할 만했다. 현대자동차그룹은 아틀라스, 스팟, 웨어러블 로봇 등을 통해 인간과 로봇이 함께 일하는 산업 현장의 미래를 제시했다. 차량 경험 전반을 AI 에이전트로 재편하려는 아마존, 맥락을 읽는 로봇과 디스플레이로 일상에 스며든 AI를 제시한 LG전자, 보이지 않는 소재로 산업 성능의 기준을 다시 쓴 3M의 전시도 주목할 만하다.
CES(국제전자제품박람회) 2026의 전시 규모는 단순히 ‘거대하다’는 말로는 표현하기 어렵다. 실내 전시 면적만 23만 ㎡에 달하는 미국 라스베이거스 컨벤션센터(LVCC)를 필두로 유망한 스타트업이 가득한 베네시안, 엔비디아와 삼성전자가 각각 자리 잡은 퐁텐블로와 윈 호텔까지. 라스베이거스 전체가 전 세계에서 모여든 14만8000여 명의 인파와 미래를 선점하려는 4000여 개 기업의 열기로 뜨겁게 달아오른다. 쏟아지는 신기술의 향연 속에선 자칫 길을 잃기 십상이다. 하지만 그 혼란스러움 속에서 옥석을 가려내고 미래의 단초를 발견하는 것이야말로 CES 현장의 묘미라 할 수 있겠다.
올해 CES는 그 어느 때보다 ‘실체’를 강조하는 분위기가 역력했다. 화려한 콘셉트 영상이나 먼 미래의 비전만으로는 더 이상 까다로운 바이어와 관람객의 발길을 붙잡을 수 없었다. 대신 “우리 기술이 이렇게 뛰어나다”고 외치는 것을 넘어 “이 기술이 당장 내일 우리의 공장, 도로, 그리고 거실을 어떻게 바꿀 것인가”에 대한 명확한 해답과 청사진을 내놓은 기업들만이 스포트라이트를 받았다. 기술이 녹아든 삶의 풍경을 시연하는 ‘경험의 전시장’이기도 했다. 로봇이 인간의 동료가 돼 ‘땀 흘리는’ 제조 현장, 자동차가 단순한 이동 수단을 넘어 거대한 AI 비서이자 생활 공간으로 변모하는 도로, 눈에 보이지 않는 소재 하나로 산업 전체의 효율을 끌어올리는 혁신의 순간들까지. DBR 취재팀은 화려한 ‘쇼(Show)’의 이면에 숨겨진 묵직하고 실질적인 변화의 맥락을 포착하는 데 주력했다. 수천 개의 부스 중에서도 놓치면 후회할 ‘에디터 픽(Editors’ Picks)’ 전시장을 선별했다. 미래의 청사진을 가장 선명하게 그려낸 의미 있는 현장을 소개한다.
엔비디아 AI 시대, 모든 길은 엔비디아로 통한다
올해 CES 현장을 상징하는 풍경 중 하나가 바로 매일 아침 라스베이거스 스트립 북쪽 끝 퐁텐블로(Fontainebleau) 호텔로 향하는 수많은 인파다. 엔비디아는 메인 전시장인 LVCC가 아닌 퐁텐블로 호텔에 자리를 잡았다. 퐁텐블로는 CES 파운드리(CES Foundry)라는 이름 아래 AI와 양자컴퓨팅, 로보틱스, 블록체인 등 미래 기술을 전문적으로 다루는 특별 전시 공간으로 꾸며졌다. 눈에 보이는 하드웨어 전시를 넘어 미래 기술을 엿볼 수 있는 장소로 마련한 곳인데 엔비디아는 사실상 이곳을 대표하는 역할을 하면서 영향력을 과시했다.
이곳엔 엔비디아의 엠블럼 아래 실물 크기의 휴머노이드 로봇들부터 자율주행 자동차까지 엔비디아 솔루션을 활용한 다양한 제품이 전시돼 있었다. 숫자가 많지는 않았지만 엔비디아의 위상에 걸맞게 LVCC에서 주목받은 제품 상당수가 이곳에도 자리하고 있었다. GPU 하드웨어를 넘어 데이터센터, 로보틱스, 자율주행차, 공장 솔루션에 이르기까지 피지컬 AI 시대 산업 전반을 아우르는 플랫폼 기업을 꿈꾸는 엔비디아의 야망이 고스란히 드러난 공간이었다.
전시장의 얼굴은 ‘베라 루빈(Vera Rubin)’의 차지였다. 암흑 물질의 존재를 입증한 미국 천문학자 베라 플로렌스 쿠퍼 루빈의 이름을 딴 칩세트다. 엔비디아가 자체 설계한 중앙처리장치(CPU) ‘베라’와 차세대 그래픽처리장치(GPU) ‘루빈’을 결합했다. 종전의 그레이스 블랙웰(그레이스 CPU + 블랙웰 GPU)의 뒤를 잇는 차세대 슈퍼 칩이다. 엔비디아는 루빈 플랫폼이 에이전틱 AI나 전문가혼합모델(MoE) 추론을 가속해 토큰당 비용을 블랙웰 플랫폼 대비 10배 절감할 수 있을 것으로 보고 있다. 또한 MoE 모델 훈련에 필요한 GPU 수도 4분의 1로 줄일 수 있을 것으로 예상한다. 초거대 AI 운영 비용을 줄여 AI 확산 속도를 한층 가속할 수 있다는 게 시장의 평가다.
현장에서 특히 뜨거운 관심을 받은 것은 피지컬 AI 관련 기술, 그중에서도 이번에 새롭게 공개한 AI 기반 자율주행 플랫폼 알파마요(Alpamayo)였다. 알파마요의 시연 영상이 나오는 모니터 앞은 발길이 끊이지 않았다. 시연 영상 속 알파마요의 판단 능력은 놀라웠다. 주어진 환경을 맥락으로 이해하고 주변 차량이나 그 밖의 변수들을 종합적으로 고려하면서 주행하는 모습을 실시간으로 보여줬다. 도로 상황을 보는 것에 그치지 않고 실제 운전자의 사고 흐름에 가깝게 현재 상황을 생각해 판단을 내리는 VLA(Vision-Language-Action) 모델이다.
기존 자율주행 모델이 신호등이 빨간색이면 멈춘다는 공식을 따른다면 알파마요는 신호등이 고장 난 것은 아닌지, 도로가 특수한 통제 상황은 아닌지 등의 맥락을 따져 판단을 한다. ‘멈춘다’는 결론이 같더라도 그 과정은 차이가 난다. 재미있는 것은 판단 과정을 기록한다는 점이다. 시연 영상에선 어떤 상황을 보고 어떻게 판단했고, 그래서 왜 이 행동을 결정했는지를 텍스트로 남기는 모습을 확인할 수 있었다. 물론 실제 모델은 전시되지 않아 현실에서 구현되는 모습을 직접 확인할 수는 없었다. 하지만 그간 자율주행의 난제였던 ‘롱테일 케이스(long tail, 빈도는 낮지만 사고 위험이 큰 예외 상황)’를 직접 겨냥했다는 점에서 관심을 받기엔 충분했다.
현대자동차그룹 인간과 로봇이 협력하는 ‘노동의 재설계’현대자동차그룹 부스는 완성차 기업의 기술 전시가 아닌 AI 로보틱스를 통해 산업과 일상의 운영 방식을 재설계하는 미래 청사진을 보여줬다. 보스턴다이내믹스의 휴머노이드 로봇 ‘아틀라스(Atlas)’와 사족 보행 로봇 ‘스팟(Spot)’, 모빌리티 로봇 플랫폼 모베드(MobED), 아이오닉5 로보택시와 충전·주차 로봇까지 한 공간에 배치하며 제조, 물류를 넘어 일상생활에 AI와 로보틱스가 어떻게 스며들어 새로운 가능성을 열어줄 수 있는지를 직관적으로 보여줬다.
특히 제조 현장을 재현한 ‘Collaborative Assembly(로봇과 함께하는 조립)’ 존에서는 AI 로보틱스가 어떻게 공장의 효율성을 높일 수 있는지를 시연하며 사람과 로봇이 역할을 분담하는 새로운 작업 표준을 제시했다. 관람객들은 산업용 웨어러블 로봇 ‘엑스블 숄더(X-ble Shoulder)’를 착용한 채 전시된 차량 모형 하부에 직접 부품을 조립해보는 체험을 진행했다. 어깨에 착용하는 엑스블 숄더는 팔 상완부를 보조해 제조 현장에서 반복적인 위 보기 작업을 수행할 때 어깨 관절 부담을 최대 60%까지 줄여준다. 현장에서 만난 현대차그룹 관계자는 “엑스블 숄더는 현재 양산 단계로 현대·기아차 공장에서 차량 하부 조립 시는 물론 항공·농업 등 다양한 산업 현장에 B2B로 판매하고 있다”고 말했다.
로봇이 단순 보조 장비를 넘어 공정 관리의 핵심 노드로 편입되고 있음을 보여주는 장면도 인상적이었다. 관람객들이 엑스블 숄더를 착용한 후 차량 모형 하부에 직접 부품을 조립하면 사족 보행 로봇인 ‘스팟 AI 키퍼(Spot AI Keeper)’가 걸어와 제조 과정에서의 조립 결함을 확인하고 보고하며 품질 검수를 자동으로 수행했다. 현대차그룹에 따르면 현재 스팟 AI 키퍼는 현대차그룹 싱가포르 혁신센터(HMGICS)와 메타플랜트 아메리카(HMGMA) 등 실제 제조 현장에서 활용되고 있다.
부스 중앙에 마련한 테크 랩(Tech Lab)은 이번 CES 2026 현대차그룹 전시의 하이라이트였다. 연구실 콘셉트로 꾸며진 이 공간에는 보스턴다이내믹스의 휴머노이드 로봇 ‘아틀라스’가 전시됐다. 자연스럽게 균형을 잡으며 이족 보행하고 관절을 자유자재로 움직이는 아틀라스를 보기 위해 멈춰 선 관람객들로 전시장은 북적였다. 아틀라스는 자동차 부품을 두 손으로 집어 들고 상·하체를 기울여 적재대로 운반하는 모습을 시연했다. 특히 부품을 적재대에 내려놓을 때 손가락과 팔꿈치 관절을 미세하게 제어하며 안정적으로 작업을 마무리하는 모습이 인상적이었다.
이번 CES 2026에서 현대차그룹은 제품 개발에 필요한 핵심 기능을 시험하기 위해 만든 초기 단계의 모델인 ‘아틀라스 연구형 모델’과 더불어 첫 양산형 제품인 ‘차세대 전동식 아틀라스 개발형 모델’도 공개했다. 제조 환경에 자율적인 학습을 위해 설계된 아틀라스 개발형 모델은 56개의 자유도(DoF, Degree of Freedom)를 기반으로 대부분의 관절을 회전시킬 수 있으며 360°카메라를 통해 전방위 환경 인식이 가능하다. 또한 최대 50㎏의 무게를 운반할 수 있고 방수 및 방진, 자율 배터리 교환 기능까지 탑재했다.
현대차그룹은 이번 CES 2026 미디어 데이에서 구독 기반 ‘Robots-as-a-Service’ 모델로의 확장도 예고했다. 로봇 운영에 필요한 모든 요소를 하나의 통합된 서비스로 제공해 공장을 넘어 일상 영역으로까지 로봇의 활용 가치를 확장하겠다는 구상이다. 현대차그룹 부스에서는 이를 구체화한 모습의 전시를 선보였다. 아이오닉5 로보택시와 충전·주차 로봇은 물론 CES 2026 로보틱스 부문 최고혁신상을 수상한 차세대 양산형 모빌리티 로봇 플랫폼 ‘모베드(MobED)’를 선보였다. 모베드는 독립적으로 제어되는 네 개의 바퀴와 DnL(Drive-and-Lift) 모듈
1
을 활용해 울퉁불퉁한 표면과 다양한 지형에서 자유롭고 안정적으로 주행한다. 현장에서 만난 현대차그룹 관계자는 “모베드는 물류 창고, 골프 서비스 로봇, 사람이 탑승하는 이동 수단까지 다양한 애플리케이션으로 확장할 수 있도록 설계된 플랫폼”이라며 “PBV(목적 기반 모빌리티, Purpose Built Vehicle)처럼 고객의 산업과 비즈니스에 맞춰 기능과 모듈을 유연하게 구축할 수 있는 구조가 핵심”이라고 설명했다.
아마존 ‘자동차 산업 전체’를 삼키려는 거대 생태계아마존 부스는 자동차 산업의 가치사슬 전 구간을 아마존에 묶는 ‘포괄형 플랫폼 전략’을 과시하는 무대에 가까웠다. 자동차 제조, 운행, 구매 등을 하나의 아마존 생태계에 포괄하는 설계도를 펼쳐 보이는 자리였다. 아마존 부스 현장에서 만난 웨슬리 루카스 아마존웹서비스(AWS) 파트너 마케팅 매니저는 “아마존의 모든 사업부가 자동차 산업을 위해 무엇을 할 수 있는지 보여주려 한다”고 강조했다.
CES 2026 아마존 부스의 핵심 전시는 에이전트형 음성 비서 ‘알렉사+(Alexa+)’였다. 2026년 출시 예정인 BMW iX3에 탑재될 알렉사+ 시연 구역은 관람객의 발길이 가장 많이, 그리고 오래 머문 곳이었다. 시연은 단순한 기능 설명이 아닌 알렉사+와의 대화 위주로 진행됐다. “후버 댐으로 안내해 줘. 그런데 가는 길에 UPS에 물건을 맡기고 싶어”라며 여러 경로를 거치는 내비게이션 기능을 알렉사+에 요청하는 것은 물론 “앞 오른쪽 타이어의 공기압이 평소보다 낮습니다. 지역 날씨를 확인해 보니 추운 날씨 때문은 아닌 것 같습니다. 점검을 받아 보시는 것이 좋겠습니다. ‘차량 서비스 예약해 줘’라고 말씀하시면 됩니다”라며 알렉사+가 차량 상태를 직접 파악하고 점검 제안 및 예약을 돕기도 했다. 단순한 음성 명령 수준을 넘어 대화가 차량 경험의 메인 인터페이스가 되고 있음을 보여준 것이다.
아마존 생태계의 확장은 차량 내부에 그치지 않았다. 알렉사+는 차량과 집을 연결하며 생활권 전체를 통합하는 에이전트 인터페이스로서의 가능성을 보여줬다. “알렉사, 현관문 잠그는 걸 깜빡했어”라고 하면 AI 기반 보안 카메라 링(Ring)과 연동돼 잠금 상태를 확인하고 “열어두셨습니다. 지금 잠글까요?”라며 단순 확인이나 응답을 넘어 조치 및 실행으로 이어진다. 비슷한 방식으로 알렉사+에 “집에 불 껐나?”라는 일상적인 질문을 던지면 아마존의 스마트 조명과 연동돼 조명 상태를 확인하고 제어하는 것도 가능하다.
알렉사+가 자동차 전면에서 사용자의 시선을 끈다면 뒤에서는 AWS가 차세대 자율주행을 지원하며 인프라 레이어를 구축하고 있다. CES 2026에서 아마존은 독일 자동차 기술 회사 아우모비오(AUMOVIO)와의 파트너십 체결을 발표했다. AWS는 아우모비오에 자율주행 개발용 클라우드 인프라를 제공하고 이를 기반으로 장거리 트럭 운송 회사 오로라(Aurora)의 완전 자율주행 트럭이 현실 도로 환경으로 확장되는 과정을 지원할 계획이다.
아마존 자율주행의 또 다른 핵심축은 아마존이 인수한 자율주행 기술 스타트업 죽스(Zoox)다. AWS가 인프라 레이어에서 자율주행 생태계를 떠받친다면 죽스는 아마존이 상상하는 ‘완성형 자율주행 서비스’를 구현하는 실험장이다. 지난해 CES 2025에서는 죽스의 개념과 청사진만 제시됐다면 이번 CES 2026이 열리는 동안 아마존의 자율주행 택시 죽스는 무료 시범 운행에 나서 미국 라스베이거스 도로를 실제로 주행했다.
죽스 부스에서 만난 관계자는 타사 자율주행차 대비 경쟁 우위를 묻는 질문에 “죽스는 처음부터 라이더 경험을 중심에 두고 완전히 새로 설계한 차량”이라고 답했다. 실제로 기자가 직접 탑승해 본 죽스 내부에는 핸들이나 페달 자체가 없었다.
구글의 자율주행 택시 웨이모(Waymo)가 기존 자동차를 자율주행차로 전환하는 접근이라면 죽스는 운전석 없이 모든 좌석이 마주 보도록 설계돼 동승자끼리 대화를 나누고 교류하는 데 최적화된 실내 구성처럼 보였다. 또한 내부 천장에는 밤하늘의 별을 연상케 하는 조명이 은은하게 퍼져 차량을 이동 수단을 넘어 하나의 ‘경험 공간’으로 느끼게 했다. 죽스 관계자는 “좌석을 마주 보도록 배치하고 온도, 음악 등을 제어할 수 있는 장치를 탑재해 차량 내부에서 업무를 보거나 파티를 여는 등 죽스가 일종의 사회적 공간이 될 수 있도록 디자인했다”고 말했다.
LG전자 일상에 스며드는 ‘공감지능’CES 2026에서 LG전자 부스는 기술의 진보를 전면에 내세우기보다 기술이 고객의 사용 맥락을 이해하고 일상에 자연스럽게 스며드는 경험을 구현하는 데 초점을 맞췄다. LG전자가 이번 부스에서 가장 공을 들인 전시는 홈 로봇 ‘LG 클로이드(LG CLOiD)’였다. 클로이드는 머리와 두 팔이 달린 몸체와 바퀴가 달린 하체로 구성된다. LG전자에 따르면 양발 휴머노이드 기술도 보유하고 있지만 집 안에서 사용하는 로봇인 만큼 안정성을 우선해 클로이드에 바퀴로 구동되는 자율주행 기술을 탑재했다. 클로이드는 허리 각도를 조절해 최대 143㎝까지 스스로 키를 높일 수 있고 약 87㎝ 길이의 팔로 바닥이나 높은 곳에 있는 물체도 잡을 수 있다.
LG전자는 이번 CES 2026에서 클로이드 공개를 통해 가사 노동에서 해방되는 ‘제로 레이버 홈(Zero Labor Home)’의 단면을 제시했다. 클로이드는 가족 구성원의 취향에 맞는 간식을 확인한 후 냉장고에서 우유를 직접 꺼내 식탁으로 옮기고, 크루아상을 오븐에 옮겨 구웠다. 또 쇼파에 던져놓은 차 키를 직접 가져다주고 개별적으로 움직이는 관절을 갖춘 손가락을 활용해 세탁이 완료된 수건을 직접 개고 정리하기도 했다. 이처럼 상황을 인식하고 행동하는 클로이드는 단순 자동화를 넘어 맥락을 이해하는 공감지능과 함께하는 일상의 모습을 보여줬다.
집 안에서 로봇이 일상의 맥락을 이해하는 모습을 보여줬다면 모빌리티 영역에서 LG전자는 AI와 디스플레이를 중심으로 새로운 주행 경험을 제시했다. LG전자가 공개한 투명 OLED 기반 모빌리티 디스플레이 솔루션은 차량의 전면 유리인 윈드실드 전체를 디스플레이로 활용하며 관람객들의 눈길을 사로잡았다. 운전자는 창밖 풍경을 그대로 바라보면서도 그 위에 겹친 형태로 속도, 주행 정보 등의 정보를 직관적으로 확인할 수 있다.
특히 인상적이었던 것은 비전 AI 카메라와 시선 추적 기술을 활용해 운전자의 시선과 주행 상황을 실시간으로 분석하고 그 순간 가장 필요한 정보만을 선별해 보여준다는 점이었다. 예컨대 신호 대기 중에는 신호가 바뀌기까지 남은 시간이 카운트다운 형태로 나타나고 주행이 시작되면 자연스럽게 속도 정보로 전환됐다. 운전자의 시선이 옆으로 오래 벗어나면 주의 경고를 띄우거나 눈 깜빡임 빈도가 줄어 피로가 감지될 경우 자율주행 모드로의 전환을 제안했다.
자율주행 모드에서는 디스플레이의 역할이 한층 확장됐다. 운전할 필요가 없는 자율주행 모드에서 윈드실드 위에는 3D 가상 공간이 구현되며 몰입형 경험을 제공했다. 단조로운 터널을 통과할 때 디스플레이에 숲의 풍경이 연출되거나 가로수가 늘어선 길에서는 벚꽃잎이 디스플레이 위로 흩날리는 식이다. 조수석에 앉는 동승자를 위한 경험 설계도 눈길을 끌었다. 운전하지 않는 동승자는 조수석 앞 디스플레이를 통해 상품 정보를 불러오고 즉시 구매로 연결할 수 있다. 이처럼 미래 모빌리티 비전을 생생하게 구현한 LG전자의 투명 OLED 기반 모빌리티 디스플레이 솔루션은 CES 2026 차량용 엔터테인먼트 부문에서 최고혁신상을 수상했다.
3M ‘보이지 않는 소재’로 산업 포트폴리오 확장3M 부스는 산업 곳곳에 스며든 소재 기술의 확장성을 보여주는 공간이었다. 붉은 톤의 부스 한가운데 전시된 2025년형 올뉴 링컨 내비게이터는 이를 상징적으로 드러냈다. 3M의 첨단 광 제어 필름은 링컨 차량의 48인치 파노라마 디스플레이에 적용돼 빛을 탑승자 쪽으로 집중시켜 운전 중 시선 분산을 줄였다.
부스 입구에서 가장 먼저 눈길을 끈 것은 3M의 ‘빛 제어(Light Control)’ 기술이었다. 특정 파장을 차단하거나 통과·증폭시키는 필름 기술로 대표 제품인 DBEF(Dual Brightness Enhancement Film)는 LCD 패널에서 손실되는 빛을 오히려 증폭시켜 화면 밝기를 높인다. 삼성전자의 130인치 마이크로 RGB TV를 비롯해 스마트폰, 태블릿, 노트북 등 다양한 디스플레이 제품에 이미 적용하고 있는 기술이다. 이 밖에도 폴더블폰 디스플레이에 사용되는 광학 투명 접착제(OCA), 초박형 디바이스에서 발생하는 EMI(전자파 간섭) 노이즈를 줄여주는 전도성 소재 등 전자기기 내부를 떠받치는 핵심 소재들이 전시됐다.
3M 부스의 또 다른 핵심은 소재 역량을 디지털화해 고객 개발 프로세스에 침투하는 방식이었다. 3M은 이번 CES 2026에서 엔지니어들이 진행 중인 공정에서 어떤 접착제나 테이프가 적합한지 판단하는 데 도움을 주는 등 접합에 관한 기술적 질문을 해결하는 디지털 어시스턴트 ‘ASK 3M’을 선보였다. 또한 소재에 대한 물성 데이터를 제공하고 개발자가 이를 다운받아 설계·공정 단계에 곧바로 활용할 수 있도록 지원하는 ‘3M 디지털 머티리얼즈 허브(3M Digital Materials Hub)’도 전시했다. 소재 기업이 단순 공급자를 넘어 고객의 개발 리드타임과 의사결정 속도를 단축시키는 파트너로 진화하고 있음을 보여주는 대목이었다.
유니트리 사람처럼 움직이는 中 휴머노이드의 진화
LVCC 노스홀의 풍경은 CES가 아니라 ‘로봇 박람회’라고 이름 붙여도 이상하지 않을 정도였다. 그만큼 많은 기업이 로봇 기술을 전시했다. 그중에서도 가장 숫자가 많은 건 중국 기업이었다. 이번 CES에 참가한 중국 기업의 4분의 1에 해당하는 149개 기업이 휴머노이드 로봇을 쏟아냈다. 출하량 기준으로 휴머노이드 시장 1위인 애지봇, 2위 유니트리 등 중국을 대표하는 로봇 기업들이 대거 전시관을 채웠다.
특히 유니트리 부스에는 발 디딜 틈이 없을 정도로 관람객이 붐볐다. 유니트리가 전시한 휴머노이드 로봇은 음악에 맞춰 관절을 자유자재로 움직이며 팝핀을 연상케 하는 춤 동작은 물론 앞차기, 옆차기에 이어 돌려차기까지 시연했다. 부스에 마련된 복싱 링에서는 유니트리의 휴머노이드 로봇이 관람객과 혹은 로봇끼리 복싱 동작을 주고받고 있었다. 유니트리 로봇은 상체를 비틀어 훅을 날리거나 발차기 공격을 당했을 때 다시 균형을 잡고 자세를 재정렬하는 등 휴머노이드 로봇의 제어 정밀도와 운동 성능이 상당한 수준에 이르렀음을 보여줬다.
CES 2026에서 펼쳐진 중국 기업의 현란한 퍼포먼스는 단순히 기술을 보여주는 단계를 넘어 실제로 작동하는 완성도 높은 로봇을 구현하는 단계로 진화했음을 분명히 보여줬다. 경제적 효용은 두고 볼 일이지만 적어도 사람의 움직임과 행동을 자연스럽게 구현하는 측면에서는 뛰어난 기술 성숙도를 입증했다. 중국이 로보틱스 분야에서 이제 확실히 추격자가 아닌 경쟁의 선두 주자에 진입했음을 보여주는 장면이었다.
K-휴머노이드 연합 中 퍼포먼스 공세에 ‘실용성’으로 맞서
중국 공세에 맞선 한국 휴머노이드 기업들은 실용성에 초점을 맞췄다. 이들은 산업통상자원부 주도로 ‘휴머노이드 맥스 얼라이언스(HUMANOID M.AX Alliance)’라는 이름으로 제조업 혁신을 테마로 한 공동 전시관을 꾸몄다. 그중에서도 시선을 잡아 끈 건 에이로봇(AeiROBOT)의 휴머노이드 앨리스였다. 이족 보행 로봇인 앨리스4와 다리가 바퀴로 된 휠 타입 앨리스 M1은 제품 포장을 가정한 환경에서 쉴 새 없이 물건을 정리하고 날랐다. 에이로봇의 최고기술책임자인 한재권 한양대 교수는 “로봇은 화려한 퍼포먼스를 보여주기 위해 존재하는 게 아니다”라며 “인간의 일을 얼마나 대신할 수 있을지에 초점을 두고 실제 효용을 보여주는 데 집중했다”고 말했다.
이 중 앨리스4는 젠슨 황 엔비디아 CEO의 특별 연설 영상에도 등장할 만큼 주목을 받은 로봇이다. 앨리스의 강점은 정밀하고 안정적인 작업 수행 능력(범용 노동력), 사람이 일하는 환경에 그대로 투입할 수 있는 이동성으로 요약된다. 앨리스 M1은 바퀴형 베이스와 휴머노이드 상체를 결합한 구조로 뛰어난 기동성과 작업 효율을 갖췄다. 이족 보행 로봇보다 빠르고 안정적으로 이동하면서 상체의 두 팔로 정교한 물류 피킹이나 조립 보조 작업을 할 수 있다. 앨리스4는 인간과 같은 이족 보행 구조다. 계단이나 장애물이 있는 비정형 환경에서도 자유롭게 이동하며 사람과 동일한 도구를 사용해 작업을 할 수 있다.
해플리 로보틱스 가상의 질감까지 전달하는 햅틱의 마법
캐나다의 햅틱 기술 기업 해플리 로보틱스는 이번 CES 2026에서 하드웨어와 소프트웨어를 아우르는 혁신 기술로 2개 부문에서 혁신상을 받으며 촉각 기술(Haptics)이 엔터테인먼트를 넘어 산업과 창작의 영역으로 본격 진입하고 있음을 보여줬다. 한 축은 ‘인간 중심 로봇 플랫폼(HARP, Human-Centric Robot Platform)’이다. 사람의 미세한 손기술을 로봇에 그대로 학습시키기 위한 소프트웨어 프레임워크다. 초고해상도 전용 햅틱 컨트롤러인 ‘인버스 3X(Inverse 3X)’를 통해 초당 3만2000번의 샘플링 속도로 사용자의 미세한 손 떨림과 힘의 강약을 포착한다. 이 정밀함은 획기적인 속도로 사람의 기술을 로봇에 이식할 수 있도록 만든다. 사람이 인버스 3X를 쥐고 가상 공간에서 복잡한 조립 작업을 수행하면 데이터가 즉각 학습용 데이터세트로 변환돼 로봇을 훈련시킬 수 있다. 사람이 하나하나 코딩할 필요 없이 컨트롤러를 쥐고 시범을 보이면 로봇이 모방 학습을 하기 때문에 학습 효율이 획기적으로 높아진다. 무엇보다 플랫폼이 엔비디아 생태계와 통합돼 있기 때문에 엔비디아 칩을 쓰는 로봇들이라면 원활하게 연동할 수 있다. 인간의 행동을 로봇의 지능으로 바꿔주는 번역 기술이라고 할 수 있다.
다른 한 축은 3D 모델링 소프트웨어 지오매직 프리폼(GeoMagic Freeform)과 통합된 휴대용 햅틱 창작 솔루션 민버스(MinVerse)다. 컨트롤러를 쥐고 화면 안에만 존재하는 평면에 포인터를 통과시키려 하자 마치 단단한 그물망을 간신히 지나치는 것과 같은 저항감이 확연히 느껴진다. 화면 속 종이에 글을 쓰자 서걱거리는 질감 또한 느낄 수 있다. 1㎜ 미만의 정밀도를 제공하는 소형 3D 햅틱 컨트롤러를 통해 사용자는 화면 속 가상의 덩어리를 마치 실제 존재하는 물체처럼 느끼며 깎고 다듬게 된다. 기존 마우스 인터페이스로는 불가능했던 ‘손맛’을 디지털로 구현한 셈이다.
Copyright Ⓒ 동아비즈니스리뷰. All rights reserved. 무단 전재, 재배포 및 AI학습 이용 금지