로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

프랑수아 칸델론: 생성형 AI가 창출할 비즈니스의 미래

생성형 AI, 집단적 창의성 낮출 위험
비즈니스 문제 해결엔 인간 역량 발휘를

백상경 | 384호 (2024년 1월 Issue 1)
Article at a Glance

생성형 AI가 언제나 성과 개선을 보장하는 것은 아니다. BCG가 하버드경영대학원 등 유수 학자들과 함께 실험한 결과, 창의적인 제품 혁신 분야에선 생성형 AI를 사용했을 때의 성과가 사용하지 않을 때보다 40% 높았다. 반면 비즈니스 문제 해결 분야에선 오히려 성과가 23% 감소했다. 적용 분야와 시점을 깊이 고민해야 생성형 AI로 실질적인 가치를 창출할 수 있다는 의미다. 생성형 AI와의 협업이 늘 긴밀할 필요도 없다. AI의 결과물에 사람이 개입할수록 품질이 떨어지는 영역이 존재하기 때문이다. AI에는 AI가 잘하는 영역을 전적으로 맡기되 인간이 잘하는 영역을 중점적으로 하는 ‘반인반수’ 켄타우로스 시스템 등을 고려해야 하는 이유다. 무엇보다 생성형 AI 사용으로 집단의 창의성과 다양성이 하락하는 점도 보완해야 할 숙제다.



프랑수아 칸델론(François Candelon) 보스턴컨설팅그룹(BCG) 헨더슨 인스티튜트 글로벌 디렉터

보스턴컨설팅그룹(BCG) 싱크탱크인 헨더슨 인스티튜트의 글로벌 디렉터이자 BCG 파리 오피스의 시니어 매니징 디렉터 파트너다. 1993년부터 BCG에 재직하며 유럽 여러 국가와 중국에서 근무했다. 기업과 국가 경제의 경쟁 우위 원천으로서의 인공지능(AI)과 디지털 기술, 기술이 비즈니스와 사회에 미치는 영향, 중국 디지털 생태계의 다이내믹스 등이 주요 전문 분야다. HBR, MIT 슬론 매니지먼트 리뷰 등 여러 권위 있는 학술지 및 경영 전문지에 주요 필자로 참여하고 있다. TED Talk, Web Summit 등의 콘퍼런스에서도 연사로 활약하며 AI 및 디지털 기술 전략에 대한 비즈니스 인사이트를 전하고 있다.



20231226_101954

생성형 인공지능(Generative AI·GenAI)은 어떤 식으로 가치를 창출하고 또 파괴하는가? 먼저 상기할 점은 생성형 AI가 AI의 한 갈래라는 점이다. 1956년 인공지능(Artificial Intelligence)이 등장했고, 1997년 머신러닝(Machine Learning), 2017년 딥러닝(Deep Learning), 2021년 생성형 AI가 비로소 모습을 드러냈다. 우리는 생성형 AI를 활용해 창의적이고 혁신적이며 개인에게 딱 맞춘 콘텐츠를 내놓을 수 있게 됐다. 엔지니어링 공정의 작업 흐름을 자동화해 인건비를 절감하는 것도 가능하다.

다만 기억해야 할 것은 창의성과 관련한 영역에선 AI의 결과물이 항상 신뢰할 만한 것은 아니라는 점이다. 좌뇌와 관련된 영역, 논리와 분석 능력이나 진단, 처방, 예측 같은 부분에선 AI가 상당히 정확하다. 예를 들어 재고 상황이 어떻게 흘러갈지 예측하는 분석 말이다. 전통적인 머신·딥러닝처럼 분석형 AI(Analytical AI)는 정말 많은 가치를 구현할 수 있다. 빠르게 도입하는 게 중요하다. 하지만 생성형 AI는 어떨까? 사실 우리는 이 기술에 대해 굉장히 많은 이야기를 하고 듣지만 막상 기술의 도입률은 그렇게 높지 않다. 실제 도입은 향후 이 기술을 어떤 식으로 활용할 수 있을지가 명확해지면 본격적으로 이뤄질 것으로 본다. 내년이 굉장히 중요한 분기점이 될 것이다.

실제 도입과 관련해 우리가 고심해야 할 부분은 다음 세 가지다. 기업은 언제 생성형 AI 시스템을 사용해야 하는지, 생성형 AI와 인간의 협업을 최적화하기 위해 작업 흐름(Workflow)을 어떻게 재고할 것인지, 마지막으로 생성형 AI를 적용하기 위해 우리의 전략을 어떻게 바꿔야 할 것인지다.


생성형 AI, 창의적 제품 혁신엔 도움 되나
비즈니스 문제 해결엔 성과 부진

이 질문에 답하기 위해 BCG는 세계 최초로 생성형 AI의 성과 평가 실험을 고안했다. 누구도 이의를 제기하지 못할 정확한 실험을 수행하기 위해 하버드경영대학원, 펜실베이니아대 와튼스쿨, MIT 슬론경영대학원 등에서 연구하는 학계의 유수한 학자들을 모아 최첨단 기법을 적용해 실험에 나섰다. 실험은 전 세계적으로 750명에 달하는 BCG 컨설턴트들에게 챗 GPT(오픈AI의 GPT-4)를 활용하게 하는 형태로 진행했다. 직원들의 일상 업무에 생성형 AI를 반영하는 과제를 통해 전문 서비스 환경에서의 사용 행태에 대해 테스트한 최초의 연구다. 구체적인 수치나 이름 등은 가명으로 바꾸거나 암호화한 것도 있다. 하지만 실제 컨설턴트들이 실무에 쓰는 데이터로 생성형 AI에 대한 정확도, 그리고 잘하거나 못하는 부분을 확인하고자 했다.

실험을 위해 두 가지 업무 세트를 고안했다. 첫째는 창의적 제품 혁신(Creative Product Innovation)이다. 제품 아이디어, 테스트, 출시 등을 망라한 제품 관련 질문 18개가 포함된 영역이다. 창의력, 설득력, 글쓰기 능력 등을 시험하기 위한 것이다. 예를 들어 신발에 대한 10가지 새로운 콘셉트가 있을 때 어떤 식으로 고안하고 디자인하는지, 상사에게 어떻게 제안하는지, 포커스그룹을 진행하면 어떤 질문을 하고, 어떻게 답할 것인지, 소셜미디어 캠페인을 어떤 식으로 만들 것인지 등을 질문하고 실험했다. 새로운 아이디어를 만들고 신제품을 내놓는 마케팅 부서의 업무가 여기에 해당한다.

둘째는 비즈니스 문제 해결(Business Problem Solving)이다. 재무 자료와 인터뷰 녹취록 등을 바탕으로 기업의 매출 성장 기회를 파악하는 사례 인터뷰형 과제다. 예를 들어 유통업체에서 매장 포맷이나 타깃 고객을 바꿀 것인지, 여성 패션이나 아동복 등 다른 상품군을 집중할 것인지, 각 매장의 가시성을 어떤 식으로 최적화할 것인지 등의 이슈에 생성형 AI를 적용했다. 각 매장의 포맷별 손익 데이터나 C레벨 임원 인터뷰, 고객사 피드백 등을 입력해 실험했다.

실험 결과 특정 영역에서의 성과 개선 가능성은 놀라운 수준이었다. 생성형 AI를 사용할 경우 아이디어 도출과 콘텐츠 생성 등 창의적인 제품 혁신 과제에서 대조군(생성형 AI를 사용하지 않은 경우) 대비 40%가량의 엄청난 성과 개선이 있었다. 사람과 생성형 AI가 협동하면 사람 혼자 일한 것보다 훨씬 더 좋은 결과가 나온 것이다. 그런데 비즈니스 문제 해결과 관련한 업무에선 판이한 결과가 나왔다. 대조군 대비 성과가 23% 감소했다. 사람과 생성형 AI가 협동했는데 오히려 사람 혼자 일한 경우보다 나쁜 성과가 나온 것이다. AI가 창의적 제품 혁신을 위한 비판적 사고 측면에선 인간에게 도움을 줬지만 논리적으로 틀린 것이나 잘못된 것도 있었다는 말이다.

이는 다음과 같은 시사점을 제공한다. 먼저 각 개개인이 생성형 AI를 어디에 적용하는 게 유용할지를 판단하는 게 쉽지 않을 수 있다는 점이다. 어느 분야에 AI를 적용해야 가치를 창출하고, 어느 분야에 적용했을 때 가치를 파괴하는지 구분하는 게 어렵다. 그래서 우리는 AI가 우리 회사에는 어떤 영향(implication)을 주는가를 깊이 생각해야 한다.

또 하나 주목할 점은 AI 교육을 받을수록 성과가 나빠졌다는 것이다. 실험에 참여한 이든 몰릭 와튼스쿨 교수는 단기 트레이닝 과정을 고안했다. 컨설턴트들에게 어떻게 생성형 AI를 활용하고 질문을 할 것인지, 또한 기밀 유지나 신뢰성 관련 사항을 어떻게 다뤄야 하는지를 교육했다. 그런데 비즈니스 문제 해결 분야에선 이런 교육을 받은 사람이 오히려 교육을 받지 않은 사람보다 더 나쁜 성과를 보였다. 실제로 인터뷰를 해보니 너무 과도한 자신감이 문제가 됐다는 사실을 확인할 수 있었다. 교육을 한 번 받고 나니 ‘아, 이제 어떻게 써야 하는지 알았다’고 과신해 오히려 나쁜 결과를 냈다는 것이다.
GettyImages-1627924907_[변환됨]


생성형 AI는 자연어로 쉽게 상호작용할 수 있다. 문제는 자연어로 상호작용하는 과정이 완전하지 않다는 것이다. 파이선 같은 만국 공통 프로그래밍 언어와 달리 AI의 아키텍처를 통해 언어의 모호성을 제거하는 과정을 거친다. 해석이라는 과정을 한 번 거친다는 얘기다. 또한 생성형 AI는 확률에 근거를 두고 있다. 예측의 근간은 자신이 트레이닝을 받은 데이터와 사용자가 제기한 질문이다. 애초에 확률에 기반한 만큼 완벽하게 신뢰성이 담보되지 않는다는 점을 반드시 기억해야 한다. 결국 생성형 AI는 정말 많은 가치를 창출할 수도 있지만 일정 분야 바깥에선 오히려 가치를 파괴할 수도 있다는 얘기다.

창의적인 제품 혁신 업무에 대한 실험을 보다 집중해서 살펴보면 크게 세 가지 결과를 주목할 수 있다. 첫 번째는 참석자의 90%가 챗GPT를 썼을 때 이전보다 성과가 좋아졌다는 것이다. 두 번째는 평균 사용자의 3분의 2가 기존의 고성과자들과 동일하거나 더 나은 성과를 냈다는 점이다. 세 번째는 성과의 편차가 감소했다는 사실이다. 평균 또는 평균에 매우 근접한 성과를 보인 참가자 비율이 크게 늘었다.

이는 인력 관리에 있어 우리에게 많은 메시지를 준다. 우리의 인재 풀을 확장하는 것과 관련해서 말이다. 생성형 AI를 활용하면 이제 평균 또는 평균 이하 성과자도 고성과자만큼 좋은 인재가 될 수 있다. 채용을 좀 더 확대해서 할 수 있다는 얘기다. 혹은 새로운 업무를 개발하고 채용을 할 때, 특히 마케터나 컨설턴트를 채용할 때는 생성형 AI를 추가할 것을 고려할 수 있다.

GettyImages-1804861139_[변환됨]


켄타우로스와 사이보그,
AI와 협업하는 두 가지 방식

또 하나 중요한 메시지를 주는 사실이 있다. 창의적인 제품 혁신 분야에선 사람이 혼자 일할 때보다 사람과 생성형 AI가 협업할 때 훨씬 좋은 결과가 나온다. 그런데 생성형 AI 혼자서 일했을 때와 비교해 보면 별다른 성과 차이가 없다. 결과물의 품질을 기준으로 살펴보면 AI가 내놓은 결과물에 대해서 사람이 개입해 어떤 임팩트를 주더라도 성과가 더 나아지진 않았다. 오히려 생성형 AI가 내놓은 결과물에 더 많은 사람이 개입하면 품질이 더욱 악화했다. 보통 우리는 AI가 내놓은 결과물을 사람이 보강해줘야 한다고 보는데 그렇지 않은 영역도 있다는 것이다.

결국 AI에는 AI가 잘하는 업무를 맡겨야 한다. 인간은 인간이 더 잘하는 것을 중점적으로 할 수 있다. 이를 위해 소위 켄타우로스1 접근 방식과 사이보그2 접근 방식 두 가지를 나눠 볼 수 있다.

반인반수인 켄타우로스 시스템일 경우에는 노동의 분업이 이뤄진다. 켄타우로스는 당면한 작업에 더 적합한 것이 무엇인지에 따라 인간 또는 AI 주도 접근방식을 번갈아 가며 사용한다. 반면 사이보그는 사용자와 AI가 융합하는 것이다. 사이보그는 주어진 문제가 능력을 넘어설 때 오용될 위험을 감수하면서 여러 작업에 걸쳐 인간과 AI를 긴밀하게 통합한다. 우리의 반복되는 작업 흐름 속에서 생성형 AI와의 협업을 어떤 구조로 가져갈 것인지는 가장 중요한 질문이다. 이를테면 이러한 켄타우로스 방식이 과연 가능할 것인지와 같은 질문을 할 수 있다. 이때 기업의 과제 중 하나는 사람들이 켄타우로스가 될 수 있도록 식별하고 훈련하는 것일 수도 있다. 적절한 상황에선 생성형 AI에 효과적으로 의존하고, 필요한 경우 제쳐 두는 식으로 말이다.


창의성 하락의 함정

다음으로 강조하고 싶은 것은 창의성이다. 생성형 AI를 사용할 때 집단적 창의성과 다양성이 떨어지는 결과가 나타났다. 개인의 성과 상승과 집단의 창의성 손실 사이에 트레이드 오프가 나타나는 위험이 있었다. 창의적 제품 혁신 과제에 대해 생성형 AI를 사용한 참가자의 아이디어 다양성은 대조군과 비교해 41% 낮았다. 사람들이 결과물을 편집하는 경우에도 아이디어 다양성이 눈에 띄게 증가하진 않았다.

이 문제를 해결하기 위해 어떻게 하면 좋을까? 아마 우리는 처음부터 AI와 함께 작업하기보다 인간이 먼저 시작하고 여러 시도를 통해 아이디어 개선 노력을 한 이후 인간과 생성형 AI가 협업하는 구조를 생각해볼 수 있다. 이런 연구들은 현재진행형이다. 반복해서 문제를 살펴보고 개인의 성과 상승과 집단의 창의성 손실 사이의 상호관계, 보완성을 살펴 어떠한 방법이 가장 적절할지 생각할 필요가 있다. 아이디어 다양성을 유지하면서 속도를 높일 방법도 찾아야 한다.

또 하나 중요한 것은 인간이 창의성을 점점 놓치게 될 수 있다는 위험이다. 우리가 가진 창의성이라고 하는 근육의 힘이 빠질 수 있다는 것이다. 참가자 인터뷰 결과 약 70%가 생성형 AI를 광범위하게 사용하면 장기적으로 창의력이 저하될 수 있다고 예상했다. 부정적 영향이 없을 것이란 응답은 26%, 확신하지 못한다는 응답은 4%였다. 생성형 AI 사용으로 우리가 할 수 있는 부분이 점점 줄어들기 때문이라는 이야기들이 나왔다. 이 말은 사실일 수 있다. 앞서 말한, 집단의 아이디어 다양성이 41% 감소했다는 결과처럼 AI를 집중적으로 사용한 6개월간 창의성이 줄었다는 데이터가 나왔기 때문이다.

기업 입장에서 핵심 기술, 우리 회사만이 가진 차별화 경쟁력은 유지돼야 한다. 그래서 AI와 인간이 협업하더라도 지나치게 의존하지 않고, 인간의 역량을 유지할 방법도 꼭 생각해야 한다.


생성형 AI 도입을 위한 주요 고려 사항

누구에게나 생성형 AI를 사용하는 것 자체는 쉽다. 하지만 회사가 사용 사례를 만들어 경쟁 우위를 찾거나 차별화된 경쟁력을 만드는 것은 어렵다. 비즈니스 리더들은 다음의 사항을 고려해야 한다.

데이터 전략

데이터 전략은 정말 중요할 수밖에 없다. 생성형 AI를 도입하는 모든 기업은 상당히 큰 효율성 개선을 실현할 수 있다. 그러나 품질이 좋은 기업 고유 데이터 없이는 차별적 우위를 차지할 수 없다.

인재 전략

두 번째로 중요한 것은 생성형 AI가 인재 전략에 영향을 미칠 수 있다는 사실이다. 우리가 내부적으로 보유하고자 하는 스킬이 있다면 사내 훈련을 통해 스킬을 높이거나 필요한 인재 조건으로 해당 스킬을 내걸어 사람을 고용할 수 있다. 이때 생성형 AI 관련 전략을 어떻게 가져갈 것인지를 생각해야 한다. 또한 우리가 원하는 인재들이 얼마나 많은 지식을 갖고 있어야 하는지, 얼마나 많은 수가 필요할지, 자동화를 얼마나 해야 할 것인지 등을 기업이 결정해야 한다.

역할 및 업무 흐름

다음으로 작업 흐름에 대한 영향을 따져봐야 한다. 아주 많은 사람이 이런 질문을 한다. “생성형 AI를 가지고 내가 무엇을 하지?”라고 말이다. 하지만 질문은 “내가 하는 업무, 작업 흐름에 무슨 영향을 주지?”로 바꿔야 한다.

시험과 실험

생성형 AI를 접목한 업무 능력은 거의 매주 진화한다. 오늘의 경쟁 우위를 구축하는 방법이 내일은 다른 것으로 변할 가능성이 높다. 무엇보다 꾸준한 실험과 테스트가 중요하며 그걸 위한 생성형 AI 실험실(GenAI lab)이 필요하다.


AI, 활용하지 않으면 리스크 더 커져

생성형 AI에 대해 여러 가지 접근 방식을 쓸 수 있는데 우선 우리 기업의 주요 이슈를 질문하는 것부터 시작할 수 있다. 원가 대비 성과를 얼마나 올릴 수 있겠는가 하는 질문을 할 수도 있고, 마케팅이나 고객 서비스 공동 개발, 법무 업무 등을 어떻게 개선할 수 있는지를 물어볼 수도 있다. 어떤 기능을 리엔지니어링해서 추가로 가치를 창출할 것인지, 생성형 AI와 원활하게 협업할 방법은 무엇인지도 질문할 수 있다. 제품 서비스 개선이나 개발 단계의 차별화, 우리가 보유한 신소재를 활용한 개발, 다양한 설계 등을 다양하게 물어볼 수 있다. 수백 개의 함수를 활용한 답이 나올 것이다. 여기에 분석형 AI를 추가해서 나온 답변 중에 가장 적절한 것을 선택할 수 있다.

생성형 AI는 우리의 P/L(Profit & Loss Statement, 손익계산서)을 개선하는 데 긍정적인 영향을 줄 수 있다. 물론 고려해야 할 주요 요소는 많이 있을 것이다. 하지만 이런 기술을 활용하지 않는다면 손익 개선은 고사하고 오히려 리스크를 더 높일 가능성이 있다.

예를 들어 휴대폰 등장 전후를 기억해보라. 과거 텔레콤 회사 가운데 모바일 산업에 주력하지 않은 곳은 잘못된 판단의 대가를 치러야 했다. 기술의 미래를 오해하거나 미래에 대한 판단이 흐려질 경우 기업의 성공은 보장할 수 없다. 생성형 AI를 올바르고 긍정적인 방식으로 사용하면 회사의 이익을 높일 수 있고, 영속시킬 수 있다.

GettyImages-1327267346_[변환됨]


인간으로서 우리는 AI가 어느 영역에서 가치를 창출하고 파괴적인 피해를 줄지 한눈에 조망하기 어렵다. 하지만 오픈AI의 GPT-4가 나온 상황에선 당연히 앞으로 나올 GPT-5를 생각할 수 있다. 구글의 딥마인드3 도 있다. 이런 상황에서 우리가 정말로 주목할 것은 이런 기술을 시험하며 회사의 여러 역량을 개선할 수 있어야 한다는 점이다.

자율형 에이전트4 라는 것이 있다. 자율형 에이전트는 지금 현재 거대 언어 모델(LLM)에서 필요로 하는 프롬프트 엔지니어5 와는 다르다. 자율형 에이전트가 구현되면 더 큰 규모의 자동화가 가능해진다.

예를 들어 여러분이 프랑스로 여행을 간다면 지금 우리가 챗GPT를 통해 사용하듯 파리에 갈 건데 어디 가면 좋을지, 무엇을 하면 좋을지 등을 물을 수 있다. 거기에 이제 비행기 티케팅도 요청할 수 있을 것이다. 그런데 만약 이 중 하나라도 잘못된다면 여행 전반이 어그러질 수 있다. 그래서 어떤 목적이나 목표가 있다면 연속해서 계속적인 프롬프트를 줘야 한다. 그래야 최종적으로 내가 원하는 결과에 이를 수 있다.

이런 상황에서 자율형 에이전트는 복잡한 문제를 최적의 프롬프트로 세분화한다. 인간이 입력하는 것보다 훨씬 효율적이고 정확한 프롬프트 제공이 가능하다는 의미다. 앞으로 5년, 10년이면 계속 변화할 내용이다. 5년보다 더 빠를 것이라고 얘기하는 낙관주의자들도 있다. 이런 기술 변화는 현실화하는 순간 엄청나게 빠르게 가속하는 경향이 있다. 기술이 채택되면서 속도가 붙는 거다. 점점 더 많은 회사가 생성형 AI나 다른 AI를 채택해 변화의 속도를 높이고 그만큼 경쟁 우위를 가져가는 경향이 심화할 것이다.

DBR mini box I: 프랑수아 칸델론 디렉터와 청중과의 질의응답

“정답을 얻기보다 아이디어 촉발하는 도구로 써야”



Q 삼성 같은 하이테크 기업에선 생성형 AI의 보안 이슈 때문에 내부 사용을 금지하기도 했다. 이런 보안 문제는 어떻게 해결할 수 있을까?

A 굉장히 흥미로운 이슈다. 한국의 상황은 잘 모르겠지만 미국이나 프랑스 등 많은 나라에선 기업이 사내에서 생성형 AI 사용을 금지하더라도 직원들은 알음알음 사용하고 있다. 실제로 한 방산 기업이 생성형 AI를 보안이 지켜지지 않는 방식으로 써버려서 중대한 보안정보 누출 사고가 발생한 사례가 있다. 조심해야 하는 건 맞지만 기업의 경우는 금지보다는 일정한 가드레일을 설치하는 게 맞지 않나 생각한다. 오픈AI나 구글 등도 보안 이슈를 잘 알고 있다. 이 이슈가 해결되지 못해 B2B 보급이 이뤄지지 않은 것이고, 그래서 많은 보호장치와 보안 아키텍처가 만들어지고 있다. 데이터 유출이나 보안 사고를 막기 위한 것이다. 또한 저작권 문제 등의 이슈도 있기 때문에 많은 기업이 이 부분을 해결하려 노력하고 있다. 거대 언어 모델이 트레이닝 과정에서 습득하는 데이터의 경우 실제로 저작권 이슈가 발생할 수 있기 때문에 이런 문제도 해결을 해야 한다.

생성형 AI는 확률론에 기반하기 때문에 정확도 측면에서 아주 신뢰할 만한 것은 아니라고 내 강연에서 주장한 바 있는데 프랑스인인 한 하버드대 교수님의 일화를 말씀드리고 싶다. 이 교수님은 커리큘럼을 만들면서 챗GPT를 통해 미리 준비한 6개의 교과 과정을 놓고 점검을 했다. 새롭게 추가할 것이 있는지를 물었다. 그랬더니 제안 중에 이슬람에서 진행된 케이스 스터디 내용이 포함됐다. 한 번도 논문으로 발표가 된 적이 없는 내용인데 이걸 챗GPT가 얘기한 것이다. 그래서 이 교수님은 이를 기회로 활용해 이 부분에 대해 논문을 써봐야겠다는 생각을 했다고 한다.

이처럼 챗GPT를 100% 정확한 답을 얻을 도구로 기대하기보다는 추가 아이디어를 촉발하는 도구로 활용하는 것이 필요하다. 사람들은 챗GPT가 할 수 있는 것과 없는 것을 명확하게 구분해야 한다. 모두가 생성형 AI를 사용하는 상황, 그리고 AI가 가진 그림자를 동시에 생각해야 한다. 결국 아예 금지하는 것이 아니라 가드레일 장치를 두는 게 맞다고 생각한다.

Q 소재의 결함을 감지하는 디펙트 디텍팅 등의 공정에선 생성형 AI가 아니라 기존의 분석형 AI나 컴퓨터 비전을 활용하는 것이 더 효율적이지 않을까? 이 부분도 생성형 AI가 대체할 것으로 전망하는가? 그렇다면 어떤 부분에서 기존의 모델보다 개선된 역할을 하게 될까?

A 미래에는 좀 더 융합형이 될 것이다. 그래서 분석형 AI와 생성형 AI가 통합될 것이라고 생각한다. 생성형 AI는 현재 센서를 통해 공장 현장에서 무언가를 파악하는 일을 하고 있는데 구체적으로 무엇을 찾으려고 하느냐가 중요한 것 같다. 찾고자 하는 대상이 무엇인지에 따라 (적합한 도구가) 달라질 수 있기 때문이다. 분석형 AI를 사용할 수도 있고, 아니면 현장에서 또 다른 형태의 AI를 사용할 수도 있다.

물론 생성형 AI는 처음엔 예측력이 떨어지거나 찾아내는 부분이 적을 수 있다. 그럼에도 더 큰 진전을 기다려도 좋을 것이다. 이런 융합 환경, 분석형 AI와 생성형 AI가 융합되는 것은 두 AI가 똑같아진다는 얘기가 아니다. 중간에 서로 함께 일할 수 있지만 동시에 각각의 방향에서 좀 더 많은 가능성을 줄 수 있는 구조를 말하는 것이다. 모든 것이 생성형 AI화한다는 것이 아니다. 중요한 것은 정확성을 더 보장하는 것이고, 이를 위해 어느 쪽이든 사용될 수 있다.

Q 컨설팅을 할 때는 유명 인사의 말을 인용하는 경우가 있다. 혹시 앞으로는 어떤 생성형 AI를 활용했는지 레퍼런스를 밝힘으로써 비슷한 효과를 얻을 수 있을까? 즉, 전문성과 공신력을 인정받을 수 있을까?

A 현시점에선 사실 정확하게 대답할 수 없다. 그러나 AI가 어떤 면에선 공신력에 도움이 될 것 같다. AI를 이용해 아이디어의 외연을 더 확장시키는 데 활용할 수 있을 텐데 이때 “우리가 AI를 사용해 이런 가능성을 새롭게 탐색했다”는 식으로는 이야기할 수 있지 않을까 생각한다.

물론 AI가 아주 정확한 건 아니기 때문에 “100% 정확하다”는 말은 할 수 없을 것이다. 이런 정확도가 필요한 부분에선 AI가 말하는 문구를 인용을 했다가 정당성이나 공신력이 오히려 하락할 수도 있기 때문에 조심해야 할 것이다.
인기기사