로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

수동형 AI에서 능동형 AI로

챗GPT 물렀거라, 오토GPT 나가신다

이혜환 | 371호 (2023년 06월 Issue 2)
Article at a Glance

능동형 AI는 미리 정해진 규칙과 명령에 따라 작동하는 챗GPT와 같은 수동형 AI와 달리 스스로 학습하고, 문제를 해결하고, 결정한다. 그간 능동형 AI는 자율주행 등 전문적인 한 가지 영역에 사용되도록 개발됐다. 그러나 최근 GPT 모델을 적용한 오토GPT, 에이전트GPT 등 범용적인 상황에서 활용할 수 있는 능동형 AI가 활용되기 시작했다. 챗GPT에선 사용자가 양질의 답을 얻을 때까지 질문을 반복하지만 오토GPT에선 이 과정을 AI가 스스로 수행한다. 그러나 능동형 AI는 수동형 Al 보다 윤리적 문제에 취약하며 결과에 대한 설명도 더욱 어렵다는 점은 명심해야 한다. 위험한 상황에서는 자동으로 중단되는 기능을 마련하거나 돌발 상황에 대비할 수 있도록 기업 내 다양한 이해관계자에게 AI 교육을 진행하는 등 안전장치를 마련해야 한다.



수동형 AI 챗GPT, 능동형 AI는?

능동형 AI(Active AI)는 목표만 주어지면 스스로 학습하고, 시도하고, 문제를 발견해 개선하기까지 모든 과정을 능동적으로 수행하는 AI를 뜻한다. 최근 유명해진 챗GPT와 같은 형태의 AI는 수동형 AI(Passive AI)로 지칭한다. 명령이 있어야만 계속해서 동작을 수행하고, 정해진 규칙에 따라 움직인다. 문제가 발생한 경우 인간이 직접 규칙을 수정해줘야 한다. 예를 들어 수동형 AI가 의료 진단에 사용되는 경우 의료 전문가가 이미지나 검사 결과를 해석해 AI 시스템에 정확한 진단을 내리도록 프로그래밍해야 한다.

그러나 능동형 AI는 이전에 학습한 데이터와 패턴을 기반으로 스스로 진단을 내릴 수 있다. 수동형 AI는 더 정확한 결과를 보장할 수 있지만 문제가 발생했을 때 프로그래밍을 수정하거나 업데이트해야 한다. 반면 능동형 AI는 스스로 문제를 해결할 수 있으므로 프로그래밍이나 업데이트 없이도 다양한 문제에 대처할 수 있다.

그렇다면 능동형 AI가 더 좋은 것 아니냐고 생각할 수 있겠다. 그렇지만은 않다. 능동형 AI는 스스로 학습하므로 잘못된 데이터나 잘못된 가설에 기반해 잘못된 결론을 내릴 수 있다. 그뿐만 아니라 AI가 왜 이런 행동을 하는지에 대해 결과를 이해하거나 설명하기 어려울 수 있다. 물론 이러한 능동형 AI를 설명하는 시도로 설명 가능한 AI(Explainable AI)1 도 함께 연구되고 있지만 지금으로선 알기 어려운 것은 사실이다. 우스갯소리로 AI 개발자들은 실행(Run)만 시켜놓고 신의 계시를 받듯 원하는 결괏값이 나오기를 기도한다는 말도 있다. 일반적으로 수동형 AI는 반복적이고 일정한 작업에 적합하며 능동형 AI는 변화하는 환경에 적응하고 다양한 작업을 수행하는 데 적합하다고 이해할 수 있다.


범용성 갖춘 능동형 AI,
오토GPT(AutoGPT)

최근에는 수동형 AI인 챗GPT에 이어 능동형 AI인 ‘오토GPT(AutoGPT)’가 떠오르고 있다. ‘시그니피컨트 그래비타스(Significant Gravitas)’라는 영국에 위치한 작은 인디 게임 개발사가 만든 GPT-3.5 기반의 오픈소스 AI 프로그램 중 하나다. 2023년 3월 30일, 혜성처럼 등장한 이 프로그램은 출시 1개월 만에 깃허브(Github)2 에서 즐겨찾기 저장 수 10만 개를 달성하는 등 엄청난 반향을 불러오고 있다. 사실 능동형 AI는 자율주행이나 재난 상황에서 사용되는 로봇 등의 형태로 다양한 SW에서 이미 사용되고 있다. 그렇다면 왜 오토GPT가 갑자기 능동형 AI의 선두 주자처럼 논의되고 있는 걸까?


20230612_161121


이미 시중에서 많이 활용되고 있는 능동형 AI는 보통 전문 분야 한 가지에 특화돼 개발된 것이 일반적이다. 알파고가 유명해진 이후 ‘뮤제로’가 나타났다. 여러 번의 개선을 거쳐 현재는 바둑을 비롯한 다양한 게임에서 규칙을 알려주지 않아도 스스로 규칙을 학습하고 성능을 개선해 나가고 있는 게임에 전문화된 AI다. 순간적인 상황에서 스스로 판단하고 결정해야 하는 자율주행에 전문화된 AI도 있다. 지금까지의 능동형 AI가 전문화된 영역에서 활용된 이유는 능동형 AI가 필요한 많은 상황이 잘못된 선택이 불러오는 여파를 최소화할 수 있어야 했던 상황이었기 때문이다. 기술적, 경영적 변화가 많은 시점에 ‘전문화된 지식’을 바탕으로 더 나은 선택을 통해 실수를 최소화하고 스스로 좁고 깊은 지식을 학습하며 발전을 거듭해 정확도를 높여야 했다.

그러나 오토GPT는 다르다. 범용적인 환경에서 인터넷만 연결돼 있다면 다양한 영역을 스스로 학습하고 결과까지 만들어내는 구조다. 이런 이유로 이전의 능동형 AI가 주로 활용됐던 환경과 달리 어느 정도의 실수와 잘못된 선택이 용인되거나 추후 보완할 수 있는 다양한 프로세스에 간편하게 사용할 수 있다. 이런 특징 덕에 사람들이 오토GPT를 활용한 다양한 실험을 진행하고 있다.


20230612_161140


오토GPT는 GPT-3.5와 파이선(Python) 기반으로 개발된 프로그램이라 다른 프로그램들보다 도입하기 위한 진입장벽이 낮다. 챗GPT에는 양질의 결과물이 도출될 때까지 사용자가 계속해서 명령어를 추가하거나 수정해야 한다. 그러나 오토GPT는 양질의 결과물이 나올 때까지 사용자를 대신해 GPT-3.5에 질문을 던진다.

그뿐만 아니라 인터넷/웹 서비스 기반으로 작동하는 만큼 우리가 ‘인터넷에서 할 수 있을 것이라고 상상하는 것’을 오토GPT를 통해 대부분 수행할 수 있다. ‘30대 여성을 타깃으로 한 구두 쇼핑몰’과 같은 명령을 오토GPT에 입력하면 챗GPT에 상품에 대해 물어보며 판매할 제품을 선정하는 과정까지 알아서 수행한다. 이처럼 중간에 필요한 작업들은 스스로 학습하고 판단해 결과만 전달해준다. 같은 작업을 챗GPT에서 수행하기 위해선 쇼핑몰 디자인, 제품 선정, 코딩 등등 개별 작업을 물어야 한다. 이처럼 오토GPT는 정해진 한 가지의 목적으로만 작동하는 기존 능동형 AI와 달리 더 여러 상황에서 활용도가 높다. 게다가 오토GPT는 무료로 사용할 수 있는 오픈 소스로 제공되므로 저렴하게 다양한 AI 테스트를 해보기 좋다.

20230612_161148


오토GPT와 유사하게 범용적으로 활용되는 GPT-4 기반의 능동형 AI에는 에이전트GPT(AgentGPT)도 있다. 목표만 설정해주면 중간에 필요한 모든 의사 결정과 학습의 과정은 스스로 한다는 부분에서 오토GPT와 같다. 그러나 오토GPT와 다르게 대부분의 명령 사이 의사 결정을 인간이 직접 조작해야 한다. 에이전트GPT가 하나의 명령을 능동적으로 완료하면 이후 사용자는 이전 결과물을 개선할지, 혹은 다음 프로세스로 넘어가야 할지 등 피드백을 남길 수 있다. 만일 우리 조직이 AI 기술에 익숙하지 않아 AI가 어떤 구조로 학습하고 결정하는지에 대해 잘 모를 경우 에이전트GPT가 더 적합할 수 있다. 중간 과정을 확인하며 방향성을 잡아갈 수 있기 때문이다. 또한 오토GPT는 오픈 소스 코드로 만들어져 있어 사용자가 직접 프로그래밍해 사용해야 하지만 에이전트AI는 유료 프로그램으로 자체적으로 AI 툴을 구비해 사용자가 여러 상황에서 손쉽게 적용하고 사용할 수 있도록 돼 있다. 예컨대, 마케팅, 법무 등 각 직무에서 간편하게 사용할 수 있는 AI 툴을 제공한다.


능동형 AI를 준비하라

능동형 AI가 모든 것을 해결해주는 만능 요술 방망이 같아 보일지 모르겠다. 막강한 힘에는 막강한 책임이 따르는 법. 구밀복검한 상황을 더 조심해야 한다. 단순히 우리의 일을 빼앗기 때문에 조심해야 한다고 말하는 것이 아니다. 여러 미디어에서 AI의 윤리적인 위험성을 말한다. 수동형 AI는 적어도 인간이 직접 모든 규칙을 설정하고 관리할 수 있다. 반면에 능동형 AI는 과연 어떤 순서로, 그리고 어떤 이유로 해당 결과와 판단을 도출해 냈는지 알기 어렵다. 하물며 그 선택을 사용자의 개입 없이 스스로 진행하기도 한다.

마이크로소프트의 챗봇 ‘테이’ 사례가 유명하다. 테이는 트위터의 글들을 스스로 학습하고 성능을 개선했는데 결국 인종차별과 여성 혐오의 트위터를 쏟아냈다. 그들이 어떤 것을 학습하고 있는지 인간이 개입해 조정해야 한다고 깨달았을 땐 이미 학습을 어느 정도 끝마쳐 손을 대기 어려운 상황이었을 것이다.

오토GPT를 활용해 ‘30대 여성을 타깃으로 한 구두 쇼핑몰’에서 어떤 상품이 선택되고 가격이 책정돼 판매되는지는 결과적으로 쇼핑몰에 상품이 등록된 다음에 알 수 있고 어떤 사례를 학습해 그 상품을 선택했는지 알 수조차 없다. 그사이 이미 주문이 완료돼 결제까지 됐다면 그 역시 문제가 될 것이다.

능동형 AI를 활용하고자 한다면 미리 아래와 같은 것들을 고려해야 할 것이다.


•투명성(Transparency): 능동형 AI가 내린 결론을 설명할 수 있도록 만들어야 한다. 결론이 어떻게 만들어졌는지 이해할 수 있고, 그에 따른 대처가 가능해야 한다.

•윤리적 고려(Ethical Considerations): 능동형 AI의 발전은 언제나 윤리적 문제를 동반한다. AI가 인간의 가치를 침해하거나 인간을 대체하게 된다면 이러한 문제는 더욱더 심각해질 수 있다. 이를 해결하기 위해서는 사전에 능동형 AI가 활용되는 환경에서 어떤 윤리적 문제가 발생할 수 있을지 확인하고 미리 준비하는 것이 필수적이다.

•안전성 (Safety): 만일 능동형 AI가 만들어내는 결과가 실제 업무 현장에서 작동하는 경우엔 안전성을 필히 보장해야 한다. AI가 작동하는 환경을 통제하거나 위험한 상황에서는 자동으로 중단되는 기능을 추가하는 등의 대응책을 마련해두는 것이 방법이 될 수 있다.

•교육(Education): 실제 AI를 활용해 작업하는 당사자가 아니더라도 모든 구성원이 기본적인 AI에 대한 이해를 갖추고 있어도 좋다. 실제 문제가 발생하면 AI를 작동한 팀뿐만 아니라 홍보, 법무, 대관 등 다양한 이해관계자가 대응해야 할 수도 있다. 능동형 AI가 어떻게 작동하는지, 어떤 장단점이 있는지 등을 이해하면 능동형 AI로 인한 돌발 상황에서 더욱 효과적으로 대응할 수 있다.

•협업(Collaboration): 능동적 AI는 인간의 생산성을 높이기 위한 기술이라는 전제로 활용돼야 한다. 이를 위해서는 인간과 능동형 AI가 어떻게 협력해 작업할 것인지에 대한 방식을 정의해야 할 필요가 있다. 이를 통해 능동형 AI가 인간의 역량을 보완하고 더욱 효과적인 작업을 수행할 수 있을 것이다.


능동형 AI들을 활용해보기로 했다면 아직까지 오토GPT나 에이전트GPT 등의 AI들이 완성된 버전이 아니라는 점은 명심해야 한다. 다양한 범용성을 가지고 유연하게 활용될 수 있다는 장점이 있는 만큼 한 가지 업무에 집중적이고 전문적으로 활용되기에는 부족한 점이 많다. 미리 우리 회사에는 어떤 부분을 대체해 적용할 수 있을지, 어떤 위험을 몰고 올 수 있을지 등을 미리 대비한다면 덮쳐 오는 AI의 트렌드가 가히 무섭기만 한 일은 아닐 것이다.
  • 이혜환 | 이혜환 메텔 COO

    필자는 5인 미만의 소규모 팀부터 350명에 달하는 대형 조직까지 다양한 단계에 있는 스타트업과 벤처투자사에서 서비스 운영과 제품 PO를 맡아왔다. 서강대 MBA를 졸업하고 국내 유일의 링크트인 에이전시 메텔에서 운영총책임(COO) 및 국내 링크트인 커뮤니티 운영, 강의 등을 진행하고 있다. 링크트인(www.linkedin.com/in/hyehwanlee)에서 다른 글을 확인할 수 있다.
    yvonne@maetel.team
    이 필자의 다른 기사 보기
인기기사