로그인|회원가입|고객센터
Top
검색버튼 메뉴버튼

DBR mini box II : 경영자가 알아야 할 AI 관련 법

개인정보-지재권 침해가 혁신 발목 잡을 수도

오정익 | 365호 (2023년 03월 Issue 2)
0006


참고기사 | https://dbr.donga.com/article/view/1101/article_no/10800/mode/preview

지난해 11월 공개된 챗GPT의 일일 사용자 수는 출시 4일 만에 100만 명을 돌파했으며 2개월 만에 월간 활성 사용자 수(MAU) 1억 명을 기록했다. 사용자 100만 명을 확보하는 데 넷플릭스는 3.5년, 페이스북은 10개월이 걸렸고, MAU 1억 명에 도달하는 데 인스타그램이 2년6개월, 틱톡이 9개월 걸렸다는 점을 고려할 때 챗GPT의 열풍이 얼마나 대단한지 알 수 있다. 미국 대학생들은 이미 챗GPT가 작성한 리포트나 에세이를 제출하고 있다. 챗GPT는 미국 펜실베이니아대 와튼스쿨 MBA의 필수 교과목인 ‘운영관리’ 기말시험에 응시해 B 학점을 받고 미네소타주립대 로스쿨 4개 과정 시험에 응시해 평균 등급 C+로 모두 통과했다. 또한 미국의사면허시험(USMLE)을 무난히 통과했다는 연구 결과도 나왔다.

이런 파급력과 영향력을 체감한 국내외 기업들은 앞다퉈 챗GPT와 같은 챗봇이나 다른 생성형 AI 등에 관한 성과나 투자 계획을 발표하고 있다. 이렇게 생성형 AI를 적극 개발하거나 도입하려는 기업은 어떤 법·제도적 쟁점을 유념해야 할까?



인공지능 관련 법·제도적 리스크

1. 개인정보 침해 문제

중국의 동영상 공유 플랫폼 틱톡의 모회사 바이트댄스는 개인의 생체 정보 무단 수집을 이유로 미국에서 집단 소송을 당했다. 1년여간의 법정 공방 끝에 9200만 달러를 지급하기로 합의했다. 메타 역시 2020년 생체 정보 무단 수집을 이유로 집단 소송을 당해 합의금 5억5000만 달러를 지급하는 등 수많은 송사에 휘말린 상태이며 최근에는 개인정보 불법 수집을 이유로 영국에서도 수조 원 규모의 집단 소송을 당한 상태다. 구글이 운영하는 유튜브 역시 부모 동의 없이 아동 관련 데이터를 무단으로 수집해 2019년 9월 미국 연방거래위원회에 1억3600만 달러, 뉴욕주에 3400만 달러를 지급하기로 합의했다. 우리나라 개인정보보호위원회는 지난해 동의 없는 개인정보 수집 등을 이유로 시정 명령과 함께 구글에 692억 원, 메타에는 308억 원의 과징금을 부과하기로 의결했다.

우리나라에서도 개인정보를 해당 주체의 동의를 받지 않고 수집하거나 이용하면 개인정보보호법 제71조 등에 따라 5년 이하의 징역 또는 5000만 원 이하의 벌금 등 형사 처벌을 받을 수 있고 과징금이나 손해배상 청구를 당할 수 있다. 해외에서도 유럽연합(EU)의 개인정보보호규정(GDPR, General Data Protection Regulation)이나 미국 캘리포니아의 소비자 개인정보보호법(CCPA, California Consumer Privacy Act) 등 관련 법안을 도입하며 개인정보 침해 문제에 대응하고 있다.

AI를 개발하려면 매우 방대한 데이터를 학습시키는 과정이 필수적이다. 이 같은 데이터의 대부분은 사람들에 의해 생성된 것으로 결국 개인을 식별할 수 있는 개인정보가 포함될 확률이 높다. 특히 챗GPT나 바드와 같은 초거대 AI일수록 훨씬 방대한 양의 데이터를 학습하고 활용하기 때문에 그 과정에서 해당 데이터에 포함된 개인정보 침해 문제가 발생할 위험이 더욱 크다. 이미 개발된 AI를 도입하는 기업이라고 해도 이런 위험에서 자유롭지 않다. 챗GPT나 바드 등 이미 상용화된 시스템도 고객이나 사용자들이 해당 시스템을 사용할 때 생성하거나 입력한 데이터를 또다시 학습 데이터로 활용해 고도화하는 형태로 운용되는 경우가 대부분이기 때문이다.

따라서 개발된 AI를 도입하거나 이용하는 기업도 개인정보 침해 등의 이슈가 발생하지 않도록 주의를 기울여야 한다. 개인정보보호법이나 개인정보위원회 지침 등에 위반되지 않도록 이용 약관은 물론 개인정보 수집이나 이용에 관한 동의서 등을 잘 마련하고 이용 고객에게 제공해 날인받는 등의 조치를 마련해야 한다. 특히 관련 서비스가 해외로 진출할 경우 해외에 있는 자국민이 해당 서비스를 이용할 때는 EU의 GDPR 등 해당 국가의 법률이 적용될 수 있다는 점을 인지해야 한다. 그렇지 않으면 앞선 사례처럼 개인정보 침해로 막대한 합의금이나 과징금을 물어 회사의 존립까지 위협당할 수 있다.

2. 지식재산권 침해 문제

대표적인 이미지 플랫폼 기업인 미국의 게티이미지(Getty Images)는 스태빌리티 AI(Stability AI)가 이미지 생성형 AI인 스테이블 디퓨전(Stable Diffusion)을 개발할 때 게티이미지가 저작권을 가진 이미지를 불법으로 사용했다며 소송을 제기했다. 또한 유명 일러스트레이터 사라 안데르센, 켈리 매커넌, 칼라 오티즈도 스태빌리티 AI와 이미지 생성형 AI 모델인 미드저니(Midjourney)를 개발한 미드저니연구소가 저작권자의 동의 없이 저작물을 불법으로 사용했다며 저작권 침해 등을 이유로 소를 제기했다.

앞서 언급한 것처럼 AI의 학습 데이터는 대부분 사람들로부터 비롯된 것으로 개인정보는 물론 사진이나 문학 작품 등 사람의 창작물도 포함될 가능성이 높다. 저작권자의 동의를 받지 않고 무단으로 저작물을 복제, 전송하는 경우 저작권법 제136조 등에 의거해 5년 이하의 징역 또는 5000만 원 이하의 벌금 등 형사 처벌은 물론 손해배상청구를 당할 수 있다. 이는 외국의 경우도 마찬가지다. 따라서 챗GPT나 바드와 같은 초거대 AI를 활용할 경우 지식재산권이 있는 저작물 등을 학습 데이터로 사용해 지식재산권 침해 문제가 발생할 수 있음을 유의해야 한다.

다만 해외에서는 부분적으로 저작권자의 동의 없이 저작물 활용을 허가하는 경우도 있다. 미국에서는 저작물을 비표현적인 컴퓨터나 통계 연구 등에 사용하는 것을 허가하고, 일본에서는 정보 분석용일 경우 저작권자의 동의 없이 사용할 수 있다. 국내에서도 저작물에 표현된 사상이나 감정이 아닌 정보를 분석하는 범위에 한정해 저작물을 사용할 수 있도록 하는 내용의 저작권법 개정안이 발의돼 국회에 계류 중이다. 향후 저작물의 창작성을 침해할 우려가 없는 선에서 AI 개발에 저작물 사용이 허용될 여지가 있어 관련 동향을 주시할 필요가 있다.

3. 지식재산권 보호 문제

미국의 AI 과학자인 스테판 탈러(Stephan Thaler) 박사는 발명하는 생성형 AI인 다부스(DABUS)로 세계 각국에 특허를 출원했다. 영국, 독일, 이스라엘, 미국, 오스트레일리아, 한국 등은 모두 이를 거절했다. 남아프리카공화국만 유일하게 인정했지만 남아공은 실질심사제도가 없어 사실상 무의미한 사례라는 평가가 있다. 이처럼 챗GPT가 생성한 에세이나 논문 혹은 소설, 스테이블 디퓨전이나 미드저니가 생성한 그림이나 사진 등 초거대 AI가 생성한 결과물이 과연 지식재산권의 대상물로 보호받을 수 있을지에 대한 논의가 나오고 있다.

현재 대부분의 국가는 사람의 창작물만 저작물이나 특허 대상으로 보고 저작권이나 특허권 등의 권리 소유 역시 사람만이 할 수 있는 것으로 인정한다. 따라서 AI가 생성한 결과물을 지식재산권 대상으로 인정하지 않고, AI를 지식재산권의 소유자로도 보지 않는다. 물론 AI가 전적으로 작성한 것이 아닌 사람이나 기업이 AI의 도움을 받아 생성한 결과물은 그 창작성 등을 고려해 저작물에 해당할 수 있으며 저작권 등의 주체도 사람이나 기업이 될 수 있다.

단 최근에는 AI가 전적으로 생성한 모든 결과물을 지식재산권 보호 대상으로 인정하지 않는 현행 법제에 대한 지적이 나오고 있다. 이와 관련해 사람에게 부여하는 지식재산권과 차등을 둔 AI의 지식재산권을 인정하거나 AI가 생성한 결과물임을 표시하면 제약 없이 사용할 수 있도록 하고, 지식재산권을 보호하는 것이 아닌 일정 비용만 부과하면 사용할 수 있는 방식을 인정해야 한다는 등의 여러 의견이 나오고 있다. 앞으로 AI 생성물의 수준이 높아질수록 법과 제도가 바뀌어 비즈니스에 영향을 미칠 수 있는 만큼 관련 사회적 논의를 주시할 필요가 있다.

4. 윤리성과 신뢰성의 문제

2023년 2월 구글은 챗GPT의 대항마로 챗봇 ‘바드’를 공개하며 시연 자료를 공유했다. 바드는 ‘제임스웹우주망원경(James Webb Space Telescope)이 태양계 밖 외계행성을 세계 최초로 촬영했다’고 답변했지만 이는 틀린 내용으로 밝혀져 구글 주가가 폭락하는 일이 벌어졌다. 메타는 오픈AI가 챗GPT를 출시하기 2주 전쯤 과학 지식을 제공하는 갈락티카(Galactica)라는 챗봇을 출시했지만 3일 만에 폐지했다. 갈락티카가 ‘깨진 유리를 먹어서 얻을 수 있는 이점이 있느냐’는 질문에 ‘뼈와 조직 결합 등 건강에 좋다’는 등의 부정확한 내용은 물론 인종차별적인 답변을 내놓아 논란이 됐기 때문이다.

이처럼 챗봇이 사실이 아닌 부정확한 내용을 사실인 것처럼 설명하는 경우가 많다. 머신러닝, 특히 딥러닝 모델의 AI 챗봇은 빅데이터를 학습해 답변을 내놓는다. 그러나 방대한 양의 데이터 중 양질의 정보만 선별해 학습하는 것은 사실상 불가능하다. 또한 개발 과정에서 우연히 혹은 의도적으로 개발자의 의도나 목적, 편견이 반영돼 이로 인한 편향이나 오류 등이 발생할 수 있다. 이에 AI 개발자와 기업은 AI의 공정성, 중립성, 투명성을 보장하기 위해 편견과 차별을 방지할 수 있는 윤리 규범을 준수해야 한다. 또 개발된 AI가 이와 같은 윤리 범주 안에서 안전하고 정확하게 작동한다는 점을 신뢰할 수 있도록 작동 방식 등을 투명하게 설명하는 것도 좋은 방법이다.

물론 윤리나 신뢰성, 투명성 등이 추상적인 개념이라 이를 사업에 실질적으로 고려해야 할 요소로 생각하지 않는 기업도 많다. 그러나 챗GPT나 바드 등 초거대 AI의 영향력이 커지면서 실제로 윤리 기준을 세우고 적용하는 사례가 등장하고 있다. EU의 AI 윤리지침(AI Ethics Guidelines), 미국 국방부의 AI 윤리의 5가지 원칙(5 Principles of Artificial Intelligence Ethics), 우리나라 과학기술정보통신부의 AI 윤리 기준 등 정부 차원에서 AI 윤리 기준을 마련하는 한편 구글의 우리의 원칙들(Artificial Intelligence at google: Our principles), 네이버의 AI 윤리 준칙 등 기업도 자사만의 윤리 원칙을 세우고 있다.

신뢰성과 투명성에 관한 기준도 마련되고 있다. EU의 GDPR이나 AI법안(Artificial Intelligence Act)은 알고리즘의 결정에 대해 개인이 해당 업체에 관련 설명을 요구할 수 있는 권리를 부여하거나 AI 시스템에 투명성 의무를 부과한다. 미국의 알고리즘책임법(Algorithmic Accountability Act)은 기업들이 자사 AI 프로그램의 정확성, 공정성, 편견 및 차별 여부 등을 정기적으로 평가하도록 의무화한다. 우리나라에서도 AI의 안전성, 신뢰성 제고를 위한 인공지능 기본 법안 등 관련 법률안 8개가 현재 국회에 계류 중이다. 예를 들어, 가장 최근 국민의힘 윤두현 의원이 대표 발의한 ‘인공지능산업 육성 및 신뢰 확보에 관한 법률’안은 인공지능위원회를 국무총리 소속으로 따로 두고, 고위험 영역에서 AI를 활용하는 제품이나 서비스를 제공하는 자는 AI 기술을 활용한다는 사실을 사전에 고지하도록 하는 등의 내용을 골자로 한다. 이처럼 AI 관련 기본 법안이 도입되면 이후 추가적인 개별 법안, 법 시행령이나 관련 지침 등이 마련돼 구속력은 더욱 구체화될 전망이다. 따라서 향후 10∼20년 이상의 존속을 고민해야 하는 기업들은 이와 같은 윤리성, 신뢰성의 문제를 결코 간과해선 안 된다. AI가 사회 전반에 미치는 영향력이 커질수록 이 같은 문제는 더욱 중요한 화두로 떠오를 것이다.

5. AI 개발, 활용 범위의 문제

최근 챗GPT가 직접 쓰고 편집, 교열까지 한 책이 출간됐다. 번역은 네이버의 번역 AI 파파고의 도움을 받았다. 출판사에 따르면 인쇄와 출간 작업을 제외한 집필·번역·교정·교열 등의 편집 작업에 30시간이 걸렸다. 사람이 했다면 수개월에서 수년이 걸릴 수 있는 일이 이틀이 채 안 되는 시간 안에 완성된 것이다. 이는 출판 업계에 큰 충격을 가져올 것으로 보인다. 한편 챗GPT를 이용해 에세이나 논문 등을 작성해 결과물을 제출하는 학생들이 늘어나면서 학술계와 교육계는 기존 교육 시스템의 변화를 모색하고 있다. 미국 일부 학교는 챗GPT 사용을 금지하고 AI를 활용해 작성된 결과물을 판별하는 서비스도 개발되고 있다.

AI는 일정 분야에 제한적으로 사용되는 약인공지능, 사람처럼 범용적으로 다양한 분야에 활용될 수 있는 강인공지능, 사람의 수준을 능가하는 초인공지능으로 나뉜다. 이처럼 AI는 수준이 높아질수록 범용성을 띠게 된다. 이런 이유로 챗GPT나 바드와 같은 초거대 AI가 등장하면서 활용성이나 파급력에 대한 기대와 함께 우려가 높아지고 있다. AI 기술이 단순한 업무나 한정된 분야에만 접목되고 활용되는 약인공지능 단계를 넘어 다양한 분야에 활용 가능한 강인공지능의 단계에 이르면 사람을 대체할 가능성이 높아지기 때문이다.

현재 자율주행기술이 상당한 수준으로 발전해 배달 로봇 배송이 현실화되고 있으며 일부 진단 분야에 사용되는 AI는 이미 숙련된 전문의 수준에 도달했다는 평가가 나온다. 이처럼 AI가 더욱 발전해 사람과 같은 수준에 이르게 되면 AI가 사람을 대체하는 것을 과연 어느 범위까지 용인할지에 대한 질문에 맞닥뜨릴 수밖에 없다. EU의 AI 법안은 ‘사람에 대한 평가나 사람을 분류, 평가할 수 있는 AI’나 ‘특정 예외에 해당하지 않는 한 사법 집행을 목적으로 공개적으로 접근 가능한 공간에서 실시간 원격으로 생체 정보를 인식할 수 있는 AI’ 등의 활용을 금지한다. 사람의 생체 인식이나 분류, 중요 인프라의 관리 및 운영, 교육 및 직업 훈련, 고용, 근로자 관리 등에 관한 AI도 일정 조건 아래에서만 개발 및 활용이 가능하도록 규정한다. 향후 국내에서도 AI 개발이나 활용 범위를 어디까지 허용할지에 대한 구체적 논의가 공론화될 수 있으므로 관련 기업은 논의 과정을 살피며 변화에 대비해야 한다.

법·제도 변화에 따른 리스크 대비해야

AI는 기존의 기술들과 달리 그 수준이 발전할수록 큰 범용성을 갖추게 된다. 이런 이유로 세계 유수 기업들은 AI 기술 개발에 천문학적 규모의 자본을 투자하고 있다. 기업들이 AI를 도입하고 관련 서비스가 대중화되면서 이로 인한 사회적 파급력과 영향력도 막대할 것으로 예상된다. 향후 AI 관련 법과 제도가 새롭게 마련되면 이미 형성된 기업 생태계를 소멸시키거나 새로운 기업 생태계를 만들 수 있다. 기업은 관련 법과 제도적 이슈를 주시하고 필요에 따라 적극 개입하며 리스크에 대비해야 한다.

오정익 법무법인 원 변호사 jioh@onelawpartners.com
  • 오정익 | 법무법인 원 변호사
    필자는 법무법인 원 인공지능대응팀 변호사로 AI 기술을 적용한 서비스를 개발·제공하는 기업에 발생할 수 있는 법률문제나 개인정보 보호, 규제 샌드박스 관련 법률 자문 등을 수행하고 있다. 공동 저서로는 『50문 50답으로 풀어쓴 궁금한 AI와 법』이 있다. 주요 관심 분야는 인공지능 윤리와 신뢰성, 자율주행, 로봇이다.
    jioh@onelawpartners.com
    이 필자의 다른 기사 보기
인기기사