딥러닝 네트워크를 이용해 이미지와 영상을 합성하는 ‘딥페이크’ 혁신 기술에는 명암이 있다. 진짜 인간과 똑같은 가짜 인간, 즉 디지털 휴먼 생성이란 엄청난 산업적 잠재력을 가지고 있음에도 불구하고 어두운 그림자로 인해 ‘악한 기술’로 인식돼 있다. 인간의 얼굴형과 체형, 입 모양, 보디랭귀지 등까지 고스란히 구현한 가상 인간 분야가 더 발전하기 위해서는 그 이면에서 포르노나 가짜 뉴스 등 사이버 범죄를 방지하기 위한 기술 연구가 동반돼야 한다. ‘생성 기술’과 대적할 수 있는 ‘판별 기술’을 고도화해 합성 영상 플랫폼에 포르노가 올라오는 것을 차단하고 딥페이크의 진위를 가릴 수 있어야 한다는 의미다.
“딥페이크 비디오 중 96%가 포르노로 소비되고 그중 얼굴 도용 피해자의 25%가 한국 여자 연예인이다.”11네덜란드의 사이버 보안연구 회사인 딥트레이스가 발간한 보고서 ‘더 스테이트 오브 딥페익스(The State of Deepfakes)’ 조사 결과
닫기
합성 데이터의 기저에 깔린 기술, 즉 사생활 침해와 민감 정보 폭로에 대한 걱정 없이 진짜 같은 가짜 이미지와 영상을 만들어내는 기술은 새로운 게 아니다. 우리가 익히 아는 ‘딥페이크(deepfake)’를 생성하는 기술과 동일하다. 용도만 다를 뿐 딥러닝 네트워크를 이용해 이미지 및 영상을 합성하거나 변형해 활용한다는 맥락에서는 다 같은 것이다. 그런데 딥페이크는 일반적으로 ‘악한 기술’의 대명사로 알려져 있으며 대부분의 사람이 딥페이크 혹은 얼굴 합성이란 용어만 들어도 포르노나 가짜 뉴스부터 떠올린다. 그동안 이 기술이 여성 아이돌의 얼굴을 포르노에 합성하거나 가짜 뉴스를 통해 여론몰이를 하고 분열과 갈등을 조장할 때 활용돼 왔기 때문에 자연스러운 현상이기도 하다. 애초에 딥페이크란 이름도 2017년 미국의 온라인 커뮤니티 레딧에 할리우드 배우의 얼굴과 포르노를 합성한 편집물을 올린 네티즌의 아이디 ‘딥페익스(Deepfakes)’에서 유래했으니 더 말할 것도 없다. 2019년 기준 전 세계 1만4678건의 딥페이크 영상 중 성인물이 96%에 이른다는 통계도 있다.22네덜란드 사이버 보안회사 센시티의 조사 결과
닫기