딥페이크의 얼굴
3화

딥페이크와 폭력의 얼굴

허위정보와 사실의 위기


2022년 3월, 페이스북과 유튜브가 발칵 뒤집혔다. 러시아와 우크라이나의 전쟁이 한창 진행되는 와중, 볼로디미르 젤렌스키(Volodymyr Zelenskyy) 우크라이나 대통령이 자국민에게 ‘무기를 내려 놓으라’며 러시아에 항복을 선언하는 동영상이 업로드됐기 때문이다. 영상 속에서 초록색 상의를 입은 젤렌스키 대통령은 우크라이나 국가 문장이 그려진 배경 막을 뒤에 둔 채 러시아에 항복을 선언하고 있었다. 오래지 않아 이 영상은 친(親)러시아 해커로 추정되는 인물이 딥페이크를 활용해 만든 조작 영상이라는 사실이 밝혀졌다. 페이스북과 유튜브는 해당 영상을 플랫폼에서 삭제했고, 젤렌스키 대통령은 인스타그램과 텔레그램의 우크라이나 국방부 계정을 통해 해당 영상이 조작된 것이며 ‘무기를 내려놓고 귀국해야 하는 것은 러시아군’이라며 거듭 항전의 의지를 밝혔다.

영상 속 메시지가 평소 젤렌스키 대통령의 호소와 달랐고 영상이 조작됐음을 밝히는 대통령의 대응이 신속하게 뒤따랐기에 딥페이크 영상은 우크라이나 내 혼란을 가중하려던 본래의 ‘의도’를 달성하지 못했다. 조작된 영상의 질이 조악해서 사람들이 쉽게 영상이 가짜임을 알 수 있었던 덕도 컸다. 그러나 만약 조작 영상이 더 널리 유포되고 더 많은 사람들이 속아 넘어갔다면 어땠을까? 러시아-우크라이나 전쟁은 유례 없는 ‘정보전(information war)’의 형태로 그 양상이 변화했을 것이다. 딥페이크를 통해 메시지의 화자를 바꾼 아주 단순한 계기가 전쟁의 형국을 바꿔 놓을 수도 있었던 셈이다.
(좌)조작된 젤렌스키 대통령 연설 영상 ⓒMikaelThalen 트위터 (우)이에 대한 해명 영상 ⓒZelenskyyUa 트위터
이보다 앞선 2018년 5월, 벨기에에서는 중도좌파 계열의 ‘다른사회당(Socialistische Partij Anders)’이 당의 공식 트위터, 페이스북 계정에 〈트럼프가 모든 벨기에 사람들에게 보내는 메시지 #기후 변화협약〉이라는 제목의 동영상을 업로드했다. 영상에서 트럼프 전(前) 미국 대통령은 “나는 파리 기후 변화협약에서 탈퇴할 배짱이 있었다. 벨기에도 그래야 한다”고 말하며 벨기에가 탈퇴에 동의했으면서 아무런 조치도 취하지 않고 말만 하고 있다는 도발적 언사를 쏟아 냈다. 영상은 2만 회가 넘는 조회수를 기록하고 수백 개가 넘는 댓글이 달렸다.

하지만 이 영상은 다른사회당이 딥페이크를 활용해 일부러 조작한 영상이었다. 다른사회당은 기후 변화에 대한 사람들의 관심을 환기하고, 벨기에 사람들이 더 적극적으로 정부에 기후 변화 정책을 시행하도록 압력을 넣으려는 목적에서 영상을 만들었다고 밝혔다. 그러나 이러한 해명에도 불구하고, 다른사회당은 고의로 허위정보를 유포하려 했다는 비판에 직면할 수밖에 없었다. 플랫폼 계정이나 영상 화면에 조작에 대한 어떤 표시도 하지 않았기 때문이다. 다른사회당은 트럼프가 “우리 모두는 기후 변화가 이 영상처럼 가짜라는 것을 압니다”라고 이야기하는 장면이 영상에 포함돼 있다며 영상이 조작된 정보임을 누구나 알 수 있도록 했다고 주장했지만, 설득력을 얻기 어려웠다. 이 장면에만 네덜란드어 자막이 달리지 않고 소리 크기와 영상 밝기가 모두 줄어드는 등 교묘하게 조작 여부를 가리려는 시도 또한 확인됐기 때문이다. 말하자면, 트럼프가 벨기에 사람들에게 파리 기후 변화협약 탈퇴를 권유했다는 허위정보를 퍼트리려는 묵시적인 의도가 있었다는 것이다.

영상이 공개된 후 기후 변화에 대한 관심과 딥페이크를 통한 정보의 조작 중 무엇이 더 이슈가 됐을까? 정답은 후자다. 이 사건은 ‘사실 검증(Fact-check)’과 관련해 일반인은 물론이고 전 세계 언론의 큰 관심을 받았다. 2018년 6월 로마에서 열린 ‘글로벌 팩트 체크 서밋(Fifth Global Fact Checking Summit・ Global Fact Ⅴ)’에서 주요 사례로 소개되기도 했다. 악의를 가지고 영상을 만든 것은 아니었지만 다른사회당은 결국 기후 변화에 대한 관심 제고라는 본래의 목적을 달성하지 못했을 뿐 아니라 딥페이크를 통해 자신의 입지를 강화하려 했다는 비판에서 벗어나지 못하게 되었다. 딥페이크를 통해 만들어진 영상은 어쨌든 허위의 정보이기 때문이다.
딥페이크로 합성된 트럼프의 연설 장면 ⓒvooruit_nu 트위터
두 사례는 딥페이크가 전례 없는 방식으로 사실성의 위기를 초래하고 있음을 보여준다. 버즈피드에 올라온 오바마 대통령의 딥페이크 영상이 보여 주듯, 딥페이크의 활용 사례로 가장 많이 언급되는 것은 정치인의 얼굴을 뒤바꿈으로써 가짜 정보의 유포를 시도하는 경우다. 정치와 정쟁(政爭)은 늘 정보를 둘러싼 싸움이었지만, 딥페이크를 통해 만들어지는 허위정보는 그간의 정보 조작과 양상이 다르다. 딥페이크는 전달되는 말의 내용 자체를 조작하기보다는 인물의 얼굴을 바꾸는 방식을 택한다. 이는 정보를 전달하는 ‘화자(메신저)’의 속성을 조작함으로써 사실성의 효과를 자아낸다. 딥페이크가 만들어낸 오바마 대통령의 연설 영상은 그 메시지가 다른 사람이 아닌 오바마 대통령을 통해 전달됐기 때문에 사람들의 관심을 끌 수 있었다. 트럼프의 메시지 또한 다른 사람이 아닌 트럼프의 발언이었기에 파급력을 가질 수 있었다. 젤렌스키 대통령의 항복 영상처럼 평소 인물의 모습 또는 발언과 메시지의 내용이 다를 경우에는 사람들이 쉽게 조작 여부를 판단할 수 있다. 그러나 메시지의 내용과 조작된 화자의 속성이 일치하는 경우, 혹은 이를 판단하기 어려운 경우에는 큰 혼란이 발생한다. 가령, 누군가가 악의로 특정 기업의 CEO가 기업 매각 의사를 밝히거나 한 국가의 수장이 전쟁을 선포하는 영상을 만들어 유포한다면 심각한 문제가 발생할 것이다.

더 큰 문제는 화자가 언제든 조작될 수 있다는 사실 자체가 사회적 신뢰를 무너뜨릴 수 있다는 점이다. 책 《딥페이크: 다가오는 정보대재앙(Deepfakes: The Coming Infocalypse)》의 저자인 니나 시크(Nina Schick)는 딥페이크 영상이 언론에 대한 신뢰를 무너뜨릴 것이라 경고하면서, 특히 사람들이 모든 것이 조작일 수 있다고 믿기 시작하는 것이 큰 문제가 될 것이라 말한다.[1] 딥페이크 영상은 누구나 이를 만들어 낼 수 있다는 점에서 가장 강력한 형태의 시각 정보 조작이라는 것이다. 딥페이크는 메시지를 믿기 어려울 때 이를 전달하는 화자를 확인하는 방법으로 사실을 확인하던 관습을 무너뜨리며, 사람들이 보고 듣고 읽는 모든 것을 의심하게 만든다. 아직까지는 딥페이크를 통한 허위정보가 기술적 조악함으로 인해 쉽게 알아챌 수 있는 방식으로 전달되거나 조작된 당사자(화자)가 대체로 유명인이기에 바로 대응할 수 있는 형태가 대부분이었다. 그러나 일반인들의 대화나 거래에 딥페이크가 활용되는 경우, 딥페이크는 매개된 소통 자체를 늘 의심해야 하는 것으로 만들지도 모른다.

실제로 SBS 〈그것이 알고 싶다〉 제작진이 실험을 통해 딥페이크가 피싱과 같은 범죄에 활용될 수 있음을 확인한 바 있다. 제작진은 평범한 청년들의 얼굴을 병상에 있는 누군가의 얼굴에 합성해 마치 이들이 병원에 입원한 것 같은 영상을 만들고 이를 부모님에게 보내는 실험을 했다. 세 명 가운데 두 명의 부모님이 영상을 본 후 자녀들에게 신용카드 사진을 의심 없이 찍어 보냈다. 예외적인 메시지이지만 ‘내가 아는 얼굴’이 이를 전달하기에 정보를 믿은 것이다. 이러한 사례가 증가하면, 사람들은 화자가 등장하더라도 대면 소통이 아닌 이상 이를 믿지 않는 경향을 보이게 될 것이다. 딥페이크는 그럴싸한 영상으로 사람들을 ‘믿게 만드는’ 것을 넘어, 정보의 사실성을 메시지로도, 화자의 얼굴로도 증명하기 어려운 대상으로 만든다. 이는 사실에 대한 신뢰 자체를 위기로 몰아넣는 일이다.

이처럼 딥페이크가 디지털 시대 허위정보의 첨병이 될 수 있다는 위기의식에서, 영국의 지상파 방송국 ‘채널4 (Channel 4)’는 2020년에 한 편의 영상을 제작했다. 영상에서는 생전의 엘리자베스 2세 영국 여왕이 털기 춤을 추는 등 과장되고 우스꽝스러운 모습으로 성탄절 메시지를 전달한다. 채널4는 성명을 통해 “딥페이크 기술은 진실과 허위정보 간 전쟁에 새로이 등장한 무서운 전선”이라며, 이에 대한 경각심을 일깨우기 위해 딥페이크 영상을 만들었다고 밝혔다. 해당 영상은 딥페이크 환경에 대한 일종의 ‘풍자’였던 셈이다.

문제는, 풍자와 허위정보가 종이 한 장 차이일 뿐이라는 점이다. 러시아의 블라디미르 푸틴(Vladimir Putin) 대통령이 평화를 선언하는 모습을 담은 딥페이크 영상은 사람들이 곧잘 풍자로 받아들인다. 그러나 ‘건강 이상설’이 증폭되는 가운데, 푸틴 대통령이 건강한 모습으로 장기간 회의에 참석하는 모습이 영상으로 제공된다면 어떨까? 이는 사실일까, 허위일까, 혹은 풍자일까? 이를 판단하는 일은 너무나 어려우며, 딥페이크 기술이 일반화될수록 딥페이크를 통한 허위정보의 도전은 더욱 복합적으로 변화할 것이다. 이에 대한 정보 생산자들, 그리고 이용자들의 대응은 아직 요원해 보인다. 그 사이, 딥페이크 기술은 더욱더 정교해지는 중이다.
딥페이크로 합성된 영국 여왕의 크리스마스 메시지 ⓒChannel4


포르노그래피와 조작된 정서


딥페이크가 적극적으로 활용되는 또 다른 분야는 포르노그래피 제작이다. 2017년 말, ‘deepfakes’라는 닉네임의 이용자가 딥페이크를 활용해 할리우드 유명 여배우들의 얼굴을 포르노 영상에 합성해 레딧에 업로드한 이후 ‘딥페이크 포르노’는 마치 하나의 단어인 양 유행처럼 번져 나갔다. ‘deepfakes’가 구글 이미지 검색, 사진 서비스, 유튜브 등 누구나 쉽게 접근할 수 있는 데이터만 활용했으며 소프트웨어도 텐서플로우 같은 오픈 소스만 사용했다고 밝혔기 때문에, 사람들이 ‘나도 할 수 있나?’하는 호기심으로 딥페이크 영상 제작에 뛰어들기도 했다.

딥페이크는 특정인의 얼굴을 포르노 배우로 둔갑시키는 데 널리 활용되고 있다. 네덜란드의 디지털보안연구소인 ‘딥트레이스(Deeptrace)’가 2019년에 조사한 결과 온라인에 유포되고 있는 딥페이크 영상물 중 96퍼센트가 불법 음란 영상물일 정도다.[2] 서구의 여배우들이 가장 많이 불법 합성의 대상이 된 가운데, K팝 아이돌 또한 조작 영상의 타깃이 되고 있다. 네덜란드의 AI 기업 ‘센시티(Sensity)’의 조사에 따르면, 딥페이크 포르노 사이트에 올라온 영상의 25퍼센트가 K팝 스타를 대상으로 하고 있다. 우리나라에서도 2018년 걸그룹 멤버의 얼굴이 성인 배우의 누드 영상에 교묘하게 합성된 영상이 소셜 미디어에서 급속도로 번졌던 사건이 딥페이크 기술에 대한 관심을 폭발적으로 증가시켰다 해도 과언이 아니다.

2019년에 딥트레이스는 어떤 웹사이트가 딥페이크 포르노를 호스팅하는지 추적했다. 그 결과 딥페이크 포르노물의 94퍼센트인 1만 3254개의 영상이 딥페이크 전용 포르노 웹사이트에 업로드된 것으로 나타났다. 딥페이크 포르노가 ‘특화된 상품’으로 비즈니스화되고 있는 것이다. 일반 포르노 웹사이트에 업로드된 영상은 6퍼센트인 802개로 많지 않았지만, 10개 웹사이트 중 여덟 개가 딥페이크 포르노를 포함하고 있어 딥페이크 포르노를 쉽게 접하는 환경이 만들어졌음을 알 수 있다.
딥페이크 포르노를 호스팅한 웹사이트 유형 ⓒDeeptrace, 2019.
많은 언론이 딥페이크 포르노그래피의 위험성과 불법성에 대한 우려를 제기했고 여러 웹사이트가 딥페이크 관련 정보, 동영상의 게재를 금지했다. 그러나 여전히 일부 사이트는 딥페이크로 제작한 유명인의 포르노 영상을 배포하고 있다. 영상을 단순히 배포하는 것을 넘어 이용자들이 딥페이크 영상물 제작에 관한 정보를 공유하는 경우도 있다. 불법성에 도 불구하고 딥페이크가 유명인 포르노그래피 제작에 활용되는 것을 완전히 막기는 매우 어려운 상황이다.

딥페이크 기술로 연예인이나 유명인이 아닌 일반인의 얼굴을 합성한 포르노 영상을 제작하는 경우도 상당하다. ‘더 팩트(The Fact)’의 보도에 따르면, 상당수의 트위터 계정들이 ‘지인 능욕’, ‘지인 합성’과 같은 닉네임을 걸고 “돈과 사진을 보내주면 포르노에 해당 사진에 나온 인물의 얼굴을 합성해 주겠다”며 영업에 나서고 있다.[3]

우리나라에서는 코로나19 팬데믹 기간 중 학생들이 원격 수업을 진행하는 교사의 모습을 캡처해 딥페이크 앱으로 합성 사진을 만들어 유포하는 사건이 발생해 충격을 준 바 있다. 딥페이크가 불법적인 범죄 행위에 악용되는 사례는 갈수록 늘어나는 중이다.

일반인 대상의 딥페이크 포르노를 합법적으로 사업화하려는 시도도 있었다. 미국의 포르노 제작 기업 ‘노티 아메리카 (Naughty America)’는 2018년 8월, 딥페이크를 이용해 고객이 원하는 이미지를 포르노 영상에 합성해 주는 서비스를 출시했다. 기업이 제공한 포르노 영상 속 인물의 얼굴을 자신과 바꾸는 방식으로, 서비스를 이용하려는 고객은 먼저 노티 아메리카에 딥페이크 합성에 필요한 본인의 얼굴 사진이나 동영상을 충분히 제공해야 한다. 가격은 동영상의 길이에 따라 수백 혹은 수천 달러로 달라진다. 노티 아메리카는 이 사업이 포르노그래피를 개인맞춤화(customize)하는 계기이자 딥페이크를 상업화(monetize)하는 시도라고 설명했지만, 서비스의 합법성 여부는 여전히 논쟁적이다. 고객이 보낸 영상이나 사진 속 인물이 딥페이크 포르노 제작 의뢰인과 동일인인지, 고객이 보내는 사진이나 영상 속 인물이 정말로 포르노 영상 제작에 합의했는지 확인하는 절차가 없기 때문이다. 이 때문에 온라인 매체 ‘더 버지(The Verge)’는 노티 아메리카의 사업은 불법일 가능성이 높다고 분석했다.[4]

딥페이크 포르노그래피의 사례는 딥페이크가 정서적 측면에서 이전과는 다른 독특한 효과를 자아내고 있음을 보여준다. 지인이나 평소에 내가 동경하던 스타가 일어날 수 없는 일의 주체로 등장하거나 포르노 영상처럼 의외의 맥락에서 나타나는 고품질의 영상은 보는 이에게 전과는 다른, 극대화된 정서적 경험을 가져다준다. 내가 모르는 이의 얼굴이 아니라 내게 익숙하거나 평소 좋아했던 얼굴이 등장하는 영상은 해당 영상을 시청하는 개인에게만 의미 있는 특별한 경험으로 존재하기 때문이다. 이 점에서 딥페이크를 통한 영상 조작은 정보의 사실성과 신뢰성의 문제를 넘어 이용 수준에서 나타나는 정서적 효과와 밀접하게 관련됨을 알 수 있다. 이러한 효과의 핵심은 영상 이용자가 조작하려는 대상과 평소에 맺어 왔던 ‘관계성’에 있다. 더 가깝고, 더 잘 알고, 더 좋아하고, 더 동경했던 사람이 영상에 등장할수록 수용자가 경험하는 정서적 효과는 커진다.

이를 고려하면, 영상에 딥페이크를 적용하는 것은 해당 이미지로부터 ‘푼크툼(punctum)’을 만들어 내는 과정이라 할 수 있다. 푼크툼은 프랑스의 기호학자 롤랑 바르트(Roland Barthes)가 제안한 개념이다.[5] 그는 사진이 자아내는 정서적 효과를 ‘스투디움(studium)’과 푼크툼의 두 차원으로 설명하면서, 사진이 전하는 ‘얼굴’의 분위기를 푼크툼의 전형적인 사례로 설명한 바 있다. 스투디움이 사진에서 느낄 수 있는 일반화, 범주화된(coded) “평균적 정서(average effec)t”를 의미한다면 푼크툼은 “나를 찌르는 사건”으로 다가오는 사진의 경험, 즉 개인의 경험이나 무의식과 상호작용하여 특정 계기에 강렬하게 발현되는 사진 경험의 속성을 뜻한다. 바르트는 흑인 가족사진을 보면서 그들이 사회적 신분을 상승시키기 위해 갖춰 입은 복장이나 치장보다 여자의 넓은 허리띠, 뒷짐 진 여자의 팔, 끈 달린 여자의 구두와 같은 세부적인 요소가 자신을 ‘찌르는’ 것들로 다가온다고 이야기한 바 있다. 바르트가 사진을 보며 과거의 흑인 유모를 떠올리는 푼크툼을 경험했기 때문이다.

스투디움
  • 내 지식, 내 문화의 결과로 내가 친근하게 지각하는 영역
  • 평균적 정서(average affect)
  • 지식, 시민성, 예의 등 교육의 산물
  • 고전적인 정보체를 지시
  • 의미화(to signify), 코드화(coded)
  • 욕망의 자극(to waken desire)

푼크툼
  • 스투디움을 깨버리거나 종결시키는 영역
  • 나를 찌르는 사건
  • 세부 사항, 부분 대상
  • 비자발적인 깨달음
  • 사실 이후에 드러나거나 추가되는 무엇
  • 분위기
  • 분석 불가능성

사진 속 얼굴의 분위기(air)는 도식적이지도 지적이지도 않으며 분석도 불가능한 푼크툼을 만들어 낸다. 이를 보는 것, 즉 사진 속 얼굴을 본다는 것은 곧 사진 속 인물의 정신과 혼(animula)을 경험하는 것이며, 스투디움을 확인하는 수준을 넘어 스스로 푼크툼을 발견해 새로운 의미를 파악하는 계기가 된다. 푼크툼은 사진을 보는 이가 삶의 경험을 동원하게끔 하면서 스스로 사진의 의미를 구성해 가도록 한다. 바르트에 따르면, 사진의 진정한 본질은 바로 여기에 있다.

딥페이크가 등장인물의 얼굴을 내게 친숙한 누군가의 얼굴로 바꾼다는 사실은 보는 사람을 ‘찌르는’ 푼크툼의 경험을 통제하고 전복하는 것이다. 누군가와 오랫동안 맺어 온 관계와 역사 덕분에 이들이 등장하는 영상은 원본 영상과 달리 이용자 개인의 특별한 기억을 불러 새로운 의미를 획득하게 된다. 설령 조작됐더라도 말이다. 이 과정은 사실을 왜곡하거나 정치적 인물을 풍자하는 것과는 거리가 멀다. 영상이 기대하는 효과가 사실의 차원보다는 개인의 정서적 경험을 극대화하는 차원에 집중되기 때문이다.

딥페이크가 허위정보 조작이나 포르노그래피 제작뿐 아니라 영상 속 인물을 연예인이나 지인의 얼굴로 바꿔치기하는 ‘놀이’에 이용되는 것 또한 이러한 이유에서일 것이다. 유튜브 검색창에 ‘Deepfake’라는 단어를 넣으면 매우 많은 영상이 검색되는데, 이 중 상당한 비중을 차지하는 것이 바로 미국의 유명 영화배우 니콜라스 케이지(Nicholas Cage)의 얼굴을 온갖 사람의 얼굴과 바꿔치기한 영상이다. 이들 영상에서 합성의 자연스러움이나 영상의 사실성은 전혀 중요하지 않다. 이 영상은 2000년대 말부터 케이지의 얼굴 이미지를 온갖 이미지와 합성하던 ‘밈(meme)’을 잇는 놀이일 뿐, 그 이상의 의미는 전혀 가지지 않기 때문이다. 〈Twice and Red Velvet in Gang Fight – deepfake〉라는 제목의 영상[6]처럼 좋아하는 연예인의 팬아트(FanArt)로서 딥페이크 영상을 만들거나 유튜브에서 유행했던 ‘다메다메’ 밈[7]과 같은 사례도 마찬가지다. 이들 사례는 기술 가내화로 딥페이크 기술을 누구나 활용할 수 있게 되면서, 딥페이크가 이전 영상이나 조작의 대상이 되는 인물과의 관계성을 토대로 새로운 정서적 효과를 만들어 내는 도구가 되고 있음을 보여 준다.
영화 〈써니〉에 걸그룹 얼굴을 합성한 영상 ⓒHallyBytes
딥페이크 영상이 자아내는 정서적 효과는 원본 이미지가 의도했던 정서를 전복하거나 변형한다. 이 점에서 딥페이크는 개인적 수준에서는 정서의 극대화일지 모르나 사회적 수준에서는 특정 이미지가 의도하는 정서를 개별적으로 날조하는 기술에 가깝다. 앞서 살펴본 정치적 인물을 바꿔치기하는 일이 ‘정보의 조작’과 관련된다면, 연예인의 얼굴을 합성하는 ‘놀이’나 포르노그래피는 이미지가 전하는 ‘정서의 조작’과 연결되는 셈이다.
역대 미국 대통령 이미지를 이용해 만든 다메다메 영상 ⓒEnglish Rabisco


감춰진 얼굴이 묻다


지금까지 살펴본 것처럼 딥페이크는 허위정보를 유포하거나 스타의 얼굴을 포르노에 합성해 유통하는 등 부정적인 사례에 주로 활용됐다. 이들 사례에서 확인할 수 있는 공통점은 딥페이크가 환영적 이미지의 생산을 목적으로 하지 않는다는 점이다. 그림과 사진, 영화의 이미지 조작이 더 사실적으로 대상을 재현하거나, 실재하지 않는 것을 사실적으로 전달함으로써 이미지를 더 나아 보이게 만드는 기술이었다면, 딥페이크는 환영적 이미지의 생산을 목적으로 하지 않는다는 점이 특징이다. 정보나 정서를 조작하기 위한 딥페이크의 이미지 조작은 사실성이나 창의력의 증진을 목표로 하지 않는다. 딥페이크가 만들어 내는 이미지가 특별히 매혹적이라서 새로운 스펙터클을 경험하게 하는 것도 아니다. 그런데 왜 딥페이크는 사회적으로 논란이 되었을까?

그 이유는 딥페이크 기술이 정체성의 도용(identity theft)이라는 새로운 양상을 통해 사실을 왜곡하고 정서를 조작하는 효과를 자아내기 때문이다. 딥페이크는 허구의 세계를 창조하기보다는 실제 세계(actuality)를 조작하는 경우, 즉 실재하는 사람과 행동, 장소, 사건의 의미가 매우 중요한 경우들에 주로 사용된다. 이때 핵심은 사실적 영상에 등장하는 ‘인물’의 조작에 있다. 버즈피드에서 오바마의 얼굴을 한 조던 필이 “이 동영상에서 오바마가 하는 말을 믿지 마라”고 이야기했던 것처럼 딥페이크는 특정 주체가 전하는 정보나 행위를 진실로 받아들일 것인가의 문제에 집중된다. 조작된 포르노그래피에서도 효과의 핵심은 내가 알던 인물이 특정 행위를 실제로 수행하는 것처럼 느껴지는 데 있다. 즉, 이미지가 담고 있는 내용이 아니라 이미지 속 화자 또는 수행자의 정체를 바꿈으로써 메시지의 의미와 그 효과를 변화시키는 것이 딥페이크 조작 방식이며, 이 점이 기존의 이미지 조작 기술들과 딥페이크가 문화적 차이를 드러내는 지점이다.

나아가 이러한 조작 방식이 정체가 분명한 인물에 대한 ‘폭력’으로 작동한다는 점에 주목할 수 있다. 원본 이미지의 인물과 조작 이미지의 인물 둘 모두에 대한, 대응하기가 매우 어려운 방식의 폭력 말이다. 오바마나 젤렌스키 대통령처럼 쉽게 알아볼 수 있는 사람이라면 대응도 신속하게 이뤄지겠지만, 평범한 사람들의 얼굴이 합성되었을 때 이 문제는 더욱 커진다. 딥페이크 영상이 원본에 등장하는 인물과 조작된 영상에 등장하는 인물 누구에게도 얼굴 합성에 대한 동의를 얻지 않은 채 만들어지기 때문이다. 이로 인해 딥페이크에 의해 정체성이 도용됐음을 밝히고 드러내기가 매우 어렵다. 사전 정보가 없으면 사람들은 누가 진짜 정보의 화자인지를 알 수 없기에 영상이 조작임을 ‘입증’하기 위해서는 영상 속 인물이 해당 행위를 한 적이 없고 대신 그 행위를 한 당사자가 따로 존재함을 이중으로 밝혀내야 한다. 사실의 입증을 위해 검증돼야 하는 당사자가 언제나 쌍으로 존재하게 되는 것이다.

더욱 큰 문제는 이 한 쌍의 인물 중 어느 누구도 명의 도용이나 허위정보의 유포, 사실 왜곡, 정서의 조작과 관련한 의도를 갖고 있지 않았다는 점이다. 영상 제작자 또한 정체성 도용이나 명의 사칭의 당사자가 아니기에, 직접적 책임 여부에서 비껴갈 가능성이 크다. 이처럼 딥페이크가 메시지가 아닌 메신저의 조작, 즉 정체성 도용과 관련된다는 점은 이중의 피해자는 만드는 반면, 직접적인 가해자는 오히려 그 책임으로부터 사라지게 만드는 독특한 결과를 낳는다.

이로 인해 딥페이크 영상을 통해 누군가의 명예가 훼손됐을 때 피해자를 처벌하거나 훼손된 명예를 회복하기가 매우 어렵다. 동영상 속의 행동이나 발언을 실제로 한 원본 동영상의 인물을 특정하지 못하는 경우가 더 많기 때문이다. ‘나’의 얼굴이 딥페이크로 특정 영상에 합성됐을 때, ‘나’는 특정 행동을 하지 않았다고 주장하고 원본 영상의 인물은 본인이 그 행동을 했다고 실토해야 하는데, 원본 영상의 인물을 찾아내지 못할 경우, 딥페이크 영상 속의 행동을 ‘내’가 하지 않았다는 것을 입증하기란 매우 어렵다. 이런 문제는 포르노 영상에서 더 심각하게 나타날 수 있다. 예를 들어 본인의 얼굴이 일반인 불법 촬영 포르노, 이른바 ‘몰카’ 영상에 합성됐을 경우 명예는 심각하게 훼손되지만, 명예를 회복하기 위해 원본 영상의 주인공을 찾는 일, 원본 영상의 주인공에게 불법 촬영 포르노의 주인공이 본인이라고 명백하게 이야기해 달라고 하는 것 모두 사실상 불가능에 가깝다. 이 문제는 데이터베이스에 존재하는 얼굴의 수가 증가할수록 더욱 심화할 것이다. 이론적으로 ‘모든’ 사람이 특정 말이나 행동을 한 것처럼 조작할 수 있기 때문이다. 조작 대상이 유명인이 아니라 신뢰와 호감을 주는 다수의 불특정인으로 확대될 경우 문제는 더욱 커진다. 이는 결과적으로 누가 전달하는 정보를 믿고 믿지 않을 것인가와 관련된 사회적 혼란을 야기할 것이다.

요컨대, 허위정보나 포르노그래피처럼 정보 또는 정서의 조작과 관련하여 활용될 때, 딥페이크는 ‘드러난 얼굴’이 입은 피해를 회복하기 위해 ‘감춰진 얼굴’의 정체를 아울러 밝혀야만 하는 난제를 마주하게 된다. 대부분은 ‘드러난 얼굴’이 입은 피해에 집중하지만, ‘감춰진 얼굴’ 또한 몸 또는 특정한 행위를 도용당했다는 점에서 만만찮은 폭력을 당한 것이라 할 수 있다. 딥페이크가 부정적 기술이라는 오명을 극복하기 위해서는 이와 같은 ‘이중의 폭력’에 대응하고 이를 방지할 장치가 필수적이다.
[1]
Nina Schick., 《Deepfakes: The Coming Infocalypse》, Twelve Books, 2020.
[2]
Deeptrace, 〈The state of deepfakes: landscape, threats, and impact〉, 2019.
[3]
더팩트 연예기획팀, 〈[딥페이크 포르노를 아시나요②] ‘연예인은 공공재’라던 당신과의 대화 txt.〉, The Fact, 2018. 11. 4.
[4]
JAMES VINCENT, 〈A porn company promises to insert customers into scenes using deepfakes〉, The Verge, 2018. 8. 21.
[5]
Roland Barthes, (Richard Howard trans.), 《Camera Lucida: Reflections on photography》, Hill & Wang, 1981.
[6]
이 영상은 2011년에 개봉된 영화 〈써니〉 중 여중생 10여 명이 두 패로 나뉘어 말싸움을 벌이는 장면을 딥페이크로 수정한 것이다. 제작자는 두 학생 패거리의 얼굴에 여자 아이돌인 레드벨벳 멤버의 얼굴과 트와이스 멤버의 얼굴을 각각 합성했다.
[7]
‘도비룰스(Dobbysrules)’라는 서구권 무명 유튜버가 일본 게임 〈용과 같이〉에 등장하는 곡 〈바보같이〉를 진지하게 립싱크한 영상이 인기를 끈 후, 네티즌들이 이를 딥페이크 소스로 활용하여 마치 다른 사람이 노래를 부르는 것처럼 보이는 영상을 만드는 것이 전 세계적으로 유행했다. 2019년 열린 세계적 인공지능 학술대회 ‘NeurIPS’에서 발표된 논문을 바탕으로, 한 단계씩 따라만 하면 쉽게 이 딥페이크 영상을 만들 수 있었다. 이 방법이 온라인에 퍼지면서 ‘다메다메’ 밈 열풍이 확산됐다. 역대 미국 대통령 버전, 역대 한국 대통령 버전, 스포츠 스타 버전 등 다양한 패러디가 딥페이크를 활용해 만들어졌다. ‘Dame Dane’ 또는 ‘Baka Mitai’ 밈으로도 불린다. 도비룰스의 영상은 다음 url을 참고. https://youtu.be/dtL43unpw4Y
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close