배신의 사과

8월 17일 - 데일리 북저널리즘

애플이 미국 아이폰 사용자의 사진과 문자 메시지를 감시한다. 프라이버시 침해 등 부작용을 둘러싼 논란이 커지고 있다.

©일러스트: 김지연/북저널리즘
“Privacy. That's iPhone(개인 정보 보호. 당연히 아이폰).” 애플이 2019년부터 현재까지 사용 중인 광고 캠페인 문구입니다. 당신이 개인 정보나 사생활을 중시한다면 어떤 휴대폰을 쓰는지가 아주 중요하고 결국 그 답은 아이폰이라는 의미입니다. 세련된 디자인과 카메라 성능, 다른 기기와의 호환성뿐만 아니라 강력한 프라이버시 보호 기능은 아이폰 최대 강점 중 하나로 꼽힙니다. 실제로 미국 사용자들이 아이폰에 가장 만족하는 점이기도 하고요.

개인 정보 보호는 애플이 고수해온 핵심 가치 중 하나입니다. 사생활을 보장받아야 할 권리를 “누구나 누려야 할 기본적 인권”이라고 정의하고 개인 데이터의 수집과 사용, 공유를 엄격하게 통제·관리해 왔습니다. 개별 앱이나 웹사이트가 사용자 데이터에 접근하면 팝업을 띄워 동의를 구하는 ‘앱 추적 투명성’ 기능이 대표적입니다. 테러범의 아이폰 잠금장치를 풀어달라는 FBI 요청을 거부하고 소송전을 치르기도 했는데, 중대 범죄 수사에 비협조한다는 비판에도 브랜드 충성도는 더욱 높아졌습니다.

지난 5일 애플이 발표한 새 정책에 사용자 반발이 클 수밖에 없는 이유입니다. 애플은 올해 연말 iOS 15 정식 업데이트가 예정돼 있습니다. 이때 자체 개발한 아동 성 착취물(CSAM·Child Sexual Abuse Material) 감지 시스템을 도입한다는 방침인데요, 미국 내 사용자가 아이클라우드(iCloud)에 올리는 사진을 자동으로 검열하는 방식이라 사생활 침해 논란이 불거졌습니다. 개인 정보 보호에 누구보다 진심이었던 애플은 왜 이 같은 정책을 내놨을까요?
 

논란의 시작, 아동 성 착취물(CSAM)

애플의 아동 성 착취물(CSAM) 감지 방식 ©Apple
새로운 애플 아동 보호 정책의 핵심은 크게 두 가지로 요약됩니다. CSAM 사진 감지와 아이메시지(iMessage) 검열입니다. 먼저, CSAM 감지에는 뉴럴 해시(NeuralHash)라는 기술이 사용되는데요, 방식은 이렇습니다. 미국 국립 실종 학대 아동 방지 센터(NCMEC·National Center for Missing & Exploited Children) 데이터베이스(DB·Database)에 보관된 CSAM 사진들을 정해진 방식에 따라 숫자로 암호화시켜 해시값을 매깁니다. 이후 사용자가 클라우드에 사진을 올리면 같은 방식으로 모든 사진에 해시값을 매긴 뒤, 동일한 해시값을 지닌 사진이 있는지 찾아냅니다. #애플 기술 보고서

다시 말해 CSAM으로 분류된 사진과 동일한 해시값의 사진이 발견되면 아동 성 착취물로 간주하는 겁니다. CSAM 해시값이 발견되면 소프트웨어가 이것끼리 묶어 다시 암호화한 후 아이클라우드에 업로드합니다. 그러고 나면 애플이 정한 기준을 넘기는지 검사를 진행하고, 만약 이 기준을 넘긴 의심 사례가 일정 개수 이상 쌓이면 애플이 실제 사진을 확인합니다. CSAM이 맞으면 즉각 NCMEC에 보고하고, 이후 사법 기관이 나서 처리하는 식입니다.

아이메시지 검열에도 CSAM 감지 기술을 사용하는데, 만약 13세 미만 아동이 선정적이거나 폭력적인 이른바 ‘19금’ 사진을 문자로 받거나 보낼 경우, 사진은 곧바로 블러(blur) 처리돼 뿌옇게 가려집니다. 이를 무시하고 사진 보기를 선택하면 경고 메시지가 뜨죠. 그런데도 아동이 계속 보려 하면 끝으로 “It’s your choice, but your parents want to know you’re safe.”라는 경고문을 띄웁니다. 부모에게 CASM 접근 사실, 그리고 해당 사진을 공유하겠다는 뜻이죠.
 

아동 안전 VS 프라이버시


해당 정책 발표 이후 찬반 여론이 팽팽하게 맞서고 있습니다. 우선 미국 내 아동 성 착취 문제의 심각성을 주장해오던 아동 단체 등에서는 애플의 새 정책이 아동 성 착취 및 CSAM 확산을 막을 것으로 기대합니다. NCMEC에 따르면 지난해 미국 내에서는 1만 7000건 이상의 아동 성매매 관련 신고가 있었습니다. 또 2만 6500건의 가출 신고 중 여섯 명 중 한 명꼴로 성매매 피해를 봤을 것으로 추정됩니다. 이와 관련해 NCMEC 대표 존 클라크는 “애플의 아동 보호 확대가 게임 체인저가 될 것”이라고 말했습니다.

CSAM의 생산 및 유포를 예방하고 적발 시 강력히 처벌해야 함에는 동의하지만, 애플의 이번 정책은 실망스럽다는 반응도 많습니다. 방식이나 보안성은 차치하고 결과적으로 사용자 데이터를 제삼자가 확인할 수 있는 길이 열리는 것과 다름없기 때문입니다. 그동안 애플이 고수해온 프라이버시 우선주의가 깨지는 것 아니냐는 의심까지 나오는데요, 이른바 백도어(back door) 논란입니다. 백도어란 우회 통로로 특정 데이터나 시스템에 접근하도록 하는 프로그램을 말합니다. 지금이야 CSAM으로 제한적이지만 언제든 모든 유형의 콘텐츠를 감지해낼 것이라는 우려입니다. #정책 반대 청원

일각에서는 이 기술이 여러 형태로 악용될 수 있다고 경고합니다. 가령 권위주의 정권에서는 이 기술을 반체제 인사 감시에 이용할 수 있고, 성 소수자 등 소수 집단 탄압에도 쓸 수 있겠죠. 존스 홉킨스 대학교 암호학과 매튜 그린 교수는 애플 정책 발표 이후 트위터에 “중국 정부가 그 기술로 무엇을 할지 궁금하다”고 남겼습니다. 미국 국가안보국(NSA)의 개인 정보 수집 실태를 폭로했던 에드워드 스노든 전 요원도 “오늘 CSAM을 스캔한다면 내일은 무엇이든 스캔할 수 있다”며 정책 반대 청원에 서명했습니다.
 

애플의 변

크레이그 페더리기 애플 소프트웨어 엔지니어링 수석부사장 인터뷰 ©Wall Street Journal
이렇듯 반발이 일자 애플은 홈페이지에 FAQ 파일을 올리는 등 적극적인 해명에 나섰지만, 논란은 쉽게 수그러들지 않고 있습니다. 결국 팀 쿡의 오른팔이라 불리는 크레이그 페더리기 애플 소프트웨어 엔지니어링 수석부사장이 진화에 나섰습니다. 지난 13일 《월스트리트저널》과의 인터뷰에서 뉴럴 해시 기술은 클라우드에 저장된 사진에 한해서만 적용되며, 사용자들의 일반 사진을 검열하는 것은 결코 일어날 수 없는 일이라고 못 박았습니다.

그는 현재 다른 몇몇 클라우드 서비스(구글, 마이크로소프트)의 경우 저장된 모든 사진을 하나하나 스캔하는 방식으로 감지하고 있는데, 애플은 이러한 방식에 동의하지 않는다고 밝혔습니다. 개인의 사생활이 담긴 사진을 직접 보지 않고도 유해 이미지를 찾아낸다는 점에서 기존의 그 어떤 방식보다 개인 정보를 보호할 수 있다는 논리였죠. 또 이러한 정책을 도입하는 이유와 관련해 일종의 압박이 있었냐는 질문에는 전혀 아니며, 애플의 자체적인 기술 개발이었다고 일축했습니다.

앞서 지난 9일에는 외부에서 CSAM이 아닌 다른 콘텐츠에 대한 감시가 요구된다면 무조건 거부할 것이라고 공식 입장을 내기도 했습니다. 뉴럴 해시 기술이 악용되는 것에 대한 우려를 불식시키려는 의도였죠. 판독 기준은 오직 NCMEC가 식별한 CSAM이고, 이외에는 어떠한 사진 판독에도 사용될 수 없도록 안전장치를 갖추고 있다는 게 애플의 설명입니다. 사람들을 감시하거나 해킹하기 위한 백도어가 결코 아니라는 거죠.
 

누구를 위한 개인 정보인가

1984년 애플의 매킨토시 광고 ©Robert Cole
크레이그 페더리기와 인터뷰를 진행한 저널리스트 조안나 스턴은 한 손에 아이폰을 들고 물었습니다. “이 휴대폰은 누가 소유하고 있습니까?” 채 답을 듣기도 전에 스턴은 1984년 슈퍼볼에서 공개한 애플의 매킨토시 광고를 소환합니다. 빅 브라더[1]로 묘사된 IBM을 파괴한다는 내용으로 개인의 자유, 다양성, 프라이버시라는 애플의 핵심 가치를 선언했다고 평가받는 광고인데요, 이번 정책 이후 애플이 우리 주머니에 손을 집어넣어 개인 휴대폰을 소유할 수 있음을 지적한 셈입니다.

애플발 개인 정보 논란은 결국 “개인 정보의 주인은 누구인가?”, “개인 정보 보호와 공공을 위한 데이터 활용 중 무엇이 우선인가?”의 답을 찾는 과정이 될 것으로 보입니다. 미국의 경우 우리나라의 개인정보 보호법이나 유럽 연합(EU)의 GDPR[2]같은 연방 차원의 일반법이 없어 찬반 여론이 합의점에 이르기가 더 어려울지도 모르겠습니다. 연락처, 문자, 통화 내역, 위치 정보, 사진, 영상 등 수많은 개인 정보의 활용을 어느 선까지 허용할 것인지 이제 각자 알아서 판단해야 하는 겁니다. 가령 아이클라우드 동기화를 막아두는 것처럼 말이죠.

지난 5월 《뉴욕타임스》는 애플이 대중국 사업을 유지하기 위해 사용자 정보를 유출하고 검열을 허용한다고 지적했습니다. 새 정책 이후에도 휴대폰의 주인은 사용자라는 애플의 확언을 무조건적으로 수용하기 어려운 이유입니다. 《빅데이터, 빅퀘스천》 저자 유강하 교수는 프라이버시 침해 문제에 대해 이렇게 꼬집습니다. “빅데이터는 사회적 기여라는 수식어를 동반하곤 하지만 이 과정에서 인간은 소외되고 개인 정보는 도구화된다. 여기서 사회는 공공의 이익이 아니라 기업의 이익을 지칭하는 경우가 많다.”
오늘 데일리 북저널리즘에서는 애플의 새로운 프라이버시 정책을 살펴봤습니다. 읽으시면서 들었던 생각을 댓글로 남겨 주세요. 서로 다른 의견을 말하고 토론하면서 사고의 폭을 확장해 가면 좋겠습니다. 여러분의 댓글이 북저널리즘의 콘텐츠를 완성합니다.

오늘 데일리 북저널리즘은 《빅데이터, 빅퀘스천》, 《구글의 지구》, 어떤 건 혼자만 알아야 하니까》와 함께 읽으시면 좋습니다.
[1]
개인의 정보를 독점해 사회를 통제하는 권력이나 그러한 사회 체계를 의미한다. 조지 오웰의 소설《1984》에 나오는 허구의 독재자에서 유래됐다.
[2]
GDPR(General Data Protection Regulation)은 유럽 연합(EU) 회원국에 일괄적으로 적용되는 개인정보 보호법으로, 2016년 제정되어 2018년 시행되었다. 정보주체의 권리와 기업의 책임성 강화 등을 주요 내용으로 한다. GDPR은 EU 내 사업장을 운영하는 기업뿐만 아니라 전자상거래 등을 통해 해외에서 EU 주민의 개인정보를 처리하는 기업에도 적용될 수 있다. GDPR은 위반 시 과징금 부과를 규정하고 있으며, 최대 과징금은 일반적 위반 사항인 경우 전 세계 매출액의 2% 혹은 1천만 유로(약 125억원) 중 높은 금액이며, 중요한 위반 사항인 경우 전 세계 매출액의 4% 혹은 2천만 유로(약 250억원) 중 높은 금액이다.
개인정보보호위원회
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close