새로운 애플 아동 보호 정책의 핵심은 크게 두 가지로 요약됩니다. CSAM 사진 감지와 아이메시지(iMessage) 검열입니다. 먼저, CSAM 감지에는 뉴럴 해시(NeuralHash)라는 기술이 사용되는데요, 방식은 이렇습니다. 미국 국립 실종 학대 아동 방지 센터(NCMEC·National Center for Missing & Exploited Children) 데이터베이스(DB·Database)에 보관된 CSAM 사진들을 정해진 방식에 따라 숫자로 암호화시켜 해시값을 매깁니다. 이후 사용자가 클라우드에 사진을 올리면 같은 방식으로 모든 사진에 해시값을 매긴 뒤, 동일한 해시값을 지닌 사진이 있는지 찾아냅니다.
#애플 기술 보고서
다시 말해 CSAM으로 분류된 사진과 동일한 해시값의 사진이 발견되면 아동 성 착취물로 간주하는 겁니다. CSAM 해시값이 발견되면 소프트웨어가 이것끼리 묶어 다시 암호화한 후 아이클라우드에 업로드합니다. 그러고 나면 애플이 정한 기준을 넘기는지 검사를 진행하고, 만약 이 기준을 넘긴 의심 사례가 일정 개수 이상 쌓이면 애플이 실제 사진을 확인합니다. CSAM이 맞으면 즉각 NCMEC에 보고하고, 이후 사법 기관이 나서 처리하는 식입니다.
아이메시지 검열에도 CSAM 감지 기술을 사용하는데, 만약 13세 미만 아동이 선정적이거나 폭력적인 이른바 ‘19금’ 사진을 문자로 받거나 보낼 경우, 사진은 곧바로 블러(blur) 처리돼 뿌옇게 가려집니다. 이를 무시하고 사진 보기를 선택하면 경고 메시지가 뜨죠. 그런데도 아동이 계속 보려 하면 끝으로 “It’s your choice, but your parents want to know you’re safe.”라는 경고문을 띄웁니다. 부모에게 CASM 접근 사실, 그리고 해당 사진을 공유하겠다는 뜻이죠.
아동 안전 VS 프라이버시
해당 정책 발표 이후 찬반 여론이 팽팽하게 맞서고 있습니다. 우선 미국 내 아동 성 착취 문제의 심각성을 주장해오던 아동 단체 등에서는 애플의 새 정책이 아동 성 착취 및 CSAM 확산을 막을 것으로 기대합니다.
NCMEC에 따르면 지난해 미국 내에서는 1만 7000건 이상의 아동 성매매 관련 신고가 있었습니다. 또 2만 6500건의 가출 신고 중 여섯 명 중 한 명꼴로 성매매 피해를 봤을 것으로 추정됩니다. 이와 관련해 NCMEC 대표 존 클라크는 “애플의 아동 보호 확대가 게임 체인저가 될 것”이라고
말했습니다.
CSAM의 생산 및 유포를 예방하고 적발 시 강력히 처벌해야 함에는 동의하지만, 애플의 이번 정책은 실망스럽다는 반응도 많습니다. 방식이나 보안성은 차치하고 결과적으로 사용자 데이터를 제삼자가 확인할 수 있는 길이 열리는 것과 다름없기 때문입니다. 그동안 애플이 고수해온 프라이버시 우선주의가 깨지는 것 아니냐는 의심까지 나오는데요, 이른바 백도어(back door) 논란입니다. 백도어란 우회 통로로 특정 데이터나 시스템에 접근하도록 하는 프로그램을 말합니다. 지금이야 CSAM으로 제한적이지만 언제든 모든 유형의 콘텐츠를 감지해낼 것이라는 우려입니다.
#정책 반대 청원
일각에서는 이 기술이 여러 형태로 악용될 수 있다고 경고합니다. 가령 권위주의 정권에서는 이 기술을 반체제 인사 감시에 이용할 수 있고, 성 소수자 등 소수 집단 탄압에도 쓸 수 있겠죠. 존스 홉킨스 대학교 암호학과 매튜 그린 교수는 애플 정책 발표 이후 트위터에 “중국 정부가 그 기술로 무엇을 할지 궁금하다”고
남겼습니다. 미국 국가안보국(NSA)의 개인 정보 수집 실태를 폭로했던 에드워드 스노든 전 요원도 “오늘 CSAM을 스캔한다면 내일은 무엇이든 스캔할 수 있다”며 정책 반대 청원에
서명했습니다.
애플의 변