나노 바나나 프로가 대단한 이유
이 이미지는 ‘나노 바나나 프로’로 생성한 것입니다. 구글이 일반 사용자를 위해 공개한 최신 이미지 생성 모델입니다. 부산에서 오사카로 가는 여객선 갑판의 모습이 담긴 사진을 생성해 달라고 했습니다. 대단한 프롬프트 기술 같은 건 없었습니다. 그런데 꽤나 그럴듯합니다. 테크 전문 매체 〈더버지〉는 나노 바나나 프로가 생성한 이미지들이 스마트폰 카메라로 촬영한 사진의 특징을 고스란히 갖고 있기 때문이라고
분석합니다.
스마트폰은 일반적인 디지털카메라에 비해 렌즈와 이미지 센서가 작습니다. 그래서 올트먼이 이야기했던 것 같은 ‘조작’을 거칩니다. 사진의 품질이 좋아 보이도록 보정하는 겁니다. 그 결과 밝고 균일한 노출, 넓은 피사계 심도, 약간의 노이즈로 인해 거칠고 바삭한 느낌 등의 특징을 보입니다. 그리고 이러한 특징들은 지금까지 ‘진짜 사진’이라는 신호로 작동했고요. 그런데 요즘 나노 바나나 프로가 생성하는 사진들이 딱 이렇습니다.
뿐만 아닙니다. 구글은 이번 모델에 구글 검색 엔진을 연결하여 실시간으로 정보를 가져오는 기능을 추가했다고 밝혔습니다. 그 결과 사용자가 구체적으로 지시하지 않아도 맥락에 맞는 디테일을 자율적으로 추가할 수 있는 것으로 보입니다. 예를 들면 요즘 날씨에 맞는 사람들의 옷차림이나 갑판 너머로 보이는 풍경, 조금씩 녹슨 기물들 같은 것 말입니다.
이제 AI가 만든 이미지를 명확하게 구분할 수 있었던 몇 가지 특징들은 완전히 사라졌습니다. 여섯 개의 손가락이나 일그러진 문자 같은 것 말입니다. 대신 이미지가 진짜라고 인식하게 만드는 신호는 정교하게 추가되었습니다. 이 정도면 로니 챙도 속아 넘어갈 겁니다. 올트먼에게 이런 이미지들은 ‘진짜’에 포섭될 수 있는 범주에 속할지도 모르겠습니다. 하지만, 저에게는 보이는 대로 믿어서는 안 되는 시대가 왔다는 신호로 읽힙니다.
진짜를 진짜가 증명했다는 증명
다시 사진의 정체성으로 돌아가 보죠. 사진은 현실이 아니지만, 현실의 기록이라는 속성을 분명 갖고 있습니다. 사진의 시작점이 피사체가 내뿜는 한순간의 빛이기 때문입니다. 그 빛이 필름이나 이미지 센서에 닿는 순간이 사진이 찍히는 순간입니다. 아무리 왜곡되고 보정되었다 하더라도, 그것은 사진이 찍힌 이후의 처리 과정입니다. 그래서 인간은 사진의 객관성을 때로는 지나치게 신뢰하는 경향이 있습니다. 예를 들어, 사진은 여러 상황에서 ‘증거’로 사용되죠. 개인 간의 다툼은 물론, 법정에서도 효력을 갖습니다.
반면, 생성형 AI는 저장되어 있던 데이터로부터 이미지를 만들어 냅니다. 기록이 아니라, 지식을 기반으로 한 창작입니다. 사진보다는 회화에 가깝습니다. 그러니 올트먼의 주장에 저는 동의할 수 없습니다. 사실에 어느 정도의 ‘처리’를 용인할 것인가의 논의와 창작물까지 사실로 보자는 논의는 전혀 다릅니다. 인간은 시각을 통해 사진과 회화, 즉 사실과 창작을 구분하는 능력을 지녔습니다. 문제는 기술의 급격한 발전으로 인해 그 능력을 잃어버렸다는 겁니다. 이제 인간은 사실의 기록과 기계의 창작을 구분할 수 없습니다.
다만, 이 현상이 사실과 거짓 사이의 경계를 흐려 전 세계를 디스토피아적인 미래로 몰고 갈 것이라고 단정 지을 수는 없습니다. 인류는 어떻게든 기록과 창작을 구분하는 법을 다시 배우게 될 겁니다. 눈이 더 좋아질 리는 없습니다. 생물의 진화는 그렇게 빠르게 일어나지 않으니까요. 하지만 뭔가 다른 방법을 배울 겁니다. 여섯 개의 손가락을 찾아낸 것처럼 말이죠. 그런 방법조차 없다면 만들 겁니다. 아니, 실은 이미 만들었습니다.
C2PA(Content Credentials) 표준이라는 것입니다.
어도비와 오픈AI, 마이크로소프트 등 업계의 주요 기업부터 소니나 라이카와 같은 카메라 제조 업체, 《뉴욕타임스》와 같은 언론사 등이 참여하고 있습니다. 보이지 않는 디지털 서명을 암호화하여 이미지에 삽입하는 방식입니다. 카메라로 사진을 찍으면 자동으로 서명이 생성되어 콘텐츠에 포함됩니다. 이걸 해독하면, 현실 세계를 촬영한 이미지인지 쉽게 구분할 수 있습니다.
다만, 이 방법을 본격적으로 적용하기까지는 시간이 좀 걸릴 것으로 보입니다. 예를 들어 페이스북이나 인스타그램과 같은 소셜 미디어 플랫폼에서는 C2PA 마커를 확인해 AI 이미지 여부를 가리는 데에 참고합니다. 하지만, 이 정보를 일반 사용자들에게 공개하지는 않습니다. 대신 명백한 ‘AI 제작’ 콘텐츠에 라벨을 다는 방식을 선택했습니다.
현명한 선택입니다. 아직 대다수의 사용자는 사진처럼 보이는 이미지를 적극적으로 의심하는 단계에 진입하지 않았습니다. 언젠가는 그런 날이 오겠지만, 초기엔 꽤나 피곤한 일이 될 겁니다. 사용자를 붙잡아 둬야 돈을 버는 소셜 미디어가 사진이 진짜인지를 이야기하기 시작한다면, 매출에 도움이 되지는 않을 겁니다. 언론사도 마찬가지입니다. 지면이든 온라인이든 거짓이 실릴 리가 없어야 하는 공간입니다. 그런데 갑자기 ‘진짜’라는 딱지가 등장하게 되면 오히려 신뢰도 하락을 부추길 수 있습니다.
하지만 우리는 C2PA와 비슷한 시스템에 이미 익숙합니다. X.com이나 인스타그램 등에서 발견하게 되는 ‘파란 딱지’ 말입니다. 이 계정이 진짜라는 플랫폼의 보증이죠. 이미지도 비슷한 시스템을 도입하게 될 가능성이 있습니다. 가짜를 진짜로 속이는 일이 자꾸만 발생하고, 결과적으로 피해가 이어진다면 우리는 보증해 줄 시스템을 찾게 될 겁니다. 그리고 익숙해지겠죠.
유튜브 키즈 채널에서 쉽게 돈 버는 방법
기계가 만들어 낸 이미지가 사실과 거짓의 경계를 허무는 데 그친다면 해결할 방법이 있습니다. 그런데 AI 슬롭 중에는 현실과는 동떨어진 현란한 이미지를 앞세운 것들도 꽤 많습니다. 대개 10초 내외의 짧은 길이로, 전후 맥락 없이 도파민만 자극하곤 합니다. 이런 이미지가 너무 쉽게 생성되어 넘쳐나는 현상을 두고도 우려가 나옵니다.