알고리즘의 블랙박스 그 뉴스는 왜, 어떻게 우리에게 추천되었나

미리 보기
저자 오세욱
에디터 이현구
발행일 2021.11.26
리딩타임 79분
가격
전자책 8,400원
종이책 12,000원 서점 구매
키워드
지금, 깊이 읽어야 하는 이유
“아 진짜 이것만 보고 자야지...”

우리는 왜 알고리즘에서 쉽게 벗어날 수 없을까?
모든 걸 기술로 자동화하면 정말 아무 문제가 없을까?


SNS 없이 하루를 버틸 수 있는 사람이 있을까? 미디어는 이미 우리 일상을 잠식한 것도 모자라 현실과 다를 바 없는 가치를 지닌 가상 공간이다. 혼밥에 필수인 유튜브, 자기 전에 왠지 눈에 들어와 클릭하게 되는 뉴스 기사, 이쯤 되면 하나 올려야지 싶은 SNS. 알고리즘은 이 수많은 매개를 자동화 해주는 끝판왕이자 흑막이다. 중학교 때 싸워 서먹해진 친구도, 잠깐 관심이 생겨 눌러본 콘텐츠도, 알고리즘에겐 모두 데이터가 된다. 알고리즘은 나를 어떻게 생각하길래 이런 불편한 정보도 모조리 보여주는 걸까? 그런데 왜 나는 길들여지고 있을까? 자동화 기술의 문제와 대안을 진짜 알고리즘 전문가에게 듣는다.

이런 분에게 추천합니다.
  • 알고리즘이 제공하는 정보가 왠지 모르게 불편하셨던 분
  • 알고리즘 작동 원리와 그 문제점을 알고 싶은 분
  • 구체적인 최근 사례와 함께 진짜 알고리즘 전문가의 이야기를 듣고 싶으신 분
저자 소개
오세욱은 한국언론진흥재단 책임연구위원으로 기술이 저널리즘에 미치는 영향에 대해 연구하고 있다. 신문사와 방송사에서 기자 생활을 하였고 자동 배열 이전 포털에서 뉴스 편집 일을 한 적이 있다. 저널리즘 가치에 따른 뉴스 배열을 목적으로 한 ‘뉴스 트러스트 알고리즘’ 개발 책임을 맡은 바 있고, 현재는 한국언론진흥재단에서 연구와 함께 언론의 디지털 혁신을 목적으로 하는 사업을 담당하고 있다.
키노트
이렇게 구성했습니다.

1화. 자동화 시대의 미디어
마스터 알고리즘은 가능할까
자판이 연필을 대체하기까지
그대로 받아들일 필요는 없다

2화. 미디어 진화의 3단계 ; 미디어는 어떻게 자동화되는가
일상생활의 매개, 미디어화
미디어의 표상, 소프트웨어화
표상의 표상, 알고리즘화

3화. 알고리즘의 논리
알고리즘이 추천한 뉴스
편집 논리와 지식 논리의 경쟁

4화. 알고리즘의 블랙박스
자동화 알고리즘의 무차별적 차별
편향은 누가 만드는가
숫자로 읽을 수 없는 것들

5화. 기술의 고삐를 쥐어라
인간은 어떻게 대응하고 있는가
익숙함에서 벗어나 질문을 던져야 한다
저널리즘의 기술 감시 사례

6화. 에필로그 ; 자동화 시대의 저널리즘

에디터의 밑줄

“문제는 기계 학습 알고리즘이 베일에 가려진 블랙박스라는 점이다. 컴퓨터가 수천 테라바이트의 정보를 수집하여 새로운 결과물과 통찰력을 제시하더라도 실제로 무슨 과정을 거치는지는 아직 아무도 제대로 알지 못한다.”

“인간이 다룰 수 없는 방대한 양의 데이터를 바탕으로 통찰력 있고 효율적인 정보를 제공하는 것처럼 보이지만, 알고리즘은 결코 중립적이지 않으며 통제의 목적으로도 사용될 수 있다.”
 
“수용자들은 미디어의 매개 과정에서 무의식적으로 선택한 결과에 따라 자신이 알고 싶지 않은 것도 알게 되는데, 그 과정에서 사회적 생존을 위해 필요한 정보 이상을 습득하게 된다. 이는 얼마든지 거부할 수도 있는 선택의 영역이지만, 그 거부가 쉽지 않다. 표상된 현실을 다수가 실재로 받아 들이면서 일상이 점유되고 있기 때문이다.”

“알고리즘이 정보를 다룰 때, 그들은 동시에 관계와 연결을 재구조화하고 무언가를 선호하도록 독려하며, 우연한 만남을 만든다. 그 과정을 통해 우리의 생각과 정체성을 다시 형성하는 것으로 늘 끝을 낸다.”

“알고리즘은 통계 기반이기 때문에 99퍼센트의 효율성을 위해 1퍼센트를 배제한다. 이 배제는 강력한 권한을 행사하는 것이지만 우리는 무엇이 배제되는지조차 알 방법이 없다. (중략) 미디어는 강력하지만 배제의 결정을 내릴 권한까지 위임된 권력은 아니다.”

“우리는 알고리즘을 단지 절차에 따른 코드의 집합으로 봐서는 안 된다. 이것이 사회적으로 구성되었으며, 제도적으로 운영되고 있는 하나의 체제로 봐야한다. 알고리즘은 새로운 지식 논리다. 이는 기존 미디어의 편집 논리와 경쟁하는 논리다.”

“자동화 알고리즘의 결과물들에 대한 문제 제기가 이루어지는 가장 큰 이유는 인공지능 등 기술이 자동화를 위해 학습하는 기존 데이터들이 대부분 인간이 만들어 낸 것이기 때문이다. 인간이 역사적으로 갖고 있던 젠더 편향, 인종 편향 등이 담긴 데이터들을 학습하고 데이터로 변환이 불가한 것들은 학습하지 못한 결과다.”
코멘트

알고리즘이 제공한 맞춤형 정보가 가끔 메스껍게 느껴질 때가 있습니다. 대개 나에게 뭔가 장사를 한다는 기분이 들거나 내가 알고리즘 안에서 멋대로 분류된 것 같은 기분이 들 때죠. 알고리즘이 문제가 많다는 말은 쏟아져 나오지만 정확히 어떤 과정에 어떤 문제가 있는지 알려면 두꺼운 책을 봐야 합니다. 우리가 즐겨 쓰는 모든 미디어에 알고리즘이 적용됩니다. 자동화 기술을 밥 먹듯 사용하면서 나도 모르게 제공하던 정보들은 어떻게 쓰이고 있을까요? 불편한 범주화와 편향 문제 등 우리가 놓치고 있던 것을 알고리즘 전문가가 짚어봅니다.
북저널리즘 이현구 에디터