알고리즘의 블랙박스
6화

에필로그; 자동화 시대의 저널리즘

민주주의 사회는 의사 결정 시스템이 투명할수록 유지가 쉬워진다. 저널리즘은 그동안 권력의 의사 결정 과정을 감시해 왔다. 하지만, 자동화 알고리즘 기술의 발전으로 우리 일상에서 자동화된 의사 결정 영역이 확대되고 있다. 자동화된 의사 결정 영역은 데이터의 폭발과 기술의 복잡함으로 인해 그 과정에 대한 감시가 어렵고 불가능한 경우도 있다. 잘 보이지 않는 그 과정보다 눈에 보이는 자동화 시스템의 결과물에 대한 감시가 더욱 중요할 수 있다. 기술의 과정은 보이지 않지만, 적어도 그 결과는 보이기 때문이다. 자동화 알고리즘의 결과물에 대한 감시를 통해 편향 등의 문제를 제기하고 이를 수정하도록 촉구할 필요가 있다. 이 글은 이러한 편향 등의 문제를 해결하기 위한 하나의 방안으로 저널리즘의 역할에 주목했다. 권력화 되는 기술을 감시하기 위한 한 방안으로서 저널리즘은 기능해왔고, 누구나 저널리스트가 될 수 있는 시기이기에 개개인의 역할이 더 중요해질 수 있기 때문이다.

인공지능 등 기술의 결정 과정을 투명하게 공개해야 한다는 주장이 제기되고 있지만, 어떻게 공개해야 하는지, 어디까지가 투명한 것인지 등에 대해 합의된 바는 없다. 또한, 내용을 공개해 봤자 보는 사람이 알지도 못하고, 공개한 사람들도 사실 잘 이해하기 어렵다. 알고리즘, 코드, 학습한 데이터의 복잡성, 난해성 때문이다. 기계가 점점 더 인간이 이해하기 어려운 방대한 양의 데이터를 학습 대상으로 삼고, 인간은 학습의 과정은 모른 채 결과만을 전달받고 있음을 고려하면, 투명성 논의는 기계 학습 및 인공지능 시대에 한계를 지닐 수밖에 없다.[1] 다만, 이러한 투명성 논의는 기술 내용물이 아니라 자동화 영역이 어디인지를 명확히 밝히는 방향으로 이루어질 필요가 있다. 알고리즘 팁스 사례에서와 같이 일반 시민들은 자동화된 결정의 영역이 어디인지도 모른 채 그 결정의 결과물만을 제공받고 있기 때문이다. 자동화된 결정이 이루어지고 있음을 먼저 인지해야 그 결정에 의문을 제기할 수 있다.

기술의 발전을 막을 수 없다면, 기술이 인간과 조화를 이루며 발전하는 방향으로 유도할 필요가 있다. 이를 위해서는 알고리즘 혹은 인공지능의 결과물들에 대해 끊임없이 감시하고 이를 보완 및 수정해 나가는 것이 필요하다. 또한, 감시, 수정 및 보완 주체들의 상호 존중을 바탕으로 한 협력이 필수적이다. 민주적 시민들을 공적 대화에 참여시켜 공동체의 유지, 발전을 도모하는 것은 저널리즘의 핵심 역할이다. 정책 결정권자, 알고리즘 등 기술의 설계자들, 연구자들, 일반 시민 등 모두가 협력해 문제를 해결하기 위해 함께 노력해야 한다. 이 또한 저널리즘의 핵심 역할이며 그 수행은 전문 직업군으로서 저널리스트뿐만 아니라 시민 모두가 가능하다.

실제로 인공지능 분야에는 현재 다양성 위기가 존재한다.[2] 인공지능 콘퍼런스의 발표자 중 여성은 고작 18퍼센트이며, 인공지능 관련 교수 중 80퍼센트가 남자다. 페이스북의 인공지능 연구 직원 중 여성은 15퍼센트, 구글은 10퍼센트에 불과하다. 또한, 구글 직원의 2.5퍼센트만이 흑인이며, 페이스북과 마이크로소프트 역시 4퍼센트에 머무르고 있다. 인공지능 분야는 현재의 다양성 위기를 해결하기 위한 심층적 변화가 필요하다. 물론, ‘기술 분야의 여성(women in tech)’에 대한 지나친 강조는 오히려 ‘백인 여성’을 다른 무엇보다 우선시하는 경향으로 이어질 가능성이 있다. 단순히 이들의 채용을 확대하는 것은 인공지능 다양성 위기의 해결책이 아님이 자명하다. 조직의 문화, 권력 관계, 차별, 불공정한 보상 등 심층적 문제에 접근해야 한다. 인종과 젠더와 관련해 인공지능 시스템을 활용한 분류, 탐지, 예측 등은 인력의 다양성 측면에서 시급하게 재평가 받아야 한다. 이 또한 민주주의 공동체의 유지와 발전에 필수적인 다양성 구현을 위한 저널리즘의 감시 대상이다.

기술을 개발하고 만들어 나가는 사람들의 선의를 의심해서가 아니라, 데이터가 가진 편향, 이에 따른 의도하지 않은 결과가 미치는 부정적 영향을 방지하기 위해 감시가 필요하다. 기술은 계속해서 데이터를 수집해 우리가 알 수 없는 방향으로 진화해 나가고 있으며, 나보다 데이터가 없으면 말을 하지 말라는 식으로 인간을 위협해 나갈 것이다. 데이터에 대해 모르거나, 애써 모른 척 한 채 데이터가 지배하는 사회를 지켜보고 있는 것이 현실이다. 일각에선 지금까지의 과학이 설명하지 못했던 현상도 데이터를 통해 설명이 가능하다는 주장이 나오고 있다. 전통적인 사회 과학과 저널리즘은 이런 상황에서 무엇을 제시할 수 있을 것인가에 관한 연구와 관심이 필요하며, 그 시작은 질문이다. 자동화 사회 속 우리 대부분은 기술의 정확한 원리를 이해하지도 못한 채 빠르고 편리하고 안전하다는 이유로 비판과 질문 없이 받아들이게 하고 있다.

비판과 질문이 사라지면 권력은 은밀하게 부도덕해진다. 만드는 사람도 이해 못 하는 기술의 최종 결과물들을 공동체의 관점에서 검토할 필요성이 있으며, 이를 위해서는 그 과정과 결과가 정당한지 끊임없이 질문하고 비판적으로 분석해야 한다. 물론, 저널리즘만이 중요한 역할을 해야 한다고 주장하는 것이 아니다. 앞서 제시한 대응 사례들과 같은 다양한 실천적 방안들이 같이 논의되고 실행되어야 한다. 저널리즘이 그동안 수립해 온 원칙들은 자동화 알고리즘 결과물에 대한 감시의 기준으로 적용될 수 있다. 이러한 관점에서 다양한 방안들과 함께 하나의 실천적 방안으로서 저널리즘의 역할을 강조한 것이다. 또한, 법규제의 방향과 기술의 방향이 충돌하는 상황에서 일반 시민의 관점으로 중재의 역할을 할 수 있다. 

기술의 발전 방향을 쉽게 예측할 수는 없으므로, 어떠한 문제가 앞으로 나타날 것인지를 단언하기는 어렵다. 이 글은 현재 시점에서 드러나고 있는 문제를 해결하기 위한 하나의 방안과 역할을 제시하고 있을 뿐이다. 저널리즘의 위기 상황에서 다시 저널리즘의 의미에 주목한다. 저널리즘의 역할 외에도 기술 개발자와 연구자, 법 제도 연구자, 시민 사회 및 단체, 정부와 기관 등 다양한 분야의 역할도 중요하다. 이들 모두가 공동체 구성원으로서 함께 노력해야 현재 드러나고 있는 문제들을 최소화하면서 기술이 주는 혜택을 누릴 수 있을 것이다.
[1]
오세욱・이소은・최순욱, 〈기계와 인간은 커뮤니케이션할 수 있는가? : 기계학습을 통해 본 쟁점과 대안〉, 《정보사회와 미디어》, 2017., 63-96쪽.
[2]
West. S.M., Whittaker. M. and Crawford. K., 〈Discriminating Systems: Gender, Race and Power in AI〉, AI Now Institute, 2019.
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close