알고리즘의 블랙박스
5화

기술의 고삐를 쥐어라

인간은 어떻게 대응하고 있는가


법・제도적 대응 사례

자동화 알고리즘 결과물이 드러내는 편향과 그것이 초래할 수 있는 문제에 대해서는 이미 많은 지적이 있었다. 유럽 연합(EU)의 ‘일반 정보 보호 규정(GDPR・General Data Protection Regulation)’ 등 법률적 움직임이나 구글, 마이크로소프트, IBM 등 기업의 자체적인 인공지능 기술 관련 윤리 규정 제정, 시민 단체와 연구소 등을 중심으로 한 인공지능 기술 가이드라인 등 자동화 알고리즘 결과물의 문제를 방지하기 위한 다양한 노력이 있었다. 우리나라에서도 방송통신위원회가 ‘이용자 중심의 지능 정보 사회를 위한 원칙’을 발표한 바 있으며, 카카오도 ‘알고리즘 윤리 헌장’을 제정한 바 있다. 학습 데이터 및 연산 불가능한 측정 개념으로 인한 기술적 한계들이 빚어내는 문제는 새로운 것이 아니다. 하지만, 문제 해결을 위한 완전한 방법이 없으므로, 문제를 최소화하면서도 기술에 따른 발전을 저해하지 않기 위한 다양한 시도들이 이어지고 있다.

먼저 법률적 대응 사례로 지난 2019년 4월 론 와이든(Ron Wyden) 미국 상원 의원은 ‘알고리즘 책무성 법안(algorithm accountability bill)’[1]을 발표했다. 해당 법안은 자동화 알고리즘의 결과물을 ‘자동화된 의사 결정 시스템(automated decision system)’으로 폭넓게 정의한다. 자동화된 의사 결정 시스템은 기계 학습, 통계 데이터 처리, 인공지능 기술 등을 통해 소비자의 의사 결정에 영향을 미치는 기계적 계산 과정 체계를 의미한다. 다음은 ‘자동화된 의사 결정 시스템 영향 평가(automated decision system impact assessment)’로 기업들의 자동화된 의사 결정 시스템이 미치는 영향을 어떻게 평가할 것인지를 명문화했다. 법안은 이러한 평가 항목들과 함께 평가 대상 기업의 범위도 법안에 명시했다. 연간 총수입이 5000만 달러 이상이거나, 최소 100만 명의 이용자 기기에 대한 정보를 보유하거나, 이용자 데이터를 사고파는 데이터 중개자(data broker) 역할을 하는 기업 등이다. 또한, 자동화된 의사 결정 시스템 외에 ‘고위험 자동화된 의사 결정 시스템(high-risk automated decision system)’을 별도로 규정한다. 여기에는 자동화된 의사 결정 시스템 중, 이용자에게 차별을 불러올 수 있는 민감한 정보(인종, 국적, 정치 성향, 종교, 노동조합 가입 여부, 유전자 데이터, 성 정체성, 범죄 경력 등)를 불공정하고 편향적으로 사용하여 이용자에게 중대한 영향을 미칠 수 있는 위험을 내재한 경우, 공개적으로 접근할 수 있는 광범위한 물리적 장소를 체계적으로 감시하는 경우 등이 포함돼 있다. 규제 대상 기업들은 법안에 따라 이용자의 권리에 영향을 미치는 모든 행위들, 즉 이용자의 행동을 예측하고 분석하려는 시도를 비롯해 개인과 관련한 민감한 데이터를 방대하게 축적하는 물리적 장소를 감시하는 알고리즘 등을 스스로 평가해야 한다.

이 법안에 대해 일부에서는 새로운 시도이며 의미 있는 발걸음이라고 환영했지만, 기업들은 영업 노하우를 침해할 수 있으며, 새로운 기술 발전을 저해할 수 있다고 우려했다.[2] 법안의 실제 통과 여부와 상관없이 이 법은 자동화된 결과물들의 편향 및 오류의 수정을 명령할 법적 권한을 국가에 부여했다는 점에서 의미를 지닌다. 법안이 통과되지 않더라도 플랫폼 기업들에게 자동화 알고리즘 결과물이 가져올 수 있는 문제 해결에 대한 책임감을 부여해, 단지 기술의 결과물이기에 자신들의 책임은 없다는 주장을 반박할 수 있는 근거가 될 수 있다.

캐나다의 브리티시컬럼비아주(Province of British Columbia)의 시설 안전국(BC Safety Authority, 이하 BCSA)은 이러한 문제들에 제도적으로 대응하고 있다. BCSA는 자신들이 운영하는 시설들의 보수 및 설치 등과 관련한 자원 할당 프로그램(Resource Allocation Program, RAP)을 운영하고 있다. 보수가 필요한 곳 및 새로운 시설 설치가 필요한 곳을 보다 객관적으로 찾아내려는 방안으로, 한정된 자원을 보다 효율적으로 사용하기 위한 것이다. BCSA는 직원들이 내린 우선순위 판단 결과를 기계에 학습시켜 사람이 일으킬 수 있는 판단 착오나 실수를 줄이기 위한 목적에서 이 프로그램을 자동화하기로 했다. 먼저 BCSA는 ‘제너레이션 R(Generation R)’이라는 컨설팅 회사에 자신들이 그동안 내려 온 결정들에 문제가 없는지 검토를 의뢰했다. ‘제너레이션 R’사는 그동안 있었던 BCSA의 우선순위 결정 내용들을 검토하고 해당 결정을 내린 당사자들과 인터뷰를 진행했다. 이를 토대로 해당 결정들을 기계 학습시키기 전에 고려해야 할 31개의 사항과 시급히 수정이 필요한 5개 사항을 제시했다.[3]

BCSA는 자신들의 결정에 혹시 있었을지 모를 편향성을 제거하기 위해 사전에 이를 점검한 것이다. 인공지능 등 기술이 자신들의 결정을 학습하면서 그동안의 오류를 그대로 학습해 같은 오류를 반복하는 문제를 없애고자 했다. BCSA는 또한, 추후 자신들과 비슷한 자동화 시스템을 만드는 기관들이 참고할 수 있도록 이러한 과정을 모두 백서에 담아 공개했다. 이를 통해 BCSA는 다음과 같이 알고리즘 개발의 5단계를 제시했다.

① 명확한 목표 설정
② 설계의 투명성
③ 기계가 자동으로 처리할 부분에 관한 결정
④ 결과에 대한 모니터링
⑤ 이해 당사자들과 결과에 대한 커뮤니케이션

BCSA는 이러한 내용을 제시하는 것에 그치지 않고 자신들이 향후 자동화 시스템을 만들 때 반드시 지켜야 하는 원칙으로 제도화했다.

사회적 대응 사례

일상의 많은 부분이 자동화 알고리즘에 따라 작동하고 있지만, 대부분의 사람은 그 작동이 자동으로 이루어진 것인지조차 모르는 경우가 많다. 자동화된 의사 결정 영역 고지를 의무화하는 방안 등이 논의되고 있지만, 고지하는 공간이나 방법이 애매한 경우도 많이 존재한다. 이러한 현실을 고려하여, 자동화 알고리즘 결과물의 편향성 문제를 해결하기 전에 일상의 영역에서 자동화된 부분을 먼저 알리는 것이 중요하다는 주장도 제기되고 있다. 특히, 정부를 비롯한 국가가 내리는 자동화된 의사 결정 영역에 대해서는 일반 시민들에게 더욱 알릴 필요가 있다는 것이다.[4] 세금 납부액, 복지 혜택 적용, 보조금 대상 선정 여부 등 국가가 결정하는 대부분의 사안은 일반 시민들에게 미치는 영향이 매우 크기 때문이다. 이러한 국가의 결정들은 다른 많은 영역과 마찬가지로 알고리즘이 적용되면서 자동화되고 있지만, 그 결정이 자동으로 내려지고 있다는 것을 아는 사람은 소수다.

미국 노스웨스턴대학교 컴퓨테이셔널 저널리즘 랩(Computational Journalism Lab)에서 운영하는 ‘알고리즘 팁스(Algorithm Tips)’[5]는 정부에서 적용하고 있는 자동화된 의사 결정들의 데이터베이스다. ‘알고리즘 팁스’는 우리 사회에서 알고리즘에 의한 자동화된 의사 결정이 미치는 영향력을 일반 시민들에게 알리는 것을 목표로 하고 있다. 이를 위해, 각종 알고리즘들을 검색하고 결과물들에 대해 질의하는 등의 방식으로 미국 연방정부 차원에서 적용되고 있는 자동화된 의사 결정 내용들을 정리하여 축적하고 있다.

이와 함께 알고리즘 팁스는 미국 연방정부의 자동화된 의사 결정 시스템 명칭을 제시한 후 그 시스템이 어떻게 작동하고 있는지 설명한다. 그 과정에서 이것이 왜 중요한지를 제시한 뒤에는 우리 삶의 어떤 부분과 관련된 주제인지 범주화한다. 시스템을 담당하는 곳은 어디인지 등의 정보와 함께 언제부터 적용되었는지, 만든 곳은 어디인지, 전산화 여부 및 출처까지 기록하고 있다. 2021년 10월 현재 알고리즘 팁스에 등록된 자동화된 의사 결정 목록은 총 652개이다. 알고리즘 팁스의 대응 방식은 자동화 결과물의 여러 문제를 직접 해결하지는 못한다. 하지만, 어떠한 결과물이 문제가 될 수 있는지를 일반 시민들에게 알리는 좋은 방법이라고 할 수 있다. 그 결정이 자동으로 이루어진 것인지도 모르는 경우도 많기 때문이다.

블랙박스로서 알고리즘과 인공지능에 대한 투명성, 책무성, 공정성, 설명 가능성 등에 대한 요구가 많지만 무엇이 공정성을 담보한 설명인지에 대해 모두가 합의한 바는 없다. 또한, 얼마나 투명해야 하는지도 공통의 기준은 존재하지 않는 상황이다. 가령, 투명성을 위해서 은행이 대출 금리 결정 요인을 어떤 기준에 따라 공개해야 하는지에 대해 누구도 쉽게 답을 할 수 없다. 실제로 은행이 결정 요인을 모두 공개한다면, 그 은행은 이용자들의 항의로 인해 망하는 지경에 이를 수도 있기 때문이다. 설명을 요구할 권리(right to explanation)가 GDPR을 통해 알려지기는 했지만 법에 명시된 것은 아니며, 이는 ‘조건법적 설명(counterfactual explanations)’을 제공해야 한다는 주장이 이론적으로 제기되고 있는 배경이다.[6]

조건법적 설명은 알고리즘 혹은 인공지능 등 기술이 자동화에 사용된 모든 요인을 투명하게 공개하는 것이 아니라 이용자들이 자동화를 통해 원하는 결과를 얻기 위해 최소한으로 필요한 조건들을 제공하는 것이다. 예를 들어, 왜 대출이 거부됐는지 알려줌과 동시에 대출 승인을 위해 필요한 최소한의 요인들을 알려주고 그 충족의 조건들을 제시하는 방식을 연구진들은 제안한다. 예금 잔고가 부족해서 대출이 거절됐는데, 잔고를 얼마 더 쌓아야 하는지 알려주는 방식이다. 이렇게 하면 코드를 공개할 필요가 없으며, 자동화에 필요한 각 요인들을 모두 제공할 필요도 없다. 일반 사람들은 기계 학습이 어떻게 작동했는지를 알 필요가 없으며, 기업들은 코드 공개의 위협에서 자유로울 수 있다.

공정함에 대한 기준을 정립하기는 어렵지만, 알고리즘들이 어떠한 사회적 과정들에 적용되고 있는지 알리는 것이 중요하며, 원하는 결과를 얻기 위해 각 개인들이 어떠한 노력을 해야 하는지 알게 하는 것이 중요하다는 것이다. 이를 위해 어떻게 설명할 것인가에 대한 방법도 제시한다.

① 왜 이런 결정이 이루어졌는지 이해할 수 있도록 알리고 돕는다.
② 원치 않은 결과가 나왔다면 그 결정을 시험해 볼 수 있는 수단을 제공한다.
③ 현재의 의사 결정 모델에 따라 향후 바라는 결과를 얻기 위해서 무엇을 바꿔야 하는지 이해할 수 있도록 한다.

조건법적 설명은 이론적, 개념적으로만 제시되고 있어 적용의 단계에는 이르지 못하고 있지만, 실질적 대안으로서 논의 가치는 있다.

 

익숙함에서 벗어나 질문을 던져야 한다


우리는 어쨌든 발전하는 기술과 공생할 것이고 공생해야 한다. 하지만, 인간 중심적 가치와 알고리즘 같은 기계적 기준은 상충하는 경우가 많다. 공정성과 편향도 마찬가지다. 소셜 매거진 플립보드의 창립자 마이크 맥큐(Mike McCue)는 알고리즘의 규제와 통제를 정부가 아닌 훈련받은 저널리스트들이 해야 한다고 주장한다.[7] 알고리즘이 지켜야 할 원칙들이 저널리즘의 기본 원칙(진실성과 정확성, 독립성, 공정성과 불편 부당성, 인류애, 책무성 등)과 유사하다는 것이다. 법・제도 등은 발전하는 기술을 따라가기 어렵고 기술을 통한 제어는 인간적 가치와의 상충이라는 근본적 문제가 있으므로 이를 중재할 역할이 필요하다.

알고리즘과 같은 기술이 해결하는 문제들은 우리 삶과 직접 관련된 경우가 많다. 저널리즘은 그동안 민주적 공동체의 유지와 발전을 위해 현재의 상식 기준에서 어떠한 사안의 옳고 그름에 대해 질문하고 감시해 왔다. 이러한 역할을 수행하기 위해 그동안 다양한 원칙들을 세워왔다. 그 원칙을 바탕으로 알고리즘에 의해 자동으로 결정된 대출 금리가 공정하게 적용된 것인지, 나의 관심사에 맞게 추천된 기사들이 의견 다양성을 구현하고 있는지, 맞춤형으로 추천된 가격이 정당하게 제시된 것인지 등에 의문을 갖고 질문을 던지는 것이 자동화 알고리즘의 결과물이 드러내는 편향을 해결하기 위한 한 방안이 될 수 있다.

알고리즘을 비롯한 기술은 답을 찾는 데 익숙해 있으며, 항상 인간에게 무언가 답을 제시하고 있다. 기술과 구별되는 인간의 가장 큰 특징은 그 대답을 끌어내기 위해 질문을 한다는 점이다.[8] 자동화 알고리즘이 내린 답에 질문함으로써 우리는 사후적이라도 편향 등의 문제 해결을 위한 시작점을 찾을 수 있다. 저널리즘은 권력을 감시하기 위해 질문할 권리를 시민에게 위임받아 그 기능을 수행해 왔다. 이제는 시민 누구나 저널리즘을 수행할 수 있는 환경이다.

저널리즘은 사전적으로 “뉴스를 취재하여 대중에게 보도하는 행위”[9]라고 정의할 수 있으며, 그 취재와 보도의 대상은 민주주의 공동체 사회의 유지와 발전을 위해 구성원들이 서로를 이해할 수 있도록 하는 다양한 목소리들이어야 한다. 이러한 목적에 따라 저널리즘의 수행자인 저널리스트들은 권력을 감시하고 시민을 대표해 그들에게 동등한 위치에서 질문할 권리를 갖고 있다. 언론은 권력의 남용을 방지하고 소수의 이익을 보호하기 위해 권력을 감시해야 하는데, 감시의 대상이 되는 권력은 자신들이 제공하는 모든 정보들을 저널리스트가 무조건 받아들이기를 원하는 경우가 많다.

저널리즘의 긴 역사에서 지속적으로 강조되는 가치 중 하나는 민주적 공동체라고 할 수 있다. 저널리즘은 민주적 공동체 구성에 기여하기 위해 한쪽으로 편향되지 않는 것을 원칙으로 유지해 왔다. 어느 쪽에 편향되었다면 공동체 구성의 역할을 수행할 수 없다. 그러나 거듭 강조하듯, 공정성은 정의하기가 쉽지 않다. 사람들은 실제로 편향적이거나 차별할 때만 공정하지 않다고 말하는 것이 아니다. 언론이 진실을 왜곡하거나, 사실을 부인할 때도 공정하지 않다라고 하며, 자신의 생각이나 의견과 다른 것을 언론이 말하면 그 역시 ‘나와 다르다’가 아니라 ‘공정하지 않다’라고 말한다.[10]

저널리즘은 공정성이라는 원칙을 구현하기 위한 다양한 방법론을 실험해 왔다. 공동체 구성원들과 끊임없이 대화하기 위해서는 공정함을 잃어서는 안 되기 때문이다. 이를 위해 공동체의 관심사에서 벗어나지 않고, 끊임없이 질문을 던짐으로써 공동체에 위협이 될 수 있는 권력을 감시했다. 자동화 알고리즘의 결과물과 관련한 문제에 대해 저널리즘의 역할이 중요할 수 있는 이유다. 다만, 기술이 전개되는 과정을 감시하는 것은 접근의 어려움으로 인해 사실상 불가능하다. 기술의 결과물 역시 너무 복잡해지면서 일반 사람들이 이해하기 어렵다.

그러나 공동체의 대화 상대이자 촉진자로서 저널리즘이 공동체의 관심사를 대신하여 질문을 던질 수 있다. 이 결과물이 과연 공정한지 묻고 그 대답이 공정한지에 대한 판단을 시민들에게 물어볼 수 있다. 최소한의 원칙을 지킨다는 가정 하에 저널리즘이 공동체의 관점에서 자동화 알고리즘의 결과물에 대해 알리고 그것이 가져올 수 있는 문제에 대해 질문하는 것이다. 이를 통해, 다양한 이해관계의 공동체 구성원들과의 대화가 끊임없이 이루어지도록, 저널리즘에 중재 역할을 맡겨볼 수 있을 것이다. 이는 자칫 권력화될 수 있는 기술을 견제하는 동시에 시민으로서 법과 제도의 방향을 이끌 수 있는 하나의 대안일 수 있다. 또한, 자동화 알고리즘의 결과물에 대한 불만이나 잘못됨을 느낀 시민들이 그 결과물에 대한 이의를 제기할 수 있는 통로와 방법이 불충분한 현 상황에서 이를 전달할 수 있는 하나의 수단으로 기능할 수도 있다.

워터게이트 특종으로 퓰리처상을 받은 칼 번스타인(Carl Bernstein)의 표현처럼 “기사는 최선을 다해 얻을 수 있는 진실의 한 조각(getting the best obtainable version of the truth)”[11]일 뿐이다. 그 한 조각이라도 얻기 위해 저널리스트들은 계속해서 질문을 해 왔다. 민주적 공동체의 관점에서 자동화 알고리즘 결과물들이 공정한지에 관해 묻고 답을 요구해야 기술에 대한 감시가 가능해진다. “인간은 자신이 관리하고 제어할 수 있는 수준으로 변화 속도를 결정하는 편이 더 낫다.”[12] 그러기 위해서는 현재의 기술이 민주적 공동체의 대화를 저해하지 않도록 조정해야 한다. 질문하지 않으면 무엇이 잘못됐는지 모를 정도로 기술의 발전은 빠르다. 기술의 발전을 막을 필요도 없고 막을 수도 없다. 다만, 발전의 방향이 공정한지, 즉 편향되지 않았는지에 대해 끊임없는 감시가 필요하며 이를 위해 질문을 해야 한다.

기술의 발전에 따라 전문 직군으로서 저널리스트라는 경계는 무너져 내렸다. 특별한 기술적 훈련 없이도 다양한 디지털 도구들을 활용하여 누구나 뉴스 가치가 있는 정보들을 취재할 수 있고, 취재한 내용을 콘텐츠로 만들 수 있으며, 그 내용을 대중들에게 배포할 수 있다. 전문 직군으로서 저널리스트들이 독점적으로 누려왔던 정보에 대한 접근 권한도 SNS 등 직접 소통 채널의 증가와 인터넷 등을 통한 정보의 직접 공개로 인해 일반 시민들 역시 완전하지는 않지만 가질 수 있게 됐다. 시민들 누구나 저널리즘을 직접 수행할 수 있는 시대다. 자동화 알고리즘의 결과물에 대해 저널리즘의 원칙에 따라 누구나 질문을 던질 수 있다. 시민들은 이미 기존 언론과 저널리스트들의 관심에서 소외되어 있던 분야, 인물, 사건 등에 주목하면서 새로운 의제를 발굴, 우리 사회의 다양성을 증진하는 내용을 전달하는 등의 긍정적 역할을 하고 있다. 저널리즘의 원칙과 역할은 언론사나 전문적 저널리스트뿐만이 아니라 일반 시민도 수행할 수 있다.

 

저널리즘의 기술 감시 사례


자동화 알고리즘 결과물들을 대상으로 저널리즘의 감시는 현재 진행 중이다. 프로퍼블리카가 진행하고 있는 ‘기계 편향(machine bias)’[13]이라는 제목의 연속 기획 보도가 대표적이다. 프로퍼블리카는 사람들의 실제 삶에 영향을 끼치는 알고리즘을 분석해 그 문제점을 밝혀내고 있다. 형량 선고 알고리즘의 인종 편향 문제, 페이스북 뉴스피드의 광고 타깃팅 문제, 아마존 가격 알고리즘 등을 다룬 일련의 보도를 이미 게재한 바 있다. 프로퍼블리카는 기사를 만드는 과정에서 기존 취재 방식에 더해 이전과 다른 탐사 보도 기법이나 기술도 적극적으로 활용한다. 취재를 위해 알고리즘을 짜기도 하고, 챗봇을 제작해 제보를 받기도 한다. 웹브라우저에서 쓸 수 있는 확장 프로그램을 제작하기도 했다.

이러한 과정은 프로퍼블리카 단독으로 이루어지지 않는다. 일반 시민들의 참여를 기반으로 기술에 대한 감시를 진행한다. 시민들이 기술 플랫폼을 활용하면서 가졌던 의문을 취재하고 그 의문을 기사를 통해 전달한다. 기사로 제기한 질문에 제대로 된 답을 구하기 위해 기술 플랫폼을 취재하고 일반 시민들의 자발적 참여를 통해 사례를 수집한다. 일상생활 속에서 접한 문제들이기에 시민들과 관련성이 굉장히 높아지고 자발적 참여 강도가 높아지면서 기사의 파급력도 높아지는 선순환 구조를 만들어 내고 있다. 그 결과 페이스북은 광고 타깃팅 알고리즘을 수정했고 아마존은 가격 정책을 변경했다. 시민들은 단순히 의문을 제기하고 사례를 제공한 것을 넘어 프로퍼블리카와 함께 기술 감시를 위한 기술 개발에도 참여했다.

프로퍼블리카에서 기계 편향 연속 보도를 이끌었던 줄리아 앵윈(Julia Angwin)이 현재 편집장을 맡은 더 마크업(The Markup)도 기술에 대한 감시를 목표로 하고 있다. 더 마크업은 기계 학습 등 기술에 익숙한 프리랜서들과의 협업을 통해 거대 기술 기업들의 문제에 대한 감시를 진행하고 있다. 특히, 현재는 기술 기업들이 적용하고 있는 알고리즘들의 인종 편향에 대해 집중적으로 분석하고 있다. 페이스북의 타깃 광고 알고리즘의 문제,[14] 백인 검색 결과에서는 삭제되던 음란물이 유색 인종 검색 결과에서는 삭제되지 않고 그대로 노출되는 구글의 검색 알고리즘 문제[15] 등에 대해 지적하고 이들의 실질적 변화를 끌어내기도 했다. 미국의 정치 전문 매체 《폴리티코Politico》가 최근 출범시킨 프로토콜 미디어(Protocol media)[16]는 기술이 더 이상 산업이 아니라 전 세계적 권력의 원천이라는 관점에서 기술을 집중적으로 감시하고 있다. 프로토콜은 거대 기술 기업들과 정부 등 규제 기관의 충돌 속에서 기술이 일반 시민들에게 미치는 영향에 관해 탐구하는 것을 목적으로 하고 있다.

2016년 설립된 매체인 악시오스(Axios)가 진행한 〈그들이 당신에 대해 알고 있는 것(What they know about you)〉이라는 연속 기획 보도[17]도 대표적 사례 중 하나다. 여기서 그들은 거대 기술 기업들이다. 악시오스는 이 연속 보도를 통해 구글, 페이스북, 아마존, 테슬라, 병원 등이 수집하는 개인 정보가 무엇인지를 분석해 알렸다. 예를 들어, 〈아마존이 당신에 대해 알고 있는 것〉[18]이라는 기사를 통해, 아마존이 음성 인식 시스템 알렉사로 사람들의 대화를 엿듣고 있음을 밝혀냈다. 또한, 알렉사와 대화하는 내용만이 아니라 다른 사람들과 대화하는 내용들을 수집하고 있음을 확인했다며, 인공지능 스피커인 ‘에코’를 사용하지 않을 때는 반드시 전원을 끄라고 충고했다. 제시한 사례들은 모두 일반 시민들이 거대 기술 기업들에 잘 모르는 부분을 집중적으로 다루고 있다. 우리가 잘 모르는 가운데 작동하는 알고리즘, 자동화된 결정 등이 어떻게 이루어지고 있음을 밝히면서 그것이 우리 삶에 미치는 영향을 조명하는 것이다.
[1]
United States H. R., 〈Algorithmic Accountability Act of 2019〉, 116th CONGRESS 1st Session, 2019.
[2]
MacCarthy. M., 〈An Examination of the Algorithmic Accountability Act of 2019〉, A working paper of the Transatlantic Working Group on Content Moderation Online and Freedom of Expression, 2019.
[3]
[4]
Fink. K., 〈Opening the government’s black boxes: freedom of information and algorithmic accountability〉, 《Information, Communication & Society》, 2018., pp. 1453-1471.
[5]
Algorithm Tips(algorithmtips.org) - Resources and leads for investigating algorithms in society.
[6]
Wachter. S., Mittelstadt. B. and Russell. C., 〈Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR〉, arXiv:1711.00399 [cs.AI], 2017.
[7]
McCue. M., 〈It’s Time to Put Journalists in Charge of the Algorithms〉, 《Medium》, 2018. 1. 26.
[8]
Kelly. K., 《THE INEVITABLE: Understanding the 12 Technological Forces that Will Shape Our Future》, VIKING, 2016.
[9]
위키피디아에서 검색한 저널리즘의 정의.
[10]
조항제, 〈공정성이란 무엇인가: 사실이나 주장에서 호혜적 떳떳함을 잃지 않아야〉, 《신문과 방송》, 2020. 2., 11~15쪽.
[11]
2017년 5월 8일 예루살렘 프레스 클럽 개최 ‘The Freedom of the Press’ 콘퍼런스 연설 내용 “Best Obtainable Version of the Truth.” 중 일부.
[12]
Barrat, J. (2013). Our Final Invention: Artificial Intelligence and the End of the Human Era. New York: St. Martin’s Press. 정지훈 (역) (2016). <파이널 인벤션: 인공지능 인류 최후의 발명>. 서울: 동아시아.
[13]
Machine Bias’ Series of ProPublica
[14]
Angwin. J., 〈Facebook Quietly Ends Racial Ad Profiling〉, The Markup, 2020. 8. 29.
[15]
Angwin. J., 〈Can Big Tech Fix Its Racist Algorithms?〉, The Markup, 2020. 7. 25.
[17]
Hart. K., 〈What Axios knows about you〉, Axios, 2019. 6. 5.
이 연속 기획보도의 마지막은 “악시오스가 당신에 대해 알고 있는 것”이었다.
[18]
Fried, I., 〈What Amazon knows about you〉, Axios, 2019. 5. 2.
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close