소식지

[함께 보는 정보인권] 구글은 어떻게 여성을 차별하는가{/}‘공정한 알고리즘’이라는 허상

By 2019/09/18 10월 17th, 2019 No Comments
제목 : 구글은 어떻게 여성을 차별하는가 (원제 : Algorithms Of Oppression)
지은이 : 사피야 우모자 노블 (Safiya U. Noble)
출간: 2019년 07월 29일, 한스미디어

 

인터넷 검색은 이제 우리 생활에서 떼려야 뗄 수 없는 요소가 되었다. 간단하게는 요리 방법을 찾아보는 것에서부터 논문을 읽기 위해서나 숙소를 예약하기 위해서도 우리는 검색이라는 매개를 통해야만 원하는 정보와 연결될 수 있다. 하루에도 수없는 검색을 하면서 우리가 잘 떠올리지 못하는 생각이 있다. 검색 엔진의 뒤에는 누가 있냐는 것이다.

이 책의 저자는 어느 날 자신의 딸과 조카들이 좋아할 만한 놀이를 찾기 위해 ‘흑인 소녀(black girls)’라고 검색하다 당황스럽고 불쾌한 경험을 하게 된다. 검색 결과에는 흑인 소녀를 성적으로 소비하는 콘텐츠만이 가득했기 때문이다. 검색 결과의 가장 상단에는 ‘달콤한 흑인 여성 성기닷컴’이라는 포르노그래피 사이트가 있었다. 무엇이 이런 결과를 만들어낸 걸까? 저자는 의문을 품기 시작한다. 그리고 흑인 여성에 대한 성차별과 인종차별이 포함된 정보가 상위에 나타나는 것은 누구를 위한 것인지, 왜 이러한 정보가 걸러지지 않은 것인지에 대해 파고들기 시작했다.

책에는 저자가 ‘흑인 소녀’ 외에도 여러 가지 문구로 검색해 본 결과가 실려 있다. ‘흑인 여성은 왜 그토록’ 이라는 검색어에는 ‘~화를 내는가’, ‘~목소리가 큰가’ 라는 자동완성 문구가 나타났고 ‘백인 여성은 왜 그토록’ 이라는 검색어에는 ‘~예쁜가’, ‘~아름다운가’라는 문구가 나타났다. 또한 ‘아름다운’ 이라는 단어로 이미지를 검색했을 때에는 대부분 백인 여성의 사진이, ‘추한’ 이라는 단어로 검색했을 때는 대부분 유색인종 여성의 사진이 나타났다. ‘교수 스타일’로 검색했을 때는 백인 남성이 정장을 차려입은 사진이 대부분이었다. 이외에도, ‘미적분을 공부했던 영어 전공 여학생’을 검색하자 구글은 ‘미적분을 공부했던 영어 전공 남학생’으로 자동 수정할 것을 추천했다.

구글 검색결과는 공정하지 않다.

 

예시를 보면 알 수 있듯 구글의 검색 결과는 인종차별적이며, 여성은 성적 이미지로 소비하고, 전문직에는 백인 남성의 이미지를 덧씌운다. 인터넷 검색 결과가 현실의 차별을 그대로 추종하는 것이다. 저자는 이를 바탕으로 구글의 검색엔진은 결코 여성이나 유색인의 생각과 관점을 반영하지 않는다고 지적하고, 구글같은 ‘광고 회사’가 믿을만한 정보를 제공하는지 가려내는 안목을 길러야 한다고 말한다.

실제로 구글같은 독점적 정보 기업은 검색 분야를 막론하고 회사의 이해관계에 따라 검색 순위를 조정한다. 구글 뿐만이 아니라 네이버, 다음 등도 마찬가지다. 이때 후순위로 밀리는 것은 막대한 광고비를 지불할 수 없는 소규모 회사의 정보다. 저자는 클릭 수와 광고비에 따라 노출 우선순위가 주어지는 관행은 앞으로 더욱 심화될 것이며 마찬가지로 역사적으로 왜곡되고 억압됐던 여성의 이미지나 정체성도 개선되지 못할 것이라고 지적한다. 심지어 이러한 구시대적인 미디어 관행이 새 시대의 영역으로 나아가는 발판의 역할을 할 것이라고도 경고한다.

더 무서운 점은 구글 등 포털 회사들이 이러한 공작들을 숨긴 채로 사람들이 어떠한 ‘공정한 알고리즘’이 클릭 수에 따라 산출된 선호도를 통해 이러한 검색 결과가 나오게끔 했다고 믿게 하는 데 있다. 흑인 여성을 성적으로 소비하려는 시도가 많았기 때문에 알고리즘이 그에 따라 노출순위를 조정한 것 뿐, 구글에는 책임이 없다는 주장이 실제로 있다. 이러한 주장에 대해 저자는 그렇기 때문에 웹 순위를 결정하는 검색 엔진 로직은 민주주의가 허용한 결함이 수두룩한 도구에 불과하다며, 검색 엔진이 표출하는 검색 순위와 인기도, 신뢰성, 상업 요소 등 여러 현상들을 철저히 검증해야 한다고 강조한다. 실제로 마우스로 클릭해 우리가 선호도 등의 데이터를 제공한 ‘보팅’ 이상의 요소들이 검색 결과에 반영되고 있다고도 주장한다.

이에 인종사회학자 마이클 오미와 하워드 위넌트는 미국이 독재에서 민주주의로 변신은 했지만 오히려 민주주의가 인종차별을 은폐하는 수단이 됐다고 주장하기도 했다. 웹 업계를 살펴보면 실리콘밸리의 흑인들은 저임 노동에 종사할 뿐 아니라 실리콘밸리가 만들어내는 알고리즘 상품들은 본모습을 숨긴 채 민주주의와 회사 내규 뒤에 숨어 억압과 왜곡을 이어가고 있다는 것이다.

검색 결과에 여성, 소녀, 유색인 여성에 대한 성차별적이고 포르노그래피화된 정보가 가장 ‘인기 있는’ 자료로 표출되는 일, 그리고 그것을 어쩔 수 없다고 내버려두는 일에 구글이 책임이 없을 수는 없다. 구글이 자신의 알고리즘에 대한 책임이 없다면 도대체 누가 책임져야 하는 걸까? 구글은 법률에 저촉되는 경우에는 나치주의 등의 검색 결과를 인터넷 사용자에게 알리지 않은 채로 삭제하거나 제한하기도 했다. 사회적 조건에 따라 충분히 바꿀 수 있으며 얼마든지 조작도 가능하다. 검색 결과는 객관적이지도, 일관적이지도 않는 사실을 구글은 그저 알고리즘의 뒤에 숨어 모르는 척 할 뿐이다. 알고리즘 역시도 사람의 손으로 설계된 것이라는 사실을 사람들이 되도록 영원히 모르길 바라면서.

기록과 정보이란 권력

 

하지만 안타깝게도 검색 결과는 쉽게 대중의 신뢰를 얻어 사실처럼 확증되곤 한다. 왜곡되고 편향된 정보가 범람하는 것은 사실 인터넷 시대에만 벌어진 일은 아니다. 그런데 이제 무엇이 더 문제가 되는가 하면, 그러한 편견이 구글의 검색 엔진을 통해 규정되고 개념화된다는 점이다. 검색 엔진의 검색 결과가 역사적으로 편향된 사회적 권력 양상을 기정사실화해 기성의 관점을 영속시키는 하나의 수단이 되고 있는 것이다.

저자도 이에 대해 우려하며, 검색 결과가 가지는 이러한 영향력 때문에 단순히 원하는 것을 찾지 못한다는 당황스러움을 넘어서는 일들이 발생한다고 짚고 있다. 구글이 가진 힘, 검색 결과를 결정하는 정보 시스템이 현실의 삶에 어떤 영향을 끼치는 지 살펴볼 필요가 있다는 것이다.

저자에 따르면 구글은 모든 단체와 그룹, 문화적 양상 등을 규정하는 데 상당한 수준의 담론적 주도권을 쥐고 있다. 저자는 기록과 정보는 웹사이트를 통해 ‘유통’되며 유통 행위는 그 자체로 ‘권력’이라고 말한다. 심지어 구글이 원한다면 그 정보는 영원히 존재하며 잊힐 권리에 대한 통제권도 있다. 이러한 체계는 모든 순간을 데이터베이스화해 판매가 가능케 하면서도 정보주체의 권리를 보장하지 않는다.

디지털성폭력으로 인해 고통받는 여성들은 물론, 흑인과 유색인종이 머그샷 등의 검색 결과의 삭제를 위해 대행 서비스 업체에 돈을 지불하는 일은 비일비재하다. 구글에 10대 흑인을 검색하면 무수한 머그샷이 나오고, 10대 백인을 검색하면 건전한 모습이 나오는 상황에서 이를 통제할 수 있는 힘은 오직 구글에게 있다는 것이다. 검색 결과는 개인이나 집단이 임의로 만들었을 수도 있고 이해관계가 작용하는 편향적인 요소인데 단지 구조화되어 나타난다는 사실만으로도 구체적인 현실이 되어버리고 만다.

끊임없이 의심하라

 

인터넷이 인간에게 자유를 가져다주고 유토피아를 실현시킬 매체라고 생각하는 사람이 현재는 많이 줄어들었을 것이다. 데이비드 군켈은 인종과 성과 계층이 교묘히 가려지는 사이버 공간에서는 ‘현재의 지배시스템이 영속화되고 재생산된다’고 지적했다. 정보기술을 통해 인종/소수자 차별이 지속적으로 벌어지고 있는 현실을 직시하지 못한다면 개선책을 만드는 일은 너무나 어려울 것이다. 웹에서 누군가가 알고리즘을 이용해 여성들이 성적 대상으로 재생산하고 유색 인종의 정체성이 왜곡하고 있다면 우리는 그것에 대한 사회적 통제를 만들어내야 한다.

저자는 특히 차별과 억압을 개선하려는 여러 노력 중에서도 인터넷 정보의 편향성이 인종차별과 성차별을 고착화하는 현실을 고발하는 일을 우선시해야 한다고 짚으며, 빅데이터를 왜곡하는 일은 단순한 정보의 왜곡을 넘어서는 심각한 차원의 문제이기 때문이라고 밝혔다.

수많은 분야에서 알고리즘이 마치 공명정대한 신인 것처럼 등장하고 있는 현실에서 저자의 우려는 분명 두려운 일이다. 머신러닝을 통해 스스로 학습할 수 있는 힘을 가졌다는 알고리즘의 공정성과 투명성이 얼마나 허상에 가까운 것인지 우리는 여러 단어의 검색 결과를 통해 보았다. 알고리즘도 결국 사람이 설계하는 것이다.

이러한 관점에서 보면 구글의 알고리즘은 죄가 없을 수도 있다. 왜곡된 데이터셋을 받아 편향된 학습을 해 그에 따른 결과-소위 주류와 자본이 원하는-를 도출했을 뿐이기 때문이다. 문제는 이렇게 알고리즘에 의사결정을 맡기면 편향된 검색 결과가 나온다고 해도 수정을 요구하거나 피해를 입증하기가 어려워진다는 것이다.

실제로 구글은 여러 번 알고리즘을 수정하면서도 어떤 지적사항을 반영했고 무엇을 위한 수정이었는지 밝히지 않았다. 유튜브, 페이스북 등도 마찬가지다. 엄청나게 많은 사람들의 삶에 직접적인 영향을 주는데도 검증조차 없고 소수자가 개발 과정에 참여하는 일도 요원하다. 그저 ‘믿어라’. 그들이 하는 말은 오직 그것 뿐이다.

저자는 말한다. 상업적 이익을 위해 유포되는 정보들을 알아내는 능력이 우리에게 필요하다고. 우리는 끊임없이 의심하고 검증해야 한다.

또한 비록 구체적인 방향은 제시하지 않았지만 저자는 올바른 온라인 정보 유통을 위한 정책 지원과 윤리적이지 않은 인공지능이 초래할 문제로부터 우리를 보호할 공공정책 마련이 필요하다고 계속해서 주장했다. 자동화된 의사결정 시스템이 지대한 영향력을 행사하게 되기 전에 우리는 사회적 통제에 대한 합의와 높은 수준의 보호장치를 반드시 먼저 가져야 할 것이다.