
편집자주 :
인도-파키스탄 갈등을 계기로 디지털 플랫폼을 통한 허위정보와 혐오 발언의 확산이 다시 문제로 떠올랐습니다. 자극적이고 극단적인 콘텐츠는 사회적 분열을 심화시키고 공론장을 위축시킵니다. 지난 계엄 이후 한국에서도 비슷한 일이 발생했습니다. 여기에 딥페이크 같은 신기술을 이용한 디지털 성폭력의 유통 경로가 주요 플랫폼인 점도 우려가 큽니다. 이는 단순히 사건의 나열이 아니라, 플랫폼의 구조와 운영 방식이 사회적 위험을 만들어 내고 있다는 것을 보여줍니다.
플랫폼은 오랫동안 ‘중개자’로서 표현의 자유를 보장하는 역할이 강조돼 왔습니다. 하지만 지금은 알고리즘이 이용자가 어떤 콘텐츠를 보게 될 지를 사실상 결정하는 역할을 하며 여론 형성에도 직접적인 영향을 미치고 있습니다. 그럼에도 불구하고 데이터와 알고리즘이 영업비밀이라는 이유로 외부의 감독을 피하고 있습니다. 그러나 이제는 연구자와 공적 기관이 장기적으로 그 사회적 영향을 평가할 수 있도록 접근을 보장해야 한다는 요구가 커지고 있습니다.
이번 APC 성명은 플랫폼의 무책임을 비판하며 인권을 중심에 둔 긴급 대응 체계 마련, 알고리즘과 데이터의 투명성 확보, 표현의 자유 보호와 인권 실사의 강화를 요구합니다. 더불어 이용자가 문제를 신고했을 때 책임 있는 대응을 보장하고, 허위정보와 디지털 성폭력 같은 심각한 위해에 대응하기 위해서 플랫폼의 투명성과 책무성을 제도적으로 강화하는 것이 필요하다고 강조하고 있습니다.
번역오류는 jinbo.policy 골뱅이 gmail.com 으로 알려주세요.
제목 : 인도-파키스탄 갈등 속 허위정보와 온라인 폭력이 확산되는 가운데, 기술 플랫폼의 무대응을 규탄한다
원문제목 : APC condemns tech platforms’ inaction as disinformation and online violence escalate during India-Pakistan conflict
원문링크 : https://www.apc.org/en/pubs/apc-condemns-tech-platforms-inaction-disinformation-and-online-violence-escalate-during-india
일시 : 2025년 6월 27일
작성 : APC(Association for Progressive Communications)
APC(진보통신연합)는 최근 인도-파키스탄 갈등 기간 동안 허위정보, 혐오 발언, 검열이 급증했음에도 주요 디지털 플랫폼들이 효과적으로 대응하지 못한 것에 대해 깊은 우려를 표합니다. 이러한 피해는 우연이 아니라, 참여를 극대화하는 비즈니스 모델이 분열적 콘텐츠를 증폭시키고 특히 위기 상황에서 이용자 안전을 뒷전으로 미루는 결과로 나타난 것입니다. 플랫폼 운영이 인권 의무와 부합하도록 하기 위해서는 시급한 구조적 개혁이 필요합니다.
국가 차원의 인터넷 검열 강화와 국경 양측 국민들을 극단적인 감정과 혼란으로 몰아가는 주류 언론의 허위정보 확산에 더해, 최근 몇 주간 인도와 파키스탄 간 긴장이 고조되면서 소셜미디어 플랫폼에서도 혐오 발언, 허위정보와 잘못된 정보가 급격히 늘어났습니다. 특히 종교적·성별 정체성을 겨냥해 비인간적이고 모욕적인 언어를 사용하는 사례가 두드러졌습니다. 특히 우려되는 점은 인도 내 우익 계정들이 퍼뜨리는 반무슬림 선동으로, 이는 전 세계적으로 확산되는 이슬람혐오의 일환이기도 합니다. 이러한 콘텐츠는 카슈미르인과 인도 무슬림처럼 직접적으로 표적이 되는 이들뿐 아니라, 유사한 정체성을 공유하는 다른 사람들에게도 피해를 줍니다. 이미 주변화된 공동체에게 이 같은 선동은 신체적·심리적·경제적 안전에 실질적인 위협이 되고 있습니다.
양국의 소셜미디어 이용자들 사이에서는 성별에 기반한 폭력적 언사가 더욱 증폭되고 있습니다. 이는 비하적 발언과 모욕뿐 아니라, 여성을 갈등 속에서 소모품처럼 취급하려는 비인간적인 언어 사용을 통해 나타나고 있습니다.
미디어 플랫폼 전반에 걸친 혐오와 허위정보의 급속한 확산은 분노와 잘못된 정보가 끊임없이 되풀이되는 악순환을 부추기며, 거짓을 대중의 기억 속에 각인시켜 평화를 향한 노력을 약화시키고 있습니다. 그러나 소셜미디어 플랫폼들은 이에 대해 거의 대응하지 않았습니다. X는 인도 정부의 계정 차단 명령을 비판하는 성명을 발표했지만, 허위정보 확산을 억제하기 위한 확실한 조치는 취하지 않았으며, 커뮤니티 노트 기능은 비효과적일 뿐 아니라 쉽게 조작될 수 있음이 드러났습니다. 페이스북, 유튜브, 틱톡 등 다른 플랫폼들도 혐오 발언과 허위정보 급증에 대해 의미 있는 대응을 하지 못한 상황입니다.
최근 몇 년간 X가 신뢰와 안전 프로그램을 대폭 축소한 것, 그리고 메타가 여성 등 취약 집단에 대한 보호 조치를 후퇴시키고 팩트체킹을 약화시키며 다양성·형평·포용(DEI) 정책을 철회한 사실은 소셜미디어 기업들이 이용자에게 안전한 플랫폼을 제공하겠다는 약속이 얼마나 부실한지를 여실히 드러내고 있습니다. 이는 갈등 상황에서 이용자들이 얼마나 불안정한 처지에 놓이게 되는지를 보여줍니다.
이번 위기는 기술 플랫폼의 구조적 실패를 여실히 드러냈습니다. 이들 기업의 비즈니스 모델은 인권과 안전보다 참여와 이윤을 우선시하며, 불투명한 알고리즘과 수익화 정책은 이용자 참여를 극대화하기 위해 설계되어 분열적이고 선동적인 콘텐츠를 증폭시켰습니다. 그 결과 증오, 공포, 적대감이 만연한 환경이 조성되었습니다. 참여와 이윤 극대화를 위해 최적화된 플랫폼 구조는 분노·양극화·선정성을 체계적으로 보상하며, 해로운 콘텐츠를 단순한 오류가 아니라 설계된 특징으로 만들어버립니다. 이번 사태는 예외적 사건이 아니라, 플랫폼의 작동 원리가 어떻게 안전과 책임성을 끊임없이 훼손하는지를 보여주는 극명한 사례이며, 구조적 개혁이 시급하다는 점을 다시금 확인시킵니다. 유사한 방치는 미얀마에서도 기록된 바 있으며, 페이스북이 로힝야족에 대한 선동적 선전을 확산시켜 대규모 폭력과 집단학살로 이어진 사례가 대표적입니다.
인도-파키스탄 갈등 속에서 플랫폼들은 민족주의를 선동하고 분열을 심화시키는 확인되지 않은 선정적 콘텐츠를 증폭시켰을 뿐 아니라, 국가가 주도하는 검열과 반대 의견 억압까지 가능하게 만들었습니다. 인도 정부는 인도 및 국제 언론사, 파키스탄 언론 매체, 카슈미르인들의 목소리, 독립적으로 팩트체킹을 하는 인도 계정을 포함해 8,000개가 넘는 X 계정을 차단하라는 명령을 내렸습니다. 이 조치는 현지 직원들에게 막대한 벌금과 징역형 위협을 동반했으며, 이미 불안정한 상황 속에서 표현의 자유와 정보의 자유로운 흐름을 더욱 억압했습니다. 이는 파키스탄 정부가 자국 내 X 차단을 해제한 바로 다음 날 이루어졌는데, 파키스탄 정부는 이를 인도에 대한 “내러티브 전쟁”에 참여하기 위한 조치라고 설명했습니다. X는 2024년 2월부터 파키스탄에서 금지되어 있었습니다. 한편 파키스탄 정부는 허위정보 확산을 이유로 인도 유튜브 채널 16개, 동영상 링크 31개, 웹사이트 32개를 차단했습니다.
이처럼 갈등이 고조되는 순간에는 소셜미디어 기업들이 더욱 신속하고 책임 있는 기준에 따라 행동하도록 요구받아야 합니다. 플랫폼에서 공유되는 정보가 미치는 심대한 영향을 고려할 때, 재난 대응 조치의 디지털 버전에 해당하는 긴급 프로토콜을 마련해, 권리에 기반한 신속한 대응으로 피해를 완화하는 것이 반드시 필요합니다. 이러한 체계에는 해로운 콘텐츠에 대한 강화된 조정, 인권 실사 절차의 신속한 수행, 그리고 알고리즘 편향이든 의도적 조치든 간에 급진화를 방지하기 위한 엄격한 중립성 확보 장치가 포함되어야 합니다.
갈등과 위기 상황에서 플랫폼이 책임 있게 대응하도록 하기 위해, APC는 플랫폼들에 다음과 같이 요구합니다:
① 위기 대응 프로토콜과 극단주의 방지 장치 마련: 플랫폼은 분쟁 상황에 대비해 긴급 대응 체계를 채택해야 하며, 여기에는 신속한 콘텐츠 조정 강화, 임시적인 알고리즘 조정, 독립적 감독이 포함되어야 합니다. 이를 통해 급진적이고 선동적인 콘텐츠의 확산을 방지해야 합니다. 이러한 프로토콜은 시민사회와 함께 공동으로 개발하고 지역적 맥락을 반영해야 하며, 투명하고 일관된 공개 기준에 따라 운영되어야 합니다. 또한 이러한 장치가 플랫폼 통제 확대나 정당한 표현 억압에 악용되지 않도록 독립적 감독을 반드시 보장해야 합니다.
② 표현의 자유 보호: 플랫폼은 반대 목소리, 독립 언론, 인권 옹호자를 겨냥하는 국가 검열 명령에 따르지 않아야 합니다. 최소한 정부 요청에 따라 이루어진 모든 콘텐츠 삭제 조치에 대해서는 공개적으로 기록하고 그 근거를 명확히 설명해야 합니다.
③ 의무적 인권 실사 수행: 소셜미디어 플랫폼은 특히 분쟁 지역에서 정기적이고 독립적인 인권 영향 평가를 실시하고 그 결과를 공개해야 하며, 취약한 공동체에 대한 위험을 완화하기 위한 구체적 조치를 취해야 합니다. 여기에는 최근의 대규모 인력 감축과 정책 후퇴로 인해 취약 집단의 안전이 크게 훼손된 상황을 바로잡기 위해, 신뢰와 안전 메커니즘을 복원하고 강화하는 조치도 포함됩니다.
④ 알고리즘 운영의 투명성 보장: 기업은 알고리즘이 콘텐츠를 어떤 방식으로 순위 매기고 추천하는지, 참여도를 정확성보다 우선하는지 여부를 포함해 공개해야 하며, 이러한 시스템을 감사할 수 있는 독립적 감독 장치를 마련해야 합니다.
⑤ 공정한 콘텐츠 조정 도입: 플랫폼은 다국어를 지원하고 맥락을 인식하는 조정 시스템에 충분히 투자해야 하며, AI에만 의존하지 않고 지역 전문가를 고용해 위기와 분쟁 상황의 특수한 요구에 맞춰 모든 지역과 언어에서 동등하게 보호와 집행이 이루어지도록 해야 합니다.
⑥ 해로운 콘텐츠의 수익화 선제적 차단: 허위정보와 혐오 콘텐츠의 수익화를 금지하는 정책을 효과적으로 이행하고, 반복적으로 위반 사례가 지적된 계정과 페이지에 대해서는 광고 수익, 인플루언서 지급, 알고리즘 노출 강화를 선제적으로 차단해야 합니다.