네트워크 분석이 알려주는 온라인 혐오 집단 대응법
여러 플랫폼을 넘나드는 온라인 혐오 생태계의 회복력과 적응력을 네트워크 분석을 통해 보여준 연구를 소개합니다. 검열과 방임 사이 균형을 잘 잡으면서 혐오 표현을 어떻게 효과적으로 규제할 수 있을까요?
소셜 네트워크 서비스를 포함한 다양한 온라인 플랫폼에서는 혐오 발언과 집단을 적절하게 통제하고 대응하는 것이 중요합니다. 온라인 혐오 발언은 단순히 온라인 공간 상에서 불쾌감을 주거나 부정적 영향을 끼치는 데서 그치지 않고 실제로 폭력이나 혐오 범죄로 이어지는 경우도 적지 않죠. 다만 1) 소셜 미디어 특성 상 어떤 주장이든 확산 속도가 빠르고, 특히 익명인 경우 통제가 잘 되지 않기 때문에 2) 그리고 혐오 표현에 대한 규제는 항상 표현의 자유를 억압한다는 비난과 맞부딪히는 선택이기 때문에 어려운 과제 중 하나입니다.
일반적인 대응 방식은 크게 두 가지로 구분됩니다.
- 개인 단위로 유저 하나하나를 감시하여, 공격적이고 차별적인 발언을 하는 경우 규제하기
- 당연히 간편하거나 효율적인 방식은 아닐 수 있다.
- 다른 유저들의 신고에 의존할 수 있다. 도움이 되지만, 사실 유저들이 신고한다고 다 제재 먹일 수 있는 것도 아니다. 플랫폼의 정책과 방향성에 따라 2차 필터링이 필요.
- 특정 이데올로기나 사고방식을 혐오성으로 간주하고 관련된 모든 발언 또는 유저를 규제하기
- 편할 수 있지만, 플랫폼이 소위 ‘사상을 검열’한다는 혐의를 받을 수도 있다.
- 이 논문의 주요 연구대상인 KKK 정도면 이렇게 해도 되겠지만, 그 정도가 아니라면 어떤 걸 혐오성으로 볼 것이냐는 정말 다양한 층위의 논란이 발생할 수 있고.
- 그냥 검열한다는 말만 들으면 다행, 이건 검열하면서 왜 저건 검열 안 하냐로 욕 먹기도 한다.
아, 국내 사례 중 하나인 네이버와 카카오가 온라인 뉴스의 연예 섹션의 덧글을 없앤 건 둘 중 어디에 해당할까요? 어느 쪽도 아니네요. 다만 뉴스 덧글란이 아닌 대부분의 소셜 미디어 플랫폼에서 의견 표출의 장을 그냥 없애 버리는 것은 선택지가 아니기 때문에 그 조치는 예외적인 케이스라고 봐도 될 것 같습니다.
이번 글에서는 네트워크 분석을 사용하여 온라인 혐오 생태계를 살펴봄으로써 기존 접근과 살짝 다른 대응법을 제안한 연구를 한 번 읽어보겠습니다.
📄 N. F. Johnson et al., Hidden Resilience and Adaptive Dynamics of the Global Online Hate Ecology, Nature 573 (2019), 261–5.
🧐 요약하면 :
네트워크 분석을 통해 소셜 미디어 상 혐오 집단의 탄력성과 재생성을 발견하고, 이를 고려한 플랫폼의 대응 전략까지 다룹니다. 딱 다음 3가지로 요약이 되네요.
- 네트워크 관점에서 혐오 집단을 분석하면, 스스로 조직된 중간 규모의 온라인 혐오 집단들이 국가, 언어, 플랫폼을 뛰어넘는 탄력적인 ‘네트워크의 네트워크’로 연결되어 있는 형태를 발견할 수 있다.
- 이 형태의 혐오 집단은 단일 플랫폼에서 공격당할 경우 빠르게 다른 플랫폼으로 옮겨가 재생하며, 정체를 숨기고 다시 뒷문으로 돌아오기까지 한다.
- 이러한 특성을 고려하여 효율적일 것으로 예상되는 대응 전략을 제안한다.
🤔 이 연구가 왜 재미있었냐면 :
우선 네트워크 기반 접근 방식은 유저 개개인에 대한 정보가 없이도 혐오 생태계를 분석하여 대응방안을 내놓을 수 있다는 게 장점입니다. 데이터의 프라이버시 문제는 물론, 개인이 가지고 있는 어떤 특성과 그들의 혐오 발언 행위를 연결짓는 것에서 따라오는 논란에서도 벗어날 수 있죠. 저자들은 “끓는 물의 거품을 묘사할 때 물을 구성하는 분자에 대한 지식은 필요 없다”라는 비유를 쓰더라고요. (그리고 사실 퍼블릭 데이터만을 써서 분석했다고 했으니 애초에 개인 단위의 정보는 가지고 있지도 않았을 것 같고요.) 무엇보다 여러 플랫폼이 혐오발언 대응 목적으로 협업할 때 유저의 개인정보를 교환할 필요가 없다! 라는 것을 강조하고 있습니다.
또 하나의 플랫폼 내부에서 군집을 이룬 유해한 유저들을 상대할 때 가장 효과적인 방식일 거라고 짐작되는 방법인, ‘밝혀지는 대로 우리 플랫폼에 발도 못 붙이게 싹 다 제재!’하는 전략이 결과적으로는 무의미할 수 있다는 점도 상당히 의미 있는 발견이라고 할 수 있겠네요.
이어서 앞서 언급한 3가지를 한번 자세히 살펴보도록 하겠습니다.
혐오 집단, 네트워크의 네트워크
수많은 플랫폼과 수많은 주제의 혐오 집단 중에서도 이 연구가 집중해서 본 것은 페이스북과 브콘탁테, 그리고 백인 우월주의 단체인 KKK(Ku Klux Klan)입니다.
참고로 브콘탁테(ВКонта́кте; Vkontakte)는 러시아의 SNS로, 올해 기준 6억 4천만 이상의 유저가 이용하고 있는, 러시아어권에서 가장 유명한 소셜 미디어입니다. 유저의 발언이나 올라오는 파일에 대한 규제가 거의 없어서 불법 콘텐츠와 포르노 등이 유통되는 채널로도 쓰인다고 합니다.
위 그림은 여러 국가 간, 그리고 여러 플랫폼 간 하나의 국가/플랫폼 내부에서 형성된 혐오 집단(클러스터)가 다른 국가 혹은 플랫폼 상의 클러스터와 다양한 종류의 상호작용을 하면서 네트워크의 네트워크를 이루고 있음을 보여줍니다. (참고로 모든 분석과 시각화는 R과 Gephi를 썼다고 하고요.)
클러스터 간의 상호작용은 다양한 방식으로 일어납니다. 예를 들어 브콘탁테의 KKK 클러스터와 페이스북의 KKK 클러스터 간에는 다음과 같은 연결이 발생합니다. (순서대로 그림 상 A1, A2, A3로 표기)
- 미러링 (Mirroring) : 서로의 행동, 주장, 정치적 캠페인 등을 모방한다.
- 재탄생 (Reincarnation) : 특정 플랫폼에서 공격받았을 때 다른 플랫폼에 가서 재탄생하고, 심지어는 시간 차를 두고 원 플랫폼으로 돌아오기도 한다.
- 직접 연결 (Direct inter-cluster linkage) : 동일 유저가 두 클러스터 모두에서 활동하고 있다.
미러링은 예컨대 Stop White Genocide In South Africa 운동 (*남아프리카에서 백인들이 유의미하게 높은 빈도로 살해당하고 있다고 주장하는 백인 내셔널리즘 집단의 음모론)을 여러 클러스터가 동일하게 함께 하는 경우가 있을 수 있습니다.
재미있는 것은 재탄생 연결인데, 예를 들면 페이스북에서는 KKK와 관련된 모든 그룹, 유저을 다 제재해 왔습니다. 이때도 거의 규제가 전무한 브콘탁테에는 여전히 60개에 가까운 KKK 클러스터가 남아 있었습니다. 이 중에선 우크라이나 중심 클러스터도 포함되어 있었죠. 그러다가 2017년 경에 우크라이나 정부가 러시아와의 갈등으로 인해 러시아 소셜 미디어와 웹사이트 등을 전부 차단하면서, 우크라이나에서 브콘탁테를 사용하지 못하게 됩니다. 그러자 우크라이나의 브콘탁테 KKK 클러스터는 그대로 다시 페이스북으로 재진입했는데, 이때 KuKluxKlan을 키릴 문자로 기재하여 페이스북의 탐지망을 피해가는 방식으로 돌아왔다고 합니다. 페이스북이 조금의 관용도 없이 KKK 관련 유저나 발언들을 제재해왔음에도 불구하고 비교적 규제가 덜한 다른 플랫폼의 클러스터와의 연결 때문에 문제가 지속적으로 발생하게 된 것이죠.
단일 플랫폼의 규제가 역효과를 불러오는 이유
이 연구는 이러한 현상을 다음 모델을 사용하여 설명합니다.
한 플랫폼 안에 $c$개의 혐오 클러스터가 있고, 각 클러스터는 위의 언급된 3가지 종류의 연결을 통해 각자의 주장과 발언을 다른 클러스터로 전파하려고 합니다. 이때 각 클러스터마다 고정된 전파 확률 $q$를 가집니다. 그러나 만약 이 전파가 한 플랫폼 내부가 아닌 다른 플랫폼을 향하고, 만약 그 플랫폼이 현 플랫폼보다 규제가 더 심하다면(예를 들면 브콘탁테에서 페이스북으로 넘어가려면) 전파 비용 $R$ 이 발생합니다. 아예 제재당하거나 해당 주제에 대해 검열이 시작될 위험이 있기 때문이죠.
이를 고려하여 혐오 클러스터 간 평균 최단 경로 $\overline{\ell}$는 두 개의 플랫폼 간 이어지는 연결의 개수인 $\rho$ 의 함수로 표현됩니다.
우선 위 모델은 $\rho$ 가 증가할수록 $R$은 선형적으로 증가한다고 봅니다(연결이 많아질수록 혐오 집단의 가시성이 올라가며, 규제가 있는 플랫폼이라면 규제가 심화되기 때문). 예를 들어 페이스북이 현재 브콘탁테의 KKK 클러스터와 페이스북 내부 클러스터간의 연결이 많이 발생했음을 발견한다면, 그 악영향을 줄이기 위해 연관 집단을 제재하려고 할 것입니다. 이러한 제재는 의도치 않게 브콘탁테의 혐오 집단 간의 평균 최단 경로 $\overline{\ell}$ 를 감소시키고, 이는 그들 간 혐오의 전파 속도를 가속시킵니다. 이는 어느 정도 규모 있는 플랫폼 간 연결이 발생할 경우 ( $\rho > \rho_{min}$ ) 일어나는 단일 플랫폼 규제의 부작용입니다.
즉 복수의 플랫폼에서 각자의 조정 정책을 실행하며 여러 플랫폼에서 교차로 적용되는 규제 정책이 없다면, 오히려 혐오 집단의 회복탄력적 특성만 자극할 뿐이라는 것입니다.
어떻게 대응해야 할까?
이러한 특성을 고려하여 이 논문에서는 다음과 같은 4개의 전략을 제안하고 있습니다.
초록색이 플랫폼의 개입(intervention)을 의미하며, 빨간색은 혐오 클러스터, 파란색은 반혐오 클러스터. 클러스터 속 작은 동그라미들이 유저 단위.
처음 2개는 특정 유저들을 제재하는 Top-down 방식이고, 뒤의 2개는 직접적으로 플랫폼이 제재를 하기보다는 특정 유저 간의 상호작용을 유발하여 혐오 클러스터의 성장을 저해하는 Bottom-up 방식으로 구분됩니다.
- 어느 정도의 크기에 도달한 혐오 클러스터를 없앤다.
- 유저단위의 제재는 일부만 랜덤으로 한다.
- 특정 클러스터를 모조리 제재해버리는 것은 그들이 함께 다른 플랫폼으로 이사갈 가능성을 높이고, 검열의 의혹을 받을 수 있으며, 심하게는 단체로 소송이 걸릴 수도 있다.
- (유저를 제재할 때 소송 안 걸리는 것도 진짜 중요하다…)
- 유저를 랜덤하게 제재하는 것은 각 혐오 클러스터를 분리하는 효과가 있다.
- 특정 클러스터를 모조리 제재해버리는 것은 그들이 함께 다른 플랫폼으로 이사갈 가능성을 높이고, 검열의 의혹을 받을 수 있으며, 심하게는 단체로 소송이 걸릴 수도 있다.
- 혐오 클러스터를 반 혐오 클러스터와 붙여놓는다.
- 온라인 상에서 혐오발언을 주로 하는 사람이 있다면 혐오발언과 싸우는 걸 주로 하는 사람이 있다.
- 이 사람들을 일종의 반혐오(anti-hate) 클러스터를 이루도록 권장하고, 혐오 클러스터와 교류하도록 하면 그들의 혐오 내러티브를 중립화하는 효과를 낳을 수 있다.
- 혐오 클러스터를 의견이 불일치하는 다른 혐오 클러스터와 붙여놓는다.
- 보통 혐오 클러스터들은 의견이 극단적인 경우가 많아서 다른 혐오 집단이랑은 또 안 맞는다.
- (ex. 같은 백인 우월주의자들인데 어떤 집단은 히틀러 같은 정권 하의 하나의 통일된 유럽을 추구하고 다른 집단은 아닐 수 있음)
- 따라서 이러한 집단 간 충돌을 유발하는 것도 전략 중 하나가 될 수 있다.
- 보통 혐오 클러스터들은 의견이 극단적인 경우가 많아서 다른 혐오 집단이랑은 또 안 맞는다.
이때 위 4가지는 그냥 제안일 뿐 이 연구 내에서 추가 실험이나 분석이 이뤄진 부분은 없다는 점도 덧붙여 둡니다.
글이 더 길어지기 전에 이 정도로 정리가 될 것 같네요. 대상과 맥락은 다르지만 저도 유저 제재를 목적으로 하는 분석 및 모델링 업무를 주로 하고 있어 개인적으로 큰 흥미를 느꼈던 연구였습니다. 더 궁금한 분들은 논문과 저자의 이전 연구도 읽어 보시기를 추천합니다.