미래가치를 창출하는 글로컬 산학일체 혁신대학
디지털 기술의 발전과 함께 소셜미디어 온라인 플랫폼이 우리의 일상에 깊숙이 자리 잡았다. 그러나 이들이 사용자 경험을 최적화하기 위해 활용하는 알고리즘이 때때로 극단주의를 조장하고 사회적 분열을 심화시키는 부작용을 초래하고 있다.
알고리즘이 이용자의 관심을 끌기 위해 점점 더 자극적이고 편향된 콘텐츠를 추천하는 현상은 ‘알고리즘 극단주의(Algorithnic Extremism)’라는 문제로 대두되고 있다.
대부분의 온라인 플랫폼은 사용자의클릭, 조회 시간, 반응 등을 분석해 맞춤형 콘텐츠를 제공하는 알고리즘을 운영한다. 문제는 이러한 알고리즘이 단순히‘사용자가 좋아할 만한 것’을 추천하는 데 그치는 것이 아니라, 더 강렬한 반응을 끌어낼 수 있는 콘텐츠를 우선으로 배치한다는 점이다. 특히, 정치적 뉴스나 사회적 이슈를 다루는 콘텐츠의 경우 중립적인 정보보다 감정적이고 자극적인 내용이 더 많은 클릭을 유도하기 때문에 극단적인 의견을 가진 게시물이나 영상이 더 많이 노출되는 경향이 있다. 이 과정에서 사용자들은 자신과 비슷한 의견만 접하게 되는 ‘필터 버블(Filter Bubble)’에 갇히고, 시간이 지날수록 더욱 극단적인 정보에 노출될 가능성이 커진다. 이러한 환경은 특정 이념이나 편향된 시각을 강화하며, 사회적 대립을 심화시키는 요인이 된다.
알고리즘 극단주의는 온라인에서의 논쟁을 넘어 현실 사회에서도 직접적인 영향을 미친다. 가짜 뉴스나 음모론이 확산되면서 대중의 신뢰가 흔들리고, 정치적양극화가 심화되고 있다. 실제로 2021년 미국 국회의사당 폭동 사건이나 유럽 일부 국가에서 발생한 극단주의 테러 사례들은 온라인에서 급진적인 정보 확산과 관련이 있다는 분석이 있다.
또한, 알고리즘이 특정 집단을 대상으로 한 혐오 콘텐츠를 반복적으로 노출할 경우, 차별 배제의 정서를 조장할 위험이 있다. 이는 사회적 갈등을 유발하고, 때로는 폭력적인 행동으로 이어질 수도 있다.
알고리즘 극단주의의 문제를 해결하기위해서는 기술 기업들이 더욱 책임감 있는 운영 방식을 채택해야 한다. 알고리즘이 특정 유형의 콘텐츠를 과도하게 추천하지 않도록 조정하는 노력이 필요하다. 또한, 이용자들도 스스로 정보의 다양성을 확보하려는 노력이 필요하다. AI가제공하는 정보에만 의존하지 않고, 다양한 출처에서 뉴스를 접하며 균형 잡힌 시각을 유지하는 것이 중요하다. 더불어, 자신이 소비하는 정보의 출처와 신뢰성을 비판적으로 점검하는 습관을 기르는 것도 필수적이다.
알고리즘은 인간의 행동을 분석하고 최적화하는 강력한 도구이지만, 그 방향성이 올바르지 않을 경우 예상치 못한 사회적 문제를 야기할 수 있다. 기술이 단순한 이윤 창출을 넘어 사회적 책임을 다할 수 있도록 감시하고 조정하는 것은 기업, 정부, 그리고 사용자 모두의 몫이다. 알고리즘 극단주의를 방치한다면 사회적 양극화는 더욱 심화될 것이며, 이를 해결하기 위한 논의와 실질적인 대응책 마련이 절실하다.
글 이현준 기자