“내가 보는 뉴스가 세상의 전부일까.”
스마트폰을 열면 사람들은 자신이 좋아할 만한 기사와 영상, 게시물을 추천받는다. 검색창에 단어 몇 개만 입력해도 알고리즘은 취향과 관심사를 분석해 ‘맞춤형 정보’를 제공한다. 문제는 이 과정에서 이용자가 자신과 비슷한 의견만 반복적으로 접하게 되는 현상, 이른바 ‘필터버블(Filter Bubble)’이 심화되고 있다는 점이다.
필터버블은 미국 인터넷 활동가인 일라이 패리저가 제시한 개념이다. 인터넷 플랫폼이 이용자의 클릭 기록, 검색 이력, 좋아요, 시청 시간 등을 분석해 취향에 맞는 정보만 보여주면서, 마치 비눗방울 안에 갇힌 것처럼 제한된 정보 환경에 놓이게 된다는 의미다.
예를 들어 정치 성향이 보수적인 이용자는 보수 성향 기사와 영상만 추천받고, 진보 성향 이용자는 반대 성향 콘텐츠만 소비하게 되는 식이다. 환경 문제, 젠더 갈등, 부동산 정책처럼 사회적 논쟁이 큰 이슈일수록 이러한 현상은 더욱 두드러진다.
전문가들은 필터버블이 단순한 정보 편의 수준을 넘어 사회 갈등을 증폭시킬 수 있다고 우려한다. 서로 다른 관점을 접할 기회가 줄어들면서 타인의 의견을 이해하기보다 “내가 보고 있는 정보만 진실”이라는 확신이 강화되기 때문이다. 이는 정치 양극화와 혐오 표현 증가, 가짜뉴스 확산으로 이어질 가능성이 있다는 지적도 나온다.
특히 짧은 영상 중심의 플랫폼 환경은 자극적이고 감정적인 콘텐츠를 빠르게 확산시키는 경향이 있다. 알고리즘은 이용자의 체류 시간을 늘리는 방향으로 작동하기 때문에, 분노와 불안을 유발하는 콘텐츠가 반복 추천되는 사례도 적지 않다.
문제는 이용자 스스로도 필터버블 안에 있다는 사실을 인식하기 어렵다는 점이다. 플랫폼은 “당신이 좋아할 만한 정보”를 제공할 뿐이라고 설명하지만, 결과적으로는 이용자의 시야를 좁히고 판단 기준을 편향시킬 수 있다는 비판이 제기된다.
이에 따라 해외에서는 플랫폼 알고리즘의 투명성을 높여야 한다는 논의가 이어지고 있다. 일부 국가는 추천 알고리즘 공개 범위를 확대하거나, 이용자가 추천 방식을 직접 선택할 수 있도록 하는 제도 마련에 나서고 있다.
전문가들은 필터버블을 완전히 없애기는 어렵지만, 이용자의 태도 변화가 중요하다고 조언한다. 자신의 의견과 다른 기사도 의도적으로 읽고, 여러 언론과 다양한 관점을 비교하며 정보를 소비하려는 노력이 필요하다는 것이다.
정보가 넘쳐나는 시대지만, 정작 중요한 것은 얼마나 많은 정보를 보느냐보다 얼마나 다양한 시각을 접하느냐에 있다는 지적이다.