6
신문과 방송 706 필터버블 논란, 실체없는 기우인가 김선호 한국언론진흥재단 선임연구위원 필터버블, 플랫폼의 예방 노력이 중요 특집 필터버블

Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

신문과 방송 7월 06

필터버블 논란, 실체없는 기우인가

김선호 / 한국언론진흥재단 선임연구위원

필터버블,플랫폼의 예방 노력이 중요

특집 필터버블

Page 2: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

신문과 방송 7월 07

디지털 기술은 뉴스 생산과 소비의 기회를

확대했다. 저렴한 비용으로 출판이 가능해지면서

인터넷 언론사 수가 증가하고 생산되는 뉴스 기사

수도 늘었다. 이용자들은 여러 언론사의 온라인

홈페이지에서 다양한 뉴스를 접할 수 있게 됐다.

게다가 뉴스와 이용자를 연결해주는 검색엔진, 뉴스

수집 서비스, 소셜미디어 같은 디지털 플랫폼이

등장하면서 뉴스 소비는 다양한 경로로 분산됐다.

이런 디지털 뉴스 생태계는 사람들에게 어떤 영향을

미칠까? 일부 비평가들은 디지털 기술 덕택에

사람들이 다양한 관점을 접할 수 있는 기회가

확대됐다고 긍정적으로 평가한다. 반면, 다른

비평가들은 디지털 기술이 다양한 관점을 접할 수

있는 기회를 축소하고 사회를 이념적으로 갈라놓는

데 한몫한다고 우려한다.

필터버블(Filter Bubble)은 시민단체 무브온

이사장 일라이 파리저(Pariser, 2011)가 자신의

저서를 통해 대중화한 개념으로 최근 디지털

기술이 가져올 수 있는 부정적 결과를 대표하는

말로 쓰이고 있다. 파리저가 말하는 ‘필터’란

플랫폼이 사용하는 개인 추천 알고리즘을 뜻한다.

검색엔진이나 소셜미디어가 사용하는 추천

알고리즘은 이용자 개인이 원하거나 좋아할 만한

정보를 찾아주는 맞춤형 서비스를 제공한다. 개인

추천 알고리즘은 이용자에게 편리함을 제공하기도

하지만, 민주주의에 위험을 초래할 수도 있다.

개인 맞춤형 서비스는 반대 의견이나 관심이

없는 정보가 이용자에게 전달되는 것을 차단하고

이용자 개인의 관심, 사회 이념, 정치 성향에 맞는

콘텐츠만 선별적으로 제공함으로써 알고리즘이

만들어놓은 ‘버블’ 속에 갇히게 만들 수 있다. 버블에

갇혔을 때, 개인은 다양한 관점으로 사고할 기회를

놓치고 자신의 이념 성향을 강화하게 되는 한편,

사회적으로는 서로 다른 이념이나 정치 성향을 가진

사람들 사이에 인종 분리(Segregation)와 유사한

군집 현상이 발생할 가능성이 있다는 것이다.

에코 챔버에서 필터버블로

필터버블에 대한 파리저의 경고가 전혀 새로운 것은

아니다. 인터넷 대중화 초기 시절 전자민주주의에

대한 낙관적 전망이 비등했을 때 법학자 캐스

선스타인(Sunstein, 2001)도 비슷한 지적을 했다.

선스타인은 일반적으로 토론 후 발생하는 집단

양극화 현상에 주목하면서, 인터넷이 미디어 선택의

폭을 넓혀놓으면서 집단 양극화 현상을 부추길 수

있다고 봤다. 그에 의하면, 과거 텔레비전 방송으로

주로 뉴스를 접할 때 시청자가 선택할 수 있는 것은

별로 없었다. 방송 뉴스 내용이 무엇일지 미리

예측해 시청 여부를 선택할 수 없을뿐더러, 방송

내용이 보기 싫으면 채널을 돌리거나 아예 스위치를

꺼버리는 것밖에 대안이 없었다. 적어도 텔레비전을

켜놓는 동안은 방송 내용이 자신의 관점이나 이념에

맞지 않더라도 시청자는 거기에 노출될 수밖에

없었다. 그러나 미디어 선택의 폭이 크게 확대된

인터넷에서는 다르다. 인터넷상에서 이용자들은

자신의 이념, 취향, 관심에 맞는 콘텐츠만

선별해 소비할 수 있기 때문이다. 즉, 인터넷은

선택적 노출의 기회를 넓히기 때문에 사람들은

인지부조화를 일으키는 미디어는 기피하고 자신의

입맛에 맞는 미디어만 소비하게 된다. 선스타인은

선택적 노출이 인터넷 이용자가 기존에 가지고 있는

선유 경향을 강화시키며, 이는 결국 특정 성향의

개인과 인터넷 사이트 사이에 공명이 발생하는

‘에코 챔버(Echo Chamber)’ 현상으로 나타날

것이라고 봤다.

파리저의 필터버블은 선스타인의 에코 챔버와

유사한 현상을 지칭하지만, 그 메커니즘은 다르다.

선스타인이 인터넷 이용자 개인의 심리적 동기에서

출발하는 자발적 선택에 초점을 맞추었다면,

파리저는 플랫폼이 사용하는 개인 추천 알고리즘

기술에 주목한다. 오늘날은 이용자가 언론사

홈페이지를 선별적으로 방문해 뉴스를 이용하는

경우가 줄어들고 있다. 대신 구글과 같은 검색

Page 3: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

신문과 방송 7월 08

플랫폼, 페이스북과 같은 소셜 플랫폼, 포털과

같은 뉴스 수집 플랫폼을 통해서 발생하는 경우가

늘어나고 있다. 뉴스 소비가 플랫폼으로 이동하는

현재 시점에서는 개인의 ‘선택적 노출(Selective

Exposure)’보다도 플랫폼의 개인 추천 알고리즘에

의해 ‘선택받은 노출(Selected Exposure)’이 논란이

된다.

대표적인 것이 구글의 페이지랭크(PageRank)

알고리즘이다. 구글은 2009년 12월부터 검색

결과를 보여줄 때 개인 추천 알고리즘을 도입했다.

그 이전까지 동일 검색어를 입력하면 모든 이용자가

표준화된 검색 결과를 보았지만, 개인 맞춤형 검색

서비스 도입 이후 검색 결과 순위는 개인에 따라

달라진다. 구글은 IP주소나 GPS에 기반을 둔 위치

정보, 인터넷 브라우저 쿠키에 저장된 검색 이력 및

웹페이지 방문 이력 정보, 그리고 구글 플러스에

기록된 성별, 연령, 거주 지역, 연결된 친구 등 개인

정보를 분석해 개인 맞춤형 서비스를 제공한다.

가령, 미국 텍사스 지역에 살고 있으며 공화당

홈페이지를 방문한 이력이 있는 남성이 ‘트럼프’를

검색했을 때와 캘리포니아 지역에 살고 있으며

민주당 홈페이지를 방문한 이력이 있는 여성이

‘트럼프’를 검색했을 때, 상위에 링크되는 검색

결과는 달라진다. 필터버블이 작동한다면, 전자의

경우는 트럼프에 우호적인 뉴스나 웹페이지가,

후자의 경우는 트럼프에 비판적인 뉴스나

웹페이지가 검색 결과 상위에 위치하게 된다.

소셜 플랫폼 페이스북의 뉴스피드(News Feed)

알고리즘은 네 가지 기본적 요인에 따라 뉴스를

추천한다. ①‘좋아요’ 누르기, 댓글 달기, 클릭하기와

같은 상호작용 과거 이력이 많은 친구나 언론사의

포스트일수록 노출될 가능성이 높다. ②다른 사람들,

그중에서도 친구들이 어떤 포스트에 ‘좋아요’를

많이 누르거나 댓글을 많이 달수록 노출 가능성이

높다. ③포스트의 유형에 따라 노출이 달라진다.

평소 동영상을 많이 보는 이용자에게는 동영상

콘텐츠가, 텍스트를 많이 읽는 이용자에게는 텍스트

포맷이 노출될 가능성이 높다. ④최근에 작성된

포스트일수록 노출될 가능성이 높다. 페이스북

알고리즘 요인 중에서 필터버블과 관련성이 가장

높은 것은 상호작용 요인이다. 가족이나 아주

가까운 친구를 제외하면 이용자는 관심이나 정치

성향을 공유하는 사람과 더 많이 친구를 맺고 이들과

상호작용도 더 많이 하는 경향이 존재한다. 뉴스피드

알고리즘이 다른 정치 성향을 가진 친구들이

공유하는 뉴스보다 같은 정치 성향을 가진 친구들이

공유하는 뉴스를 더 많이 노출한다면 필터버블의

가능성이 높아진다.

이용자는 개인 추천 알고리즘 선호

개인 추천 알고리즘에 대해 이용자는 어떻게

생각할까? 로이터 저널리즘 연구소가 발간한

<디지털 뉴스 리포트 2016>에 따르면, 이용자는

‘내가 소비한 뉴스’를 기반으로 한 추천(36%)을

‘언론인의 판단’에 의한 추천(30%)이나 ‘친구들이

소비한 뉴스’에 기초한 추천(22%)보다 선호하는

경향이 있었다.[그림1] 그리고 35세 이하 밀레니엄

그림1 선호하는 뉴스 추천 방식

<출처-디지털 뉴스 리포트 2016: 한국(한국언론진흥재단)>

언론인의 판단에 의한 추천

30%

친구들이 소비한 뉴스를

바탕으로 자동 추천

22%

과거 내가 소비한 뉴스를

바탕으로 자동 추천

36%

Page 4: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

신문과 방송 7월 09

세대는 ‘언론인의 판단’보다도 ‘내가 소비한 뉴스’나

‘친구들이 소비한 뉴스’를 바탕으로 추천된 뉴스를

선호했다. 젊은 이용자들은 언론사 홈페이지를

방문하는 것보다 검색 플랫폼이나 소셜 플랫폼에서

뉴스를 소비하는 데 익숙해지고 있고, 이것이 더

편리한 뉴스 소비 방식이라고 느끼고 있다는 것이다.

이용자들은 개인 추천 알고리즘을 선호하지만

동시에 이에 대한 우려도 가지고 있다. 이용자들이

가지고 있는 우려는 크게 세 가지다. 첫째,

사회적으로 중요한 의제에 대한 정보를 놓칠 수

있다는 점이다. 뉴스가 개인 맞춤형으로 제공되면

언론의 의제 설정 기능이 위축되어 국민 모두가

알아야 할 중요한 의제에 대해 눈이 가려질 수 있다.

둘째, 반대 쪽 견해나 관점도 알고 싶은데 이를 알지

못하게 될 수 있다. 셋째, 플랫폼이 개인과 관련된

정보와 데이터를 수집해 상업적으로 이용하는 것도

문제다. 나라마다 편차가 존재하지만 이용자들은 이

문제에 대해 우려를 나타내고 있다.[그림2]

필터버블 증거는 불분명

개인 추천 알고리즘이 실제로 어떤 결과를 낳는지에

대한 연구나 경험적 증거는 부족한 상태다.

개인의 미디어 선택이 상당 부분 정치 성향에 따라

이루어지고, 이런 선택적 노출이 집단 양극화나 에코

챔버 현상으로 이어진다는 점이 비교적 일관되게

입증되고 있는 것과는 대조적이다. 개인 추천

알고리즘의 효과를 정밀하게 측정하기 위해서는

플랫폼이 실제 사용하는 알고리즘과 플랫폼에서의

이용자 행동에 대한 데이터가 필수적인데 이

데이터에 대한 접근이 용이하지 않다. 몇 가지 연구

결과를 소개하면 다음과 같다.

검색 효과에 대한 한 실험적 연구(Epstein et al.,

2015)는 구글과 같은 검색 서비스가 어떤 방식으로

검색 결과를 노출하는지에 따라 선거에 영향을

미칠 수 있다는 점을 지적했다. 이 연구에 따르면,

이용자들은 수많은 검색 결과 중에서 주로 첫

페이지 검색 결과만 클릭하는 경향이 있다. 그리고

선거 후보와 관련해 검색 첫 페이지에 어떤 내용이

추천되는지에 따라 부동층 유권자의 20%가 영향을

받는다. 그러나 이 연구는 구글이 실제로 사용하는

알고리즘을 실험에 사용한 것이 아니라서 현실에

적용하는 데는 한계가 있다.

그림2 개인 맞춤형 추천 알고리즘에 대한 우려 사항

7067

54

6561

49

60 59

49

4442

4643 44

51

4238

45

중요한 정보를 놓칠까봐 반대되는 관점을 놓칠까봐 프라이버시 침해

스페인 영국 미국 독일 오스트리아 한국

<출처-디지털 뉴스 리포트 2016: 한국(한국언론진흥재단)>

Page 5: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

<사이언스>에 실린 연구(Bakshy et al., 2015)는

페이스북상에서 이용자들이 실제로 어떤 정치

성향의 포스트에 노출되며, 어떤 포스트를

클릭하는지 분석했다. 이 연구는 필터버블을 낳을 수

있는 요인으로 친구들의 정치 성향, 추천 알고리즘,

이용자 개인의 정치 성향 등 세 가지로 설정했다. 이

중 어떤 것이 반대 의견에 대한 노출을 방해하는지

측정한 결과, 친구들의 정치 성향과 이용자 개인의

정치 성향이 페이스북 추천 알고리즘보다 더 크게

작용한다는 결과가 나왔다. 알고리즘보다는 사람의

성향이 필터버블을 낳는다는 것이다. 그러나

페이스북이 고용한 데이터 과학자들이 만들어낸

연구라는 점에서 이 연구의 타당성은 의심받고 있다.

이보다 좀 더 최근 연구(Flaxman et al., 2016)는

마이크로소프트 인터넷 익스플로러에 설치된

빙(Bing) 툴바를 이용해 인터넷 사이트 이용을

분석했다. 미국에서 5만 명가량의 이용자 데이터를

분석한 결과, 뉴스 사이트를 직접 방문하는 것보다

그림4 “내가 평소 관심 없던 내용의 뉴스도 접하게 된다” (36개국)

<출처-디지털 뉴스 리포트 2017: 한국(한국언론진흥재단)>

<출처-디지털 뉴스 리포트 2017: 한국(한국언론진흥재단)>

그림3 “내가 평소 접하지 않던 언론사의 뉴스도 접하게 된다” (36개국)

소셜미디어 검색엔진 뉴스 수집 서비스

47

42 4139 40

4246

4239

3734

3739

43

49

42 4240

43 4346

53

44 4441

44 4543

46

4037

35 3640

43

45

3836

3335

39 38

진보 중도 보수

진보 중도 보수

소셜미디어 검색엔진 뉴스 수집 서비스

신문과 방송 7월 10

Page 6: Ù á6¤Æ * S ¹×Ý K> Ù á6 ÒÖ ¬D ØÑ¢ñIº116.125.124.10/kpf/no559/pdf/01.pdf대신 구글과 같은 검색 신문과 방송 7월 08 플랫폼, 페이스북과 같은 소셜

소셜 플랫폼이나 검색 서비스를 이용했을 때

진보-보수 집단 간 필터버블 현상이 더 뚜렷하게

나타났다. 다만, 야후와 같은 뉴스 수집 플랫폼에서

집단 간 필터버블 현상은 뉴스 사이트 방문보다

낮게 나타났다. 그런데 흥미로운 것은 개인

수준에서는 그렇지 않다는 점이다. 이용자 개인이

반대되는 뉴스나 의견에 노출되는 정도는 뉴스 수집

플랫폼이 가장 높았고, 그다음이 검색 플랫폼과

소셜 플랫폼이었으며, 뉴스 사이트 직접 방문이

가장 낮았다. 이용자 개인은 플랫폼에서 다양한

관점의 뉴스나 의견을 접한다는 것이다.

36개국의 설문조사 결과를 담고 있는 <디지털 뉴스

리포트 2017>은 플랫폼에서 뉴스 소비가 필터버블로

이어진다는 증거를 발견하지 못했다. “내가 평소

접하지 않던 언론사 뉴스도 접하게 된다”는 문항에

대해 정치 성향이 강한 응답자일수록 더 긍정적으로

답변했다.[그림3] 필터버블이 존재한다면 정치 성향이

강할수록 긍정적 응답률이 낮아야 한다. “내가

평소 관심 없던 내용의 뉴스도 접하게 된다”는

문항에 대한 응답도 마찬가지였다.[그림4] 정치 성향이

강할수록 평소 관심 없던 내용의 뉴스도 접한다고

더 많이 응답한 것이다. 그리고 그 편차는 뉴스 수집

참고문헌

• 김선호·김위근(2017), <디지털 뉴스 리포트 2017: 한국>, 서울:

한국언론진흥재단.

• 김선호·김위근(2016), <디지털 뉴스 리포트 2016: 한국>, 서울:

한국언론진흥재단.

• Bakshy, E., Messing, S. & Adamic, L.(2015), Exposure

to ideologically diverse news and opinion on Facebook,

Science, 348 no. 6239: pp.1130~1132.

• Epstein, R. & Robertson, R.(2015), The search engine

manipulation effect and its possible impact on the

outcomes of elections, Proceedings of the National

Academy of Sciences of the USA, 112 (33): pp.4512~4521.

• Flaxman, S., Goel, S. & Rao, J.(2016), Filter bubbles,

echo chambers and online news consumption, Public

Opinion Quarterly, 80 (Special Issue): pp.298~320.

• Pariser, E.(2011), The Filter Bubble, London: Penguin Books.

• Sunstein, C.(2001), Republic.com, Princeton: Princeton

University Press.

플랫폼과 소셜 플랫폼 이용자에게서 더 큰 것으로

나타났다.

필터버블 방지하려면?

지금까지 연구 결과는 플랫폼이 개발한 개인 추천

알고리즘이 필터버블 현상으로 이어진다는 가설을

강력하게 뒷받침하고 있지는 못하다. 그러나 그것은

‘지금까지’ 결과일 뿐이다. 필터버블이 뚜렷하게

발견되지 않는 것은 아직 플랫폼이 사용하는

알고리즘의 완성도가 낮기 때문일 수도 있다. 다시

말해, 플랫폼 사업자들이 향후 알고리즘 기술의

완성도를 높여가게 되면 필터버블 현상이 일관되게

나타날 수 있다. 그러나 중요한 것은 필터버블의

존재 유무에 대한 학술적 논의가 아니다. 개인 추천

알고리즘이 점점 일반화하고 정교해지는 추세에서

더 고민해봐야 할 부분은 어떻게 필터버블을 방지할

것인지의 문제다. 최근 페이스북은 뉴스피드에

기사를 노출할 때, 해당 기사와 관련 있는 다른

기사도 추천하겠다고 발표했다. 플랫폼 사업자들이

필터버블과 같은 문제에 대해 얼마나 책무성을 가지고

있는가? 그리고 이들이 책무성을 갖도록 어떻게

유도할 것인가? 이런 것이 더 핵심적인 질문이다.

<디지털 뉴스 리포트 2017> 조사 결과

플랫폼에서 뉴스 소비와 관련해

“내가 평소 접하지 않던 언론사 뉴스도

접하게 된다”는 문항에 대해 정치 성향이

강한 응답자일수록 더 긍정적으로 답변했다.

필터버블이 존재한다면 정치 성향이 강할수록

긍정적 응답률이 낮아야 한다.

신문과 방송 7월 11