AI 알고리즘의 딜레마...‘선택의 역설’vs‘에코챔버’·‘필터버블’

김성태 교수의 [데이톨로지]⑦ "빅데이터시대 큐레이션의 양면성"

전문가 칼럼입력 :2021/06/21 13:50    수정: 2021/06/21 15:59

김성태 고려대 미디어학부 교수
김성태 고려대 미디어학부 교수

바야흐로 데이터시대다. 지금 우리는 빅데이터, 인공지능(AI), 블록체인 등 디지털 데이터를 기반으로 한 4차산업혁명을 목도하고 있다. 인류가 문자와 기호를 사용하기 시작한 지난 5천년 동안 문명의 흐름이 지구촌 곳곳에서 큰 강을 이루고 이제는 모이는 바다에 이르렀다. 데이터가 원유가 되어 모든 것이 돌아가는 시대가 된 것이다. 이 연재 시리즈는 '데이톨로지(Datalogy)' 사상의 연원(淵源)이다. 데이터에 대한 철학적, 인문학적, 과학적인 성찰의 결과라 봐도 좋을 것이다. (빅)데이터와 관련된 키워드를 중심으로 제4차산업혁명의 시대를 살고 있는 우리의 다양한 호기심을 자극하는 지적 탐구의 장을 마련하고자 한다. 이번 연재글은 빅데이터 기반의 인공지능(AI) 정보 추천 알고리즘이 갖는 편리함과 편향성에 대한 명암을 살펴본다.<편집자>


필자는 오래전에 설악산과 속초 동해 바닷가를 놀러갈 때 미시령과 한계령의 굽은 산길을 운전했던 기억이 선하다. 지금은 미시령에 터널이 뚫려서 통과하면 금방 동해 바다가 보인다. 요즘 이곳을 갈 때면 시간이 단축돼 좋으면서도 뭔가 아쉽기도 하다. 미시령과 한계령의 좁은 산길을 타는 재미와 함께 길 주변의 아름다운 경치를 볼 기회가 사라졌기 때문이다. 이것이 ‘하이웨이 이팩트(Highway Effect)’다. 고속도로로 빨리 갈수 있으나 주변의 많은 디테일을 놓치게 된다는 얘기다.

사람들은 불과 얼마 전만 해도 뭔가를 사거나 필요한 정보를 찾을 때 도움이 될 만한 채널은 매우 제한적이었다. 주로 주변 지인에게 묻거나 혹은 본인이 발품을 팔았다. 지금은 모든 것이 온라인으로 연결되어 있고 배달, 여행, 숙박, 금융 등에서 유튜브와 넷플릭스와 같은 소셜미디어와 OTT 서비스 콘텐츠 구매에 이르기까지의 거의 모든 일상 활동을 스마트폰 하나로 검색하고 구매한다. 특히, AI 알고리즘이 추천하는 신속한 맞춤형 정보제공이 이런 저런 다양한 뉴스를 읽다보면 얻게 되는 ‘미시령 옛길’ 같은 즐거움을 빼앗아 간다는 생각도 들게 만든다.

사람들은 과연 “새로운 것을 찾아 보고 싶어하고, 듣고 싶어하고, 믿고 싶어하는가?” 아니면 “보고 싶은 것만 보고, 듣고 싶은 것만 듣고, 믿고 싶은 것만 믿는가?“ 빅데이터 시대 사람들의 정보 소비 패턴에 대한 큰 화두(話頭)다.

AI 추천 알고리즘 “신속함과 편리성” or "확증 편향성“ 논쟁

사진 = 이미지투데이

지난 2021년 6월 17일 정치권 ‘미디어혁신특별위원회’는 포털사의 AI 알고리즘으로 뉴스를 추천하는 시스템을 없애는 방안을 추진한다고 발표했다. 이번 결정은 사람들의 성향을 분석한 AI 뉴스 추천 알고리즘이 개인들이 선호하는 맞춤형 뉴스위주로 검색결과를 매우 신속하게 제공해 이용자들의 만족감을 높인다는 주장과 함께, 다른 한편으로는 다양한 뉴스에 대한 별다른 노출이 없다보니  ‘확증 편향’으로 인해 우리 사회를 파편화시키고 건전한 사회 발전에 도움이 되지 않는다는 논쟁 속에서 나온 방안이기에 주목을 끈다.

국내 최대 소셜미디어 플랫폼인 카카오는 지난 2015년부터 AI 알고리즘 기반의 개인 맞춤형 뉴스 추천 시스템인 ‘루빅스(Rubics)’를, 포털 네이버는 2017년부터 ‘에어스(AiRS)’를 도입해 왔다. 그러나 이번 정책 방향 속에 두 플랫폼 기업은 그 동안의 서비스를 중단하고 모바일 첫 화면에 노출되는 뉴스 언론사를 이용자가 스스로 선택하게 하는 ‘언론사 선택 기능’ 서비스를  8월부터 새롭게 시작할 예정이라고 발표했다. 그러나 개인들이 각자 선호하지 않는 특정 언론사들을 배제하고 본인이 선택한 언론사의 뉴스 콘텐츠만을 이용하게 하는 것이 과연 올바른 해결책인가 하는 우려는 여전히 남는다.

이런 걱정은 국내만의 문제는 아니다. 지난 2021년 5월 18일 구글 대표(CEO)  순다 피차이는 미국 샌프란시스코에서 열린 ‘구글 I/O’ 기조 연설에서 “우리는 현재 모바일 퍼스트에서 AI 퍼스트 세계로 전환하는 컴퓨팅의 새로운 전환기를 맞고 있다”고 말했다. 지금과 같이 정보 과잉의 시대에는 질 좋고 신뢰할 만한 정보를 전달하는 것이 중요하다고 언급하며, 뉴스 역시 사용자가 정보를 입력하지 않아도 알아서 AI가 ‘추천할 만한 뉴스’를 알려주는 서비스를 지속 추진해 나가겠다고 밝혔다. 국내외에서 최근 몇 년간 AI 뉴스 추천 알고리즘의 확증편향성 문제가 계속 제기되는 상황에서 나온 발언이라 더욱 관심을 받았다.

한편, 이런 AI 알고리즘 기반의 추천 서비스는 뉴스만이 아니라, 페이스북이나 인스타그램 국내의 카카오톡 메신저 같은 소셜미디어에서도 계속 활용돼 오고 있다. 지인과의 일상적인 톡 가운데 특정 제품이나 서비스를 홍보하는 광고가 등장하고 사람들마다 다른 광고가 나타난다. 평소 여행에 관심이 많아 여행 관련 검색을 자주 했던 사람이라면 여행사 광고가 보인다. 얼마 전 아이를 출산한 사람이라면 유아용품 광고가 많이 뜬다. 글로벌 OTT 서비스 넷플릭스는 거의 모든 이용자에게 다른 메인 화면을 제공한다. 평소 드라마를 자주 봤던 사람에게는 드라마 위주로 배열된 화면이, 액션장르를 좋아하는 사람에게는 최신 액션 영화로 채워진 화면이 우선 뜬다.

정말 이제는 개인 맞춤형 정보 추천을 위한 알고리즘의 문제가 무엇고, 편리함속에서도 지속적으로 제기되는 편향성 논쟁의 핵심은 무엇이며, 바람직한 해결책을 위해 어떤 노력이 필요한지에 대한 고민이 절실히 필요해 보이는 시점이다.

알고리즘(Algorithm)이란 무엇인가. 이는 ‘대수학의 아버지’로 불리는 중세의 수학자 알콰리즈미(Al-Khwarizmi)의 이름에서 유래했다고 전해진다. 이후 문제를 해결하기 위한 수학적 절차나 공식을 의미 하는 걸로 발전했다. 가장 최근에는 흔히 기계학습(Machine Learning)을 통해 인공지능이 구현해내는 다양한 솔루션의 수학적 공식을 뜻하기도 한다.

지금은 빅데이터의 시대고 정보가 넘쳐 난다. 무엇을 먹고 어디를 가고 뭔가를 살 때 너무나 많은 정보를 접할 수 있다. 그러다보니 어느 순간에 우리에게 ‘결정 장애’라는 말도 익숙해졌다. 때로는 뭔가를 정하는 대신 “아무거나”를 외친다. 뭘 먹을 때, 뭔가를 살 때 고민하며 찾는 시간과 감정노동이 싫어서 대충 타협할 때 그냥 쓴다.

‘햄릿 증후군’과 ‘선택의 역설“

이는 “사느냐 죽느냐, 그것이 문제로다”의 햄릿 증후군(Hamlet Syndrome)과도 연결이 된다. 비단 물건을 구매할 때만이 아니다. 직업을 선택하거나 사람을 만나거나 배우자를 정할 때도 더 많은 정보로의 접근이 가능해져서 선택의 어려움을 겪게 되고, 이것은 오히려 사람들을 불편하게 만들기도 한다. 또한 각자가 선택한 결과가 나쁠 때는 자신에게 주어진 무수하게 많은 옵션 중에서 잘 못 선택을 한 본인의 실수에 대한 후회가 더 많이 생길수도 있음을 의미한다.

보통 사람들은 많은 정보에 접근 가능하면서 더 합리적인 선택을 할 것이라고 생각한다. 또한 더 많은 선택권을 가졌기에 더 행복할 것이라고 믿는다. 그러나 여러분들이 백화점에서 물건을 구입할 때나, 뷔페에 가서 식사를 할 때 너무 많이 진열된 제품과 음식으로 인해서 상대적으로 더 힘든 선택의 순간을 경험하고 오히려 만족감이 떨어져 본 경험이 다들 있을 것이다.

“선택의 수가 어느정도 많아질때까지는 행복감이 높아지다가, 지나칠때는 오히려 행복지수가 떨어지게 된다는 ‘선택의 역설‘“ (출처: 구글이미지)

‘선택의 역설(The Paradox of Choice)’이다. 저명한 심리학자인 배리 슈워츠(Barry Schwartz)는 “개인적 자유의 상징인 선택권이 오히려 사람들을 무력하게 만들고 좌절시킨다”라며 선택할 종류가 많아짐으로 사람들은 오히려 입력된 정보의 과부하로 불만도 커지고 비합리적으로 선택을 할 때가 많아질 수도 있다고 주장했다.

그럼에도 불구하고 AI 추천 알고리즘은 분명히 우리가 스스로 자발적으로 뭔가를 찾아서 알아봐야 할 때 추가적인 노동을 하지 않게 만들며 서비스의 편리함과 달콤함에 지속적으로 빠져들게 만들기도 한다. 유튜브, 인스타그램이 젊은 세대들에게 가장 중요한 정보원이 된 것은 이미 오래고, 여러분들도 이런 소셜미디어를 몇 번만 이용해보면 들어갈 때마다 선호하는 콘텐츠 위주로 배열된 것을 볼 수 있을 것이다.

그러나 필자는 여기에 대한 진지한 고민을 오늘 하고자 한다. 과연 이런 상황이 어떤 결과로 이어질까에 대한 추론이며 좀 더 건설적인 대안 마련의 필요성에서다.

‘에코 챔버’와 ‘필터 버블’

AI 추천 알고리즘의 가장 큰 문제는 각 개인들이 선호하는 맞춤형 뉴스나 콘텐츠를 우선으로 제공해주는 것에서 시작된다. 자신이 좋아하거나 유사한 생각을 가진 사람들과만 소통하면서 편향된 사고를 갖는 현상을 미국의 법학자 캐스 선스타인(C. Sunstein)은 ‘에코챔버(Echo Chamber)’라고 칭했다. 방송에서 에코효과를 만들어 내기 위한 반향실(反響室)을 일컫는 말에서 나온 개념이다. 이는 특정 성향의 개인이 자신의 입맛에 맞는 콘텐츠만 소비하고, AI 알고리즘도 그 사람이 선호하는 콘텐츠 위주로 추천을 지속하면서, 동시에  사람들이 자신과 의견을 달리하는 이야기는 듣지 않고 각자가 가진 자신의 생각만 추구하는 ‘편향성 강화(Confirmation Bias)'를 가져온다.

‘필터 버블’이 만들어 내는 자신만의 갇힌 세상 (출처: 구글이미지)

이런 논의는 ‘필터 버블(Filter Bubble)’로 확장됐다. 미국의 시민단체 ‘무브온(Move on)’의 엘리 프레이저(Eli Pariser)가 그의 저서인 ‘Filter Bubble’에서 이 개념을 처음으로 사용하기 시작했다. 간단하게 정의하면 “사용자에게 맞게 필터링된 정보가 마치 거품(버블)처럼 사용자를 가둬버린 현상”을 말한다.

어쩌면 AI 기반의 자동화된 알고리즘이 지금처럼 바쁜 시대에 사람들의 성향을 파악해 필요한 정보만을 취사선택하여 제공해주는 것은 매우 편할 수 있다. 그러나 문제는  사용자들의 선택을 넘어 생각까지도 바꿀 수 있는 힘이 생기기 시작했다는 점이다.

‘플라톤’ ‘베이컨’의 동굴과 브드리야르의 ‘시뮬라시옹’

일찍이 고대 철학자인 플라톤은 사람들의 현실에 대한 인식을 동굴벽에 비치는 그림자로 비유하며 사실과 다른 편향성을 언급했다. 근대에 와서 ‘동굴’의 표현은 다시 등장한다. 경험주의 철학의 대가인 프란시스 베이컨은 그의 ‘우상론’에서 사람을 거짓으로 이끄는 마음의 모든 경향을 우상으로 정의했는데, 그가 두 번째로 언급한 것이 '동굴의 우상'이다. 각 개인의 차이에서 오는 특수한 오류의 경향을 말한다. 모든 사람은 자기만의 고유한 동굴을 가지고 있는데, 각자의 당파가 있고 읽는 책이 다르며 또 취미도 각양각색이다. 베이컨은 이를 극복하기 위해서는 자신의 주관적 경향을 배제하고 자신만의 동굴에서 빠져나와 다른 사람들의 의견을 듣고 바깥세상과 소통하면서 사회적 가치를 나눠야 한다고 했다.

후에 20세기 프랑스를 대표하는 철학자 장 보드리야르는 ‘시뮬라크르와 시뮬라시옹’ (Simulacres et Simulation) 이라는 저서에서 “가상과 실재의 구분이 사라졌다”고 말하며, 실제가 아닌 것이 더 실제 같아서 가상과 현실이 뒤바뀌는 현상을 ‘시뮬라시옹’이라 일컫기도 했다. 이는 미디어가 만들어내는 수많은 정보가 때로는 사람들이 직접 경험하는 현실보다 더 실제처럼 느껴지는 '하이퍼 리얼리티(Hyper Reality)'를 생산해 낸다고 주장했다.

그래서 AI 시대의 기술적 진화가 제공하는 뉴스피드나 정보 큐레이션은 어쩌면 현실세계의 인간들이 도출해내는 방식보다 훨씬 더 정교하게 사람들의 심리와 소비패턴을 파악해서 개인들이 가장 선호하는 정보만을 우선적으로 제공하여 결국에는 그 사람의 인식 구조도 바뀌게 만들 수 있게 되는 것이다. 이런 편향성은 사람들이 동굴속에서 보는 ‘시뮬라크르’라는 그림자를 더 믿게 만드는 악순환을 계속 반복하게 만드는 것이다.

‘선택적 노출’과 ‘프레이밍’

한편, 오래전부터 심리학과 미디어학 연구에서 많이 언급된 ‘선택적 노출(Selective Exposure)’이란 용어도 있다. 사람들은 새로운 정보를 받아들일 때 개인 각자가 가지고 있는 이념이나 성향과 모순되는 정보는 피하고, 유사한 정보는 선택적으로 받아들이면서 기존 편향성을 강화한다는 얘기다.

비슷하게 미국의 사회학자인 어빙 고프만(Erving Goffman)의 프레이밍(Framing) 개념도 있다. 사람마다 세상을 이해하고 해석할 때 사용하는 준거틀이 다르며 누구나 자신의 가치와 관점을 중심으로 판단한다는 것이다. 뉴스 프레이밍의 경우는 뉴스가 수용자들에게 직·간접적으로 그 이슈에 대한 판단에 영향을 미치도록 하는 데 사용되는 글쓰기나 주제 혹은 스타일일 수 있으며, 방송 뉴스의 컷이나 때로는 카메라 앵글과 같은 다양한 기제들이 개입될 수 있다.

카메라 프레임이 갖는 현실왜곡의 반영 이미지 (출처: 구글이미지)

언론사가 새로운 뉴스를 만들어 내고, AI 기반의 알고리즘 서비스가 추천 뉴스들을 선정하는 과정에는 이미 어쩌면 프레이밍의 과정이 포함된다. 파멜라 슈메이커(P. Showmaker)가 주창한 것처럼 언론사에서 수많은 기사 중에서 그날 보도할 뉴스를 선택하는 것도 이미 ‘게이트키핑(Gatekeeping)'의 과정을 거치게 되며, 알고리즘 뉴스 추천 서비스를 통해 선택된 뉴스와 정보는 앞에서도 언급한 ’에코챔버‘와 ’필터버블‘의 부작용을 이미 내재적으로 갖게 된다.

이런 상황에서는 일종의 ‘정보 편식’이 심해질 수밖에 없다. 관심 없지만 알아야 하는 정보를 접하고 서로 다른 의견을 공유하는 일은 ‘필터버블’에서 하기 힘든 일이 되어버렸기에, 사회 자체가 양분화되거나 파편화될 가능성이 더 커질 수밖에 없는 것이다.

최근 코로나 팬더믹 상황에서는 이런 논의가 더욱 절실해 보인다. ‘길어지는 ‘집콕’에 커지는 ‘필터 버블’···알고리즘에 지배 당하는 소비자들?‘이라는 제목의 한국경제 뉴스에서 조수빈 기자는 “사용자는 자신이 평소에 좋아하는 것, 관심 있는 것을 선택한다. 이를 바탕으로 인공지능은 사용자의 취향을 학습하고 좋아할 만한 것을 추천한다. 물론 사용자는 그 추천을 받아들일 수도, 받아들이지 않고 다른 것을 택할 수도 있다. 이런 '선택-추천'의 과정이 누적될수록 인공지능은 사용자가 정확히 원하는 콘텐츠에 대한 부가적인 이해도를 쌓아간다. 누적된 데이터로 추천한 콘텐츠는 사용자에게 수용될 가능성이 높아진다”라고 적었다.

더 심각한 문제점은 이용자들을 위한 맞춤형 뉴스나 정보가 때로는 기업의 상업적 판단에 의해 선택된 메시지에만 노출될 가능성도 있다는 점이다. 소비자들이 선호하는 정보를 추천하면서도 서비스 운영자들의 비즈니스 전략에 의한 구성된 콘텐츠가 지속적으로 제공되고, AI 추천 알고리즘 서비스가 발전하면 할수록 소비자들은 이 메커니즘에 더 의존할 수밖에 없게 되는 것이다.

건전한 사회를 위한 버블 터뜨리기

어쩌면 ‘필터버블’을 처음으로 주장한 엘리 프레이저 또한 이러한 추세가 오히려 더 비민주적인 사회를 불러올 수도 있다고 경고하며 “궁극적으로 시민들이 편협한 자기 이해관계를 넘어 생각할 수 있을 때 민주주의는 비로소 작동한다. 그러나 그렇게 하려면 우리는 서로 세상에 대한 시각을 공유해야 한다. 우리는 다른 생활방식과 다른 욕구를 가진 사람들과 서로 살을 맞대야 한다”고 주장하기도 했다.

최근 MZ 세대는 스마트폰 하나로 거의 모든 것을 할 수 있다. 개인들의 소비 패턴을 분석한 AI 기반의 알고리즘 추천 서비스는 그들에게 매우 달콤한 유혹일 것이다. 아동과 청소년의 경우에는 가치관과 태도를 형성해가는 중요한 시기다. “몸에 좋은 약은 쓰다”라고 흔히들 얘기한다. 본인이 좋아하는 음식만 섭취하는 편식은 반드시 건강상의 문제를 발생시킨다. 본인이 선호하는 정보만 접한다면 건전한 민주주의가 유지되기 힘든 이유다.

이런 편향성 논쟁의 결과인지 최근 미국의 MIT 미디어랩에서 만든 ‘플립피드(Flipfeed)’라는 플랫폼은 트위터 이용자가 자신의 뉴스피드를 반대 방향으로 바꿀 수 있도록 만들어 준다. 페이스북에서는 반대 성향의 의견을 볼 수 있도록 추가적인 뉴스를 삽입해주는 프로그램도 현재 제공하고 있기도 하다.

관련기사

한 사람은 인권을 가진 한 개인이지만 또한 우리 사회를 움직이는 한 구성원이기도 하다. 하물며 한 집안에서도 가족이 모여 의견을 공유하며 중요한 일을 결정하듯이, 우리 사회도 구성원들이 사회가 당면한 많은 문제들을 서로 알고 논의하고 최적의 해결 방안을 찾아 나가야 한다. 그리고 이런 의사결정 구조가 제대로 작동될 때 우리사회는 더욱 안정적이고 건강한 것이다.

마지막으로 비록 ‘선택의 역설’이 주는 불편함이 다시 생기더라도 ‘선택적 노출’, ‘프레이밍’된 이미지, ‘에코 챔버’ 그리고 ‘필터 버블’ 등으로 묘사되는 알고리즘 기반의 맞춤형 뉴스나 정보들의 편향성이 기업, 정부, 소비자 차원에서의 다양한 노력 등으로 개선되기를 바라며, 본격적인 ‘버블’ 터뜨리기를 이제부터라도 제대로 시작했으면 한다.

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.

김성태 고려대 미디어학부 교수

현재 고려대 ‘빅데이터 사회문제 연구센터’를 운영하며, 데이터를 통한 통찰력 있는 세상 읽기와 (빅)데이터 분석을 통한 다양한 사회 문제 솔루션 도출에 관심을 갖고 있다. 이번 '데이톨로지' 연재는 인류의 역사, 철학사상 그리고 다양한 인문학적 논쟁의 패러다임속에서 데이터 자체의 미학, 역사속의 위대한 데이터 분석가, 디지털데이터가 만드는 새로운 현상과 문화를 최근 사례와 함께 소개함으로써 미래의 성장동력으로서의 (빅)데이터의 가치를 재발견하고, 독자들에게 ‘디지톨로지Digitalogy’ ‘데이톨로지Datalogy’ ‘데이터빌리티Datability'의 중요성에 대한 토론의 장이 되기를 기대한다.