하민회 (이미지21대표, 미래기술문화연구원장)
"당신이 어디에 관심이 있는지 다 알고 있어." 흑백요리사 숏츠 한번 봤더니 요리관련 영상이 줄을 잇고 시고르자브종(토종 시골 강아지) 영상에 잠시 웃었더니 전 세계 귀여운 강아지 영상이 꼬리에 꼬리는 문다. 처음엔 신기하고 기특했지만 지금은 섬뜩하고 무서울 지경이다. 내가 뭘 찾고 뭘 봤는지 다 알고 있는 듯 입 안의 혀처럼 구는 유튜브 알고리즘 이야기다.
습관처럼 보아왔던 유튜브가 이번 연말엔 좀 불편하다. 초현실적 계엄으로 탄핵 당한 대통령의 어리석은 선택에 알고리즘으로 인한 확증편향이 한몫 했다는 설 때문이다.
하민회 이미지21 대표. |
누구나 정보를 만들어 공유하며 참여하는 대중 플랫폼은 사실 그리 믿을만하지 않다. 종종 가짜가 진짜 행세를 하기도 하고 근거 없는 거짓 주장이 용감한 내부고발로 둔갑되는가 하면 음모론이 집단의 신념으로 거듭나는 경우도 있다. 논리나 근거보다는 감정에 호소한다. 쏟아지는 정보 가운데 취사선택은 전적으로 개인의 자유이고 그로 인한 책임도 당사자의 몫이다. 소셜미디어, 대중플랫폼의 특성이기도 하다.
하지만 강력한 자동 장치가 개입되면 이야기가 달라진다. 이른바 추천 알고리즘이다. 클릭률과 체류 시간을 극대화하기 위해 설계된 추천 알고리즘은 사용자의 시청 기록, 검색 기록, 좋아요, 댓글 등의 데이터를 기반으로 작동한다. 사용자가 선호한 콘텐트의 특징을 분석해 유사한 특성을 가진 다른 콘텐츠를 추천하거나 비슷한 행동양식을 보이는 다른 사용자가 선호하는 콘텐츠를 제공하기도 한다.
선호도에 맞춘 콘텐츠를 제공하기 때문에 사용자 입장에서는 편리하게 느껴지겠지만 부작용이 만만찮다. 대표적으로 사용자가 다양한 관점을 접할 기회를 제한하는 이른바 정보 편식 현상인 필터 버블 (Filter Bubble)과 유사한 관점을 가진 콘텐츠와 그 사용자들끼리 만 상호작용하게 되는 반향실 효과(Echo Chamber)를 꼽는다. 비슷한 생각을 가진 사람들끼리 모이면 기존 신념이 강화되면서 다른 의견은 배제하게 된다. 확증편향의 출발점인 셈이다.
[서울=뉴스핌] 이호형 기자 = 디자인코리아 2024가 13일 서울 강남구 코엑스 D홀에서 열린 가운데 관람객들이 에스더블유엔아이 x 브리즘이 선보인 AI 알고리즘에 의한 선글라스 디자인 부스를 둘러보고 있다. 2024.11.13 leemario@newspim.com |
사피엔스의 작가 유발 하라리는 신간 <넥서스>에서 2016년에 일어난 '로힝야 학살사건'의 원인 분석을 통해 자정 장치가 없는 비윤리적인 알고리즘이 얼마나 위험한지 경고한다.
소규모 이슬람 조직이 미얀마군 초소를 공격한 사건에서 시작된 '로힝야 학살 사건'은 최대 2만5천명에 이르는 비무장 민간인 학살과 6만명에 대한 가혹행위, 75만명의 해외 추방이 벌어진 끔찍한 '민족청소운동'이었다.
하라리는 이 사태 뒤에 로힝야족에 대한 증오를 부추기는 페이스북 알고리즘이 있었다고 지적한다. 당시 페이스북은 더 많은 데이터 수집, 광고 판매, 점유율 확보를 위해 '사용자 참여 극대화' 사업 모델을 채택했는데 페이스북의 알고리즘이 명시적인 명령이 없었음에도 '분노가 참여도를 높인다'는 사실을 스스로 학습해 폭력, 증오, 차별을 부추기는 콘텐츠를 선제적으로 증폭하고 추천했다. 페이스북의 알고리즘이 학살에 결정적 기여를 했다는 사실은 이후 유엔사실조사단에 의해서도 공인되었다.
오늘날 유튜브 알고리즘은 페이스북 알고리즘을 능가한다. 이야기가 충격적일수록, 분노스러울수록 열광한다. 근거가 있는지 검증은 했는지 따위는 하등 중요하지 않다. 같은 눈을 가진 이들이 알고리즘을 타고 빠르게 모여 같은 목소리를 울리며 자기확신을 키워간다. 닮은 이들의 같은 세계 속에는 일말의 의심도 자라지 못한다. 자신들이 세상의 전부 같지만 모일수록 그들의 세계는 점점 더 편협해질 뿐이다.
[서울=뉴스핌] 이호형 기자 = 디자인코리아 2024가 13일 서울 강남구 코엑스 D홀에서 열린 가운데 관람객들이 LG전자가 선보인 AI 우주 반려 로봇 '라이카' 살펴보고 있다. 2024.11.13 leemario@newspim.com |
연세 지긋한 부모님께서 말도 안 되는 음모론에 나라를 걱정하시고 이런 콘텐츠를 여기저기 공유하셔서 염려스럽다는 자녀들이 적지 않다.
과연 알고리즘이 만들어내는 편향에 휩쓸리지 않고 현명하게 콘텐츠를 소비하는 방법은 없는 것일까?
보안기업 안랩은 우선 정기적으로 검색과 시청기록을 삭제할 것을 권장한다. 유튜브는 시청 기록을 바탕으로 추천 알고리즘을 작동시키기 때문에 시청 기록을 삭제하면 알고리즘이 초기화된다.
유튜브 웹사이트나 앱에서 화면 우측 상단의 프로필 아이콘을 클릭하고 '설정' 메뉴에서 '히스토리 및 개인정보' 탭으로 이동한 후 '시청 기록' 옵션을 클릭해 삭제하고 싶은 영상을 제거한다. 아예 시청 기록 전체를 삭제하려면 '모든 기록 삭제'를 택하면 된다.
검색 기록 역시 추천 콘텐츠에 영향을 미친다. 검색 기록을 삭제하거나 저장 기능을 비활성화하면 추천 알고리즘에 영향을 줄 수 있다.
원치 않는 동영상이나 채널에 대해서는 '관심 없음' 또는 '채널 추천 안함'을 설정하고 좋아요 나 싫어요 등의 선호도를 명확히 표현하는 것도 도움이 된다.
아마존 모바일 플랫폼 [사진=블룸버그] |
로그아웃 상태로 유튜브를 이용하면 개인화된 추천 대신 일반적인 트렌드 기반 콘텐츠를 볼 수 있고 알고리즘의 영향을 완전히 벗어나려면 아예 새 계정을 만드는 것도 한 방법이다.
하라리는 <넥서스>에서 모든 알고리즘에 최우선으로 학습시켜야 할 사항은 '알고리즘이 오류를 범할 수 있다'는 점이라고 말한다. 알고리즘에 스스로를 의심하도록 하고, 사용자에겐 알고리즘의 불확실성을 알리고, 음모론과 가짜 뉴스를 예방하는 법을 배우도록 지시해야 한다고 주장한다.
모든 플랫폼 기업이 알고리즘이 콘텐츠 선별에 사용하는 원칙을 투명하게 공개하도록 하고 폭력적이고 분노를 유발하는 알고리즘을 배제하도록 강제해야 하겠지만 이윤이 윤리를 앞서는 현실에서 큰 기대를 하기는 어려울 듯싶다.
오히려 알고리즘이 양극단의 가치관으로 자신을 세뇌할 수 있음을 분명히 가르치는 것이 더 효과적이지 않을까?
옥스퍼드 사전은 2024년 '올해의 단어'로 '뇌 썩음'(brain rot)을 선정했다. 하찮은 콘텐츠를 과잉 소비함으로써 개인의 정신적·지적인 상태가 퇴보한다는 뜻으로 소셜미디어의 과잉 소비로 초래되는 악영향에 대한 우려가 담겨있다.
바야흐로 우리는 뇌가 썩지 않도록 스스로를 보호해야 하는 시대로 접어들었다.
갤럭시 버즈3 시리즈는 AI 기반의 알고리즘이 개개인의 귀모양과 착용 습관을 바탕으로 내외부 마이크를 통해 감지되는 소리를 실시간으로 분석한다.[사진= 삼성전자] |
◇하민회 이미지21대표(미래기술문화연구원장) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표 △경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등