김용대 카이스트 교수 인터뷰
[편집자] 뉴스를 밖에서 보는 것과 안에서 취재기자의 눈으로 보는 것은 차이가 크다는 걸 종종 느낍니다. 물론 기자의 탓이 크겠지요. 자율주행이 코앞에 왔다고 믿었는데 막상 ICT 출입기자가 되어 가까이에서 보니 '한 세대가 지나도 가능할까' 싶습니다. '대한민국=ICT 선진국'인줄 알았는데 요즘은 '클라우드에선 영원한 2인자'라고 회의하고 좌절합니다. 장미빛 전망이 넘쳐나는 ICT현장에서 까칠한 글을 쓰는 이유입니다. 저 혼자 좌절하고 고민하기는 억울하니까요.
[서울=뉴스핌] 김지완 기자 = "자율주행차? 앞으로 15년 지나도 어려울 수 있다."
김용대 카이스트 전기전자공학부 교수의 주장이다. 그는 현 자율주행 시스템에선 강한 빛을 쏘이면 시속 120km로 달리던 자동차가 멈추거나 오작동을 일으키는 등의 중대한 결함이 있다고 지적했다. 뉴스핌은 지난 25일 카이스트 대전 본원에서 김 교수를 만났다.
김 교수는 "자율주행이 인간 주행과 크게 다른 점은 눈, 머리, 다리를 대체하는 것"이라면서 "눈은 센서, 뇌는 인공지능, 다리는 기계장치가 대체한다. 다리를 대체하는 건 어렵지 않지만, 눈과 머리를 대체하긴 어렵다. 자율주행 핵심기술은 인공지능과 센서"라고 설명했다.
그는 "자율주행 센서들이 기본적으로 센싱하는 방법 자체가 소리·빛 등을 던져 물체에 맞고 튕겨져 나오는 것을 파악해 물체가 '있다', '없다'를 판단한다"면서 "센서들이 자동차 앞에 놓인 물체를 파악하면, 이를 토대로 인공지능이 작동한다. 문제는 이 센서들이 보안에 너무 취약하다"고 지적했다.
김용대 카이스트 교수가 지난 25일 뉴스핌과 인터뷰 하고 있다. [사진=김지완 기자] |
그는 "소나(sonar)는 소리가 물체에 맞고 반사돼 되돌아 오는 시간을 측정해 앞에 물체를 파악한다"면서 "자율주행차가 물체를 파악하기 위해서 소리를 던졌는데, 제3자가 던진 소리가 자율주행차에 대신 입력될 수 있다. 그럼 실제 100m 앞에 놓인 물체가 30m 앞에 놓였다고 인식될 수 있다"고 설명했다.
구글 자율주행차에 많이 쓰이는 '라이다(lidar)' 역시 외부 공격에 취약하긴 마찬가지라는 게 그의 주장이다. 라이다는 동시에 여러 방향으로 십수개의 '빛'을 쏴, 물체에 맞고 반사돼 돌아오는 빛의 시간차를 이용하는 기술이다. 이 기술을 이용하면 3차원으로 이미지 복원이 가능하다.
김 교수는 "센서들은 가청 주파수처럼 처리할 수 있는 레인지(영역)가 정해져 있다"면서 "카메라 센서에 역광을 보고 사진을 찍으면 아무것도 안보이는 것과 같은 원리다. 라이다 수신부에 강한 빛을 쏴주면 앞을 못 본다. 시속 120km로 달리던 차가 가다가 앞을 못보게 된다. 정보가 사라진 상황에서 인공지능뿐만 아니라, 현재 인공지능을 넘어서는 새로운 기술이 나오더라도 할 수 있는 게 없다"고 목소리를 높였다.
그는 "반면 인간은 어떻게 하나? 썬바이저를 내리거나, 썬글라스를 착용한다"면서 "라이다는 성능 자체가 별로 안 좋은데, 썬글라스까지 끼우면 성능 저하가 나타난다. 설령 성능 저하없다고 하더라도 공격자 입장에서선 그걸 뚫고 가는 빛을 충분히 만들 수 있다"고 말했다.
예를 들어 야구 시합 중 관중석에서 투수를 향해 레이저 포인트를 쏘면, 투구를 중지하고 심판에게 얘기하는 것으로 상황을 해결한다. 하지만 이 상황은 천천히 벌어지는 상황이다. 시속 120km로 달리는 자동차의 문제 해결 방식과는 같을 수 없다고 강조했다.
아래 영상은 라이다에 '레이저'를 쏘면 사물을 인식을 하지 못하는 실험이다.
김 교수는 라이다 역시 제3자가 빛을 쏘아보내면 소나와 마찬가지 상황이 벌어진다고 부연했다. 없는 물체를 있다고 인식할 수도, 멀리 있는 사물을 가까이 있다고 인식할 수 있다는 것이다.
그는 지난 2017년 6월 논문(Illusion and Dazzle: Adversarial Optical Channel Exploits against Lidars for Automotive Applications)을 통해 '라이다' 보안 취약점을 발표했다.
테슬라 자율주행차에 사용되는 '레이다(radar)' 역시 보안에 취약점을 드러냈다.
김용대 교수는 '모빌아이(Mobileye)'도 인간의 사물 인식과는 상당한 차이를 보인다고 지적했다. 모빌아이는 인텔에 17조원에 매각된 회사로, 전세계 카메라센서 시장점유율 80%를 차지하고 있다.
그는 자동차가 달리는 유튜브 영상을 티비에 틀어놓고 모빌아이 센서를 작동시키는 실험 영상을 기자에게 보여줬다. 모빌아이는 '몇 m 앞에 자동차가 있다'는 식으로 센서에 인식된 정보를 전달했다. 인간의 눈엔 그저 '유튜브' 영상이, 모빌아이에겐 실제 도로로 인식된 것이다.
모빌아이도 앞선 라이다처럼 앞에서 강한 빛을 쪼이니 사물 인식 불능 상태에 빠졌다.
'5G'가 자율주행의 만능열쇠가 아니란 점도 분명히 했다.
김 교수는 "5G는 어다까지나 자율주행에 필요한 정보를 주는 역할"이라면서 "눈 앞에 나타나는 물체를 판단하는 것을 5G가 대신해주는 것은 아니다"고 강조했다. 이는 '5G'가 되면 '정보전달→명령→기계제어' 사이에 시차가 없어져, 자율주행이 가능할 것으로 인식되던 것과 상반된 견해다.
센서들의 불완전성도 지적했다. 그는 "라이다는 비가 많이 오면 잘 안된다. 카메라는 강한 여름에 오작동된다디. 겨울철 길에 눈이 쌓이면 자율주행 운전 자체가 안된다. 구글이 날씨 변수가 적은 미국 애리조나에서 자유주행하는 걸 글로벌 전체 지역으로 확대 해석하면 안된다"고 지적했다.
여전히 많은 사람들이 자율주행에 기대를 품고, 천문학적인 투자에 나서는 것에 우려를 전했다.
김 교수는 "실제 대기업 등 기술 최전선에 있는 사람들도 자율주행에 최소 15년 뒤를 얘기한다"면서 "현재 기술로 센서 공격을 막을 방법이 없다. 공격으로부터 안전한 자율주행차를 만들기 힘들다"고 힘주어 말했다.
swiss2pac@newspim.com