[서울=뉴스핌] 최원진 기자= 마이크로소프트(MS)가 오픈AI의 인공지능(AI) 챗봇 '챗GPT'를 탑재한 새로운 버전의 검색 엔진 빙(Bing)을 출시하자 구글도 '바드'(Bard)를 공개했지만 광고 영상 속에서 바드의 오답이 확인되면서 망신을 샀다.
구글이 지난 6일(현지시간) 공개한 짧은 바드 시현 영상에는 "나의 9살 아이에게 알려줄 만한 '제임스 웹 우주망원경'(JWST)의 새로운 발견들은 어떤 게 있을까"란 질문이 검색됐고, 바드는 "당신의 9살 아이가 좋아할 만한 JWST의 발견들을 아래에 모아봤다"며 '사실'들을 나열했다.
그러나 답변 중에는 "JWST가 최초의 외계 행성 사진을 찍었다"는 잘못된 정보가 포함돼 주요 외신과 전문가들의 지적이 빗발쳤다. 미 항공우주국(NASA)도 최초의 외계 행성 이미지는 지난 2004년 유럽남방천문대가 설치한 초거대 망원경(VLT)이 찍었다고 확인했다.
챗GPT 모바일 구동화면.[사진=블룸버그] |
구글 바드의 잘못된 답변을 지적한 여러 전문가 중 한 명인 NASA 소속의 천체 물리학자 그랜트 트렘블래이 박사는 "챗GPT 등 AI챗봇은 소름끼치도록 인상적인 것은 맞지만 오답을 내놓는다. 그것도 '매우 자신있게' 잘못된 답변을 내놓는다"고 지적했다.
이는 비단 구글만의 문제라기 보단 생성형 AI의 구동 방식 자체의 문제일 수 있다고 미 IT전문 매체 더버지는 분석했다.
챗GPT, 바드 같은 AI챗봇은 질문에 답하기 위해 입증된 사실만 모아놓은 특정 데이터베이스(DB)에서 정보를 가져오는 것이 아니라 셀 수 없을 정도로 방대한 인터넷상 글의 문장 패턴을 분석, 이용자 질문에 부합하는 단어들을 서술형으로 재조합하는 원리다.
AI챗봇은 본질적으로 '문장 자동 완성 시스템'이기 때문에 알맞는 단어들을 추출하고 재조합하는 과정에서 오류를 범할 수 있다.
또 정보를 수집하는 출처도 현재로선 제한된 것이 없어서 각종 블로그, 소셜미디어 등 이용자의 주관적 시각을 포함한 글들도 정보 수집 재료로 쓰일 수 있어 문제다.
"미국의 초대 대통령은 누구?"와 같은 역사적 사실에 관한 질문에 오답이 나올리 없겠지만 JWST 등 최근 발생한 사건에 대한 답변은 '오류투성이'일 가능성이 큰 것도 이 때문이다.
결국 AI챗봇은 입력값에 따라 출력값이 결정되는 '결정론적'(deterministic) 시스템이 아니라, AI가 질문과 연관됐다고 판단할 경우 사실입증 여부와 관계없이 정보를 제공하는 '개연론적'(probabilistic) 접근을 취한다는 설명이다.
AI를 연구하는 미 프린스턴대학의 아빈드 나라야난 컴퓨터과학과 교수도 생성형 AI가 내놓는 답변이 "사실인지 아닌지 어떻게 알 수 있겠나"면서 현재로선 "엉터리 생성기에 불과하다"고 지적했다.
AI가 기계학습(machine learning) 능력으로 거짓정보를 차단할 순 없는 것일까. 미 매사추세츠공과대학(MIT)의 레미 발리 박사는 "정보를 가져온 웹사이트가 한 번이라도 가짜뉴스나 잘못된 정보를 게시한 적이 있다면 시스템이 자동적으로 해당 사이트에서의 데이터 수집을 차단하는 것이 한 방법일 수 있겠다"고 조언했다.
콘텐츠 마케팅 업체 시에지 미디어의 로스 허젠스 검색엔진 전문가는 구글과 MS의 AI 검색 서비스는 이제 막 첫걸음을 뗀 상태이고 당연히 완벽할 수 없기 때문에 "구글이 바드를 일반 대중에 전면 출시할 때 아마도 답변 출처 URL링크를 첨부하지 않을까 생각한다"고 예상했다.
wonjc6@newspim.com