하민회 이미지21대표(코가로보틱스 마케팅자문)
"GPT-4는 인류 역사상 가장 훌륭한 기술이지만, 가장 위험하고 두려운 존재다." 챗GPT를 만든 오픈 AI CEO 샘 알트먼의 말이다.
인간과 경쟁하는 지능을 갖춘 챗GPT는 놀라운 생산성을 보이며 생성형AI시대를 열었을 뿐 아니라 글로벌 빅테크 시장에 AI 가속엔진을 달았다. MS, 구글, 메타, 아마존, 심지어 AI개발을 늦추자던 일론 머스크까지 AI스타트업 X를 세우고 생성형AI 시장에 뛰어들었다.
문제는 속도감 못지 않게 빨리 나타난 부작용이다. 하얀 패딩을 입고 산책하는 패셔너블한 교황부터 경관에게 끌려가는 트럼프 전 미국대통령까지 이미지 생성 프로그램으로 만들어진 가짜 사진들이 한때 SNS를 뜨겁게 달궜다.
딥페이크로 만든 유명인의 음란물이 떠돌기도 하고 챗GPT가 지어낸 거짓 정보 때문에 미국의 멀쩡한 법대 교수가 성추행범으로 몰리는가 하면 챗GPT 대화 이력 일부가 다른 이용자에게 노출되는 개인정보 유출 문제도 발생했다. 생성형 AI의 엄청난 잠재력 만큼 사회 이곳저곳에서 생겨난 혼란은 AI 규제의 목소리를 키우는 데 한몫을 했다.
규제의 포문은 미국의 비영리단체 '삶의 미래 연구소(FLI)'가 열었다. IT업계·학계 저명인사들이 대거서명한 공개서한을 통해 "최첨단 AI 시스템의 개발을 6개월 간 중단하자" 촉구했다. 생성형 AI가 인간 언어를 이해하고 구사하는 데 필요한 대규모 언어 모델을 구축하는 과정에서 데이터를 어떻게 처리하는지 분명하게 알 수 없다는 지적과 함께 허위정보 확산, 해킹, 대규모 실업 등에 대한 우려를 표했다.
세계 각국의 규제도 시작됐다. 미국 통신정보관리청(NTIA)은 합법적, 효율적, 윤리적이며 안전하고 믿을 수 있는 AI 시스템을 보장하기 위한 방안이 있을지 살펴보겠다며 60일간 AI 규제안에 대한 여론을 수렴해 바이든 대통령에게 정책 권고안을 보고할 방침이라 밝혔다.
애둘러 말했지만 AI규제를 시작하겠다는 말이다. 2021년 세계 최초로 'AI 법안(AI Act)' 초안을 만든 유럽연합(EU)는 규제에 더 적극적이다. 이탈리아 데이터보호청은 데이터 무단 수집과 개인정보 유출을 이유로 챗GPT 접속을 잠정 중단했고 EU 의회와 독일도 심층 조사에 들어갔다. 우리나라도 개인정보보호 관련해 챗GPT를 들여다보겠다는 뜻을 밝혔다.
생성형AI는 텍스트, 오디오, 이미지 등 기존 콘텐츠의 패턴을 학습한 후 추론해 새로운 콘텐츠를 만들어낸다. 기존 AI가 데이터와 패턴을 학습해 대상을 이해했다면 생성형AI는 기존 데이터와 비교 학습을 통해 새로운 창작물을 탄생시키는 방식이다.
스탠퍼드대 인간중심AI연구소장 페이페이 리 교수는 생성형AI는 어떤 AI 기술보다 인간과의 소통에 촛점이 맞춰진 사실상 AI의 변곡점이라며 우리 사회 전반에 큰 영향을 미칠 것이라 예견했다. 생성형AI는 명령어 몇 마디로 지식노동의 자동화를 해내고 창작노동의 시간과 노력을 획기적으로 줄여줌으로써 노동력을 보완하고 더 생산적이고 창의적인 삶을 만들 수 있다.
하민회 이미지21 대표. |
반면 썩 그럴듯한 가짜뉴스로 편견을 강화시키거나, 정보에 대한 신뢰를 떨어뜨릴 수도 있다. 물론 어느 쪽이든 AI가 자체적으로 수행하지는 못한다. 전적으로 사용자의 의도에 따라 결과가 생성되고 활용되는 응답형 시스템이다.
산이 높으면 골이 깊듯이 혁신적인 기술일수록 파괴력이 크다. 잘 쓰면 득이지만 못쓰면 치명적인 독이 될 수 있는 생성형AI 기술을 통제 조절하는 데 과연 규제가 최선일까?
우선 몰아치는 기술 발전 속도부터 감안 해보자. 문제를 발견해 규제를 서두른다 해도 모든 케이스를 다 포함하기엔 무리다. 게다가 기술 도입 초기인 만큼 자칫 규제로 발목을 잡으면 AI 기술패권에서 우리 기업들이 뒤처질 우려도 있다. AI관련 법안도 충분히 준비되지 않은 상태다. 2020년부터 인공지능관련 법안들이 제출되긴 했지만 심의가 거의 이뤄지지 않다가 챗GPT 등장 이후 심사가 좀 빨라진 정도다. 현재 인공지능관련 7개 법안이 국회에 계류 중이다.
우리는 아직 생성형 AI 가능성과 능력에 관해 충분히 알지 못한다. 명확하지 않은 상태에서 모호한 규제를 고민하기보다는 AI윤리를 교육하고 AI윤리의식을 대중적으로 확산시켜 현명하고 올바른 개발과 활용에 촛점을 맞추는 건 어떨까? 복잡한 이해관계로 인해 명쾌하게 규정되기 어려운 사회적 책임과 권한의 문제도 사회 구성원들의 공감과 합의가 선행된다면 때로 순조로와질 수 있다.
AI윤리란 결코 어려운 개념이 아니다. 말 그대로 인공지능을 개발, 운영, 사용함에 있어 개발자와 소비자에게 요구되는 마땅히 행하거나 지켜야 할 도리를 말한다. 예를 들어 기술발전을 이유로 함부로 인권이나 사생활을 침해해서는 안된다거나 당사자 허락없이 무단으로 개인정보를 취할 수 없다는 상식들이다. 다만 AI와 공존이라는 겪어보지 못한 상황은 우리에게 어느 것이 옳은 판단인지, 무엇을 우선시 해야 할지, 어떤 예외 상황을 인정해야할지 같은 모호한 퀴즈를 내며 답변을 요구할 수 있다. 이럴 때 AI윤리 기준을 참고하면 도움이 된다.
인공지능 기술에 대해 '선허용 후규제'를 기본 방침으로 삼고 있는 우리 정부는 2020년 12월 '인공지능 윤리기준'을 마련해 10대 핵심 요건으로 ①인권 보장 ② 프라이버시 보호 ③ 다양성 존중 ④침해금지 ⑤ 공공성 ⑥ 연대성 ⑦ 데이터 관리 ⑧ 책임성 ⑨ 안전성 ⑩ 투명성을 제시했다.
AI 윤리의식은 기술의 오용이나 남용, 편법으로 인한 혼란과 피해로부터 스스로를 지킬 수 있고 사회 구성원 모두를 건강하게 지키는 울타리가 될 수 있다.
AI 윤리의식을 키우는 가장 쉽고 효과적인 방법은 일상에서 꾸준히 질문을 던지고 생각하는 일이다. AI는 개인정보를 어디까지 수집하고 분석해도 되는 걸까. 나의 노력이 어느 정도 담겨야 AI창작물의 저작권이 인정될까. 채용같은 사람을 직접 판단하는 일을 AI에게 전적으로 맡겨도 되는걸까.
챗GPT 가 몰고 온 규제의 끝자락이 생각하는 힘에 와닿았다. 지금이야말로 그 힘을 써야 할 때다. 인간을 위대하게 만든 생각하는 힘을.
◇하민회 이미지21대표(코가로보틱스 마케팅자문) =△경영 컨설턴트, AI전략전문가△ ㈜이미지21대표, 코가로보틱스 마케팅자문△경영학 박사 (HRD)△서울과학종합대학원 인공지능전략 석사△핀란드 ALTO 대학 MBA △상명대예술경영대학원 비주얼 저널리즘 석사 △한국외대 및 교육대학원 졸업 △경제지 및 전문지 칼럼니스트 △SERI CEO 이미지리더십 패널 △KBS, TBS, OBS, CBS 등 방송 패널 △YouTube <책사이> 진행 중 △저서: 쏘셜력 날개를 달다 (2016), 위미니지먼트로 경쟁하라(2008), 이미지리더십(2005), 포토에세이 바라나시 (2007) 등