AI 윤리 규제로 진입문턱 높이는 국제사회
정부·민간, 국제기준 대응해야 경쟁 가능
[세종=뉴스핌] 이경태 기자 = "결국 선택은 시장의 몫입니다"
데이터·인공지능(AI) 산업에 대한 글로벌 규제가 강화되고 있는 상황에서 정부와 민간의 생각은 다르지 않았다. AI 산업이 급성장하고 있는 반면, 윤리적인 논란도 확산하는 만큼 국내 AI 업체들 역시 글로벌 시장을 공략하기 위해서는 지금부터 철저히 준비를 해야 한다는 얘기도 들린다.
◆ 갈수록 강화되는 글로벌 AI 윤리 규제
한국신용정보원이 지난해 말께 발표한 글로벌 AI 시장 규모는 2018년 198억3000만달러에서 2019년 262억달러로 32.1% 성장했다. 오는 2025년에는 무려 1840억7000만 달러로 확대될 것으로 예측됐다.
이렇다보니 국제사회 역시 AI 산업에 대한 잠재력에 기대를 거는 모습이다. 실제 인공지능 관련 기술의 상대적 수준(인공지능·빅데이터·응용 소프트웨어)를 보면, 미국의 수준을 각각 100%인 상황에서 유럽은 인공지능 90.1%, 빅데이터 92.7%, 응용SW 91.9% 수준으로 평가된다.
중국(인공지능 88.1%, 빅데이터 87.7%, 응용SW 84.7%), 일본(인공지능 86.4%, 빅데이터 84.8%, 응용SW 86.1%) 순이며 우리나라는 인공지능 81.6%, 빅데이터 83.4%, 응용SW 86.6% 수준으로 알려진다.
글로벌 주요국의 인공지능 신뢰 확보를 위한 정책 추진 현황 [자료=과학기술정보통신부] 2021.05.13 biggerthanseoul@newspim.com |
국가별로 AI 기술력을 지속적으로 향상시키다보니 국제사회의 규제 또한 강화된다. 기술력 자체적으로는 규제를 하기 어려운 만큼, 윤리 문제를 두고 규제를 확대해나가는 분위기다.
13일 과학기술정보통신부에 따르면, 유럽연합(EU)는 자동화된 의사결정에 대한 사업자의 활용 고지 의무 및 이용자의 이용거부, 설명요구 및 이의제기 권리를 제도화한 유럽개인정보보호법을 2018년부터 시행하고 있다. 일반적으로 다른 국가 대비 AI 규제 수위가 상대적으로 높은 것으로 평가된다.
미국도 2019년부터 국가 인공지능 연구·개발(R&D) 전략으로 '기술적으로 안전한 AI 개발'을 채택해 시행하고 있다. 프랑스는 기업・시민 등 3000명이 참여한 숙의적인 공개 토론을 통해 '인간을 위한 AI' 구현에 필요한 권고사항을 2018년 도출했다.
영국은 2018년부터 5대 윤리규범을 시행하고 있으며, 2019년부터는 공공부문의 안전한 AI 활용을 위한 지침도 내놨다. 일본도 2018년 인공지능과 관련된 모든 이해관계자들이 유의해야 할 7대 기본 원칙을 담은 '인간 중심의 AI 사회 원칙'을 발표하면서 AI의 부작용 등을 경계했다.
국제사회가 저마다 AI와 관련된 규제를 내놓은 것은 미래 기술이 인간을 위협할 수 있다는 우려 때문으로 알려진다. 다만, 이면에는 향후 확대되는 시장 규모에 맞춰 시장을 선점하기 위한 진입장벽을 높이기 위한 의도로도 풀이된다. 미국에 비해 AI 글로벌 기업이 상대적으로 많지 않은 유럽국가들이 규제를 강화하는 데 혈안인 이유다.
정부 한 관계자는 "갈수록 커지는 시장을 차지하기 위해서는 기술력을 통한 경쟁보다는 규제를 강화하는 게 용이한 측면"이라며 "EU의 경우, 다양한 분야에서 국제 표준의 규제를 내놓는 만큼 앞으로도 규제는 더욱 강화될 수 밖에 없고, 이에 적절하게 대응해야 한다"고 말했다.
◆ "가이드라인 제시하며 AI 산업 싹 키울 때"
정부가 이번에 제시한 '신뢰할 수 있는 인공지능 실현전략'을 보면, 신뢰구현 법제도·윤리·기술적 요구사항을 종합한 AI 개발 가이드북이나 AI 윤리기준 실천을 위한 윤리 교육 강화 및 개발자·이용자용 체크리스트는 얼핏 강화된 규제처럼 보인다는 평가를 받기도 한다.
그러나 국제사회의 AI 윤리 규제 등에 비춰볼 때 최소한의 기준 제시라는 평가도 함께 나온다. 글로벌 시장을 공략해야 하는 AI 업체들이 국제사회의 규제에 적응하기 위해 최소한 확인하고 지켜나갈 수 있는 요건을 제시했다는 게 과기부 관계자의 설명이기도 하다.
[서울=뉴스핌] 김학선 기자 = 송상훈 개인정보보호위원회 조사조정국장이 28일 서울 종로구 정부서울청사에서 인공지능(AI) 챗봇 '이루다'와 관련한 개인정보보호 법규 위반행위 시정조치에 대해 브리핑하고 있다. 개인정보위는 이날 전체회의를 열고 챗봇 '이루다' 개발사 스캐터랩에 대해 총 1억 330만원의 과징금과 과태료 등을 부과했다고 밝혔다. 2021.04.28 yooksa@newspim.com |
실제 지난달 개인정보보호위원회로부터 1억330만원의 과징금과 과태료 처분을 받은 챗봇 '이루다' 서비스 개발업체인 스캐터랩 역시 심의 과정에서 규제의 모호성을 강조하기도 했다. AI 산업계에서 당장의 규제로 보일 수는 있으나 국내 산업 생태계는 초기 시장이다보니, 시작부터 규제 등에 대한 업체의 자발적인 대비가 필요하다는 게 IT 전문가들의 조언이기도 하다.
정부도 아직은 할 일이 많다. 현재 제시된 최소한의 가이드북 이외에도 AI 시장 특성상 변화의 패턴을 예상하지 못하는 만큼 변수 대응에 대한 지원을 해줘야 한다는 목소리도 높다.
이성 디다이브 CTO는 "AI에 대한 가이드는 특수성이 있어 윤리적인 문제라던지, 특정 상향에 대한 데이터 편향성 등등 어디에서 어떤 모습으로 문제가 발생할 지 예측하기가 쉽지 않다"며 "일반적인 가이드도 필요하나 특정 사례별로 업계가 충분히 소화해낼 수 있도록 살펴봐주는 것도 필요할 것"이라고 말했다.
그는 또 "업체 역시 최대한 문제가 될 수 있는 방법에 대해 대응해야 한다"며 "초기에 정해놓지 않을 경우, 나중에 엄청난 자금과 시간을 들여 시스템을 개선해야 하기 때문에 이런 상황에 대해 정부나 민간 모두 각별한 노력을 해야 할 것"이라고 덧붙였다.
biggerthanseoul@newspim.com