인공지능 윤리·신뢰성 확보 추진계획 제시
[세종=뉴스핌] 이경태 기자 = 인공지능(AI)의 위험성을 우려해 창작물에 워터마크를 도입하는 방안이 검토되고 있다. 내년부터는 초거대AI의 신뢰성을 확보하기 위해 220억원을 투입해 차세대생성인공지능기술개발 사업도 진행된다.
이종호 과학기술정보통신부 장관은 25일 오전 10시 서울 강서구 LG사이언스파크에서 고학수 개인정보보호위원회 위원장 및 인공지능 분야 민간 최고위 관계자들과 함께 인공지능 위험성 우려에 대응해 안전한 인공지능 확산방안을 논의하기 위해 '제4차 인공지능 최고위 전략대화'를 열었다.
이종호 과학기술정보통신부 장관(왼쪽)과 고학수 개인정보보호위원회 위원장이 25일 오전 10시 서울 강서구 LG사이언스파크에서 열린 '제4차 인공지능 최고위 전략대화'에서 기념촬영을 하고 있다. [자료=과학기술정보통신부] 2023.10.25 biggerthanseoul@newspim.com |
이번 행사는 지난 9월 '대한민국 초거대 인공지능 도약' 행사에서 기업들이 인공지능 신뢰성 강화를 위해 필요한 안전조치를 자발적으로 마련하겠다고 약속했던 선언의 후속으로 마련됐다.
과기부는 그동안 진행한 간담회와 현장방문 등에서 수렴한 의견들을 토대로 '인공지능 윤리·신뢰성 확보 추진계획'을 발표하고 향후 민·관이 함께 나아가야 할 방향을 공유했다.
인공지능 윤리·신뢰성 확보 추진계획은 ▴민간 자율 인공지능 윤리·신뢰성 확보 지원 ▴세계를 선도하는 인공지능 윤리·신뢰성 기술·제도적 기반 마련 ▴사회 전반 책임 있는 인공지능 의식 확산 등 인공지능 윤리·신뢰성 모범국가를 목표로 두고 있다.
주요국과 국제기구들이 인공지능 신뢰성 확보를 산업 발전의 전제로 인식해 가이드라인 등 자율 실천방안을 제시하는 상황에서 '국가 인공지능 윤리기준'의 구체적 실천수단으로 채용, 생성형 인공지능 기반 서비스 등 분야별 가이드라인을 마련·확대한다. 이를 토대로 민간 자율 신뢰성 검·인증을 다음달부터 추진한다. AI 사업 중 고위험 영역 인공지능 개발·실증 사업을 수행하는 기업을 일부 선정해 오는 12월 시범 인증을 추진한다.
인공지능 윤리·신뢰성 확보 추진계획 [자료=과학기술정보통신부] 2023.10.25 biggerthanseoul@newspim.com |
인공지능 자체가 내포하는 편향성, 불투명성 등 기술적 한계와 인공지능 오작동 등에 따른 인공지능의 잠재 위험요인에 대응하기 위해 기존 인공지능의 한계를 극복하고 초거대 인공지능의 신뢰성을 확보하기 위한 기술개발을 내년부터 신규로 추진할 예정이다. 이를 위해 2024~2027년 220억원을 투입해 차세대 생성인공지능 기술개발 사업을 추진한다.
챗GPT와 같은 초거대 인공지능의 확산으로 인공지능이 가져다줄 혜택에 대한 기대와 함께 안전에 대한 위험성 우려가 확대되는 상황에서 인공지능이 생성한 결과물에 대한 워터마크 도입의 제도화를 검토한다. 고위험 인공지능에 대한 해설서를 내년 1분기께 마련하는 등 신뢰성 확보를 위한 제도 정립 과제도 마련한다.
이종호 과기부 장관은 "인공지능은 디지털 심화 시대의 핵심기술로서 인공지능의 신뢰성과 안전성을 확보하기 위한 노력이 무엇보다 중요하다"며 "민간 자율 인공지능 신뢰성 검·인증 지원을 비롯한 인공지능 윤리 생태계 기반 조성과 적합한 규제 체계를 정립해 가는 데 힘쓰고, 관계부처와 함께 인공지능 윤리·신뢰성을 확보할 수 있는 정책방안을 보완해 새로운 디지털 질서의 모범이 되기 위해 최선을 다할 것"이라고 말했다.
biggerthanseoul@newspim.com