[실리콘밸리=뉴스핌]김나래 특파원= 샘 올트먼 오픈AI 최고경영자(CEO)를 포함한 약 350명의 인공지능(AI) 업계 관계자들과 과학자들이 AI를 핵전쟁에 비유하며 인류의 멸망을 일으킬 수 있다고 경고하며 책임있는 개발을 촉구했다.
30일(현지시간) 로이터 통신 등에 따르면 이날 비영리단체 AI안전센터(CAIS)는 성명을 내고 AI 기술의 급격한 발전으로 인해 AI 기술을 통제해야 한다는 목소리를 냈다.
CAIS는 "AI로 인한 위기를 막는 것은 전 세계적인 우선순위가 돼야 한다"며"AI 기술을 전염병이나 핵전쟁과 같은 위험성이 있어 이를 낮춰야 한다"고 밝혔다.
마이크로소프트(MS) 빙 행사에 참석한 샘 올트먼 오픈AI 최고경영자(CEO). 2023.02.07 [사진=블룸버그] |
이어 "아직 공상과학 소설에나 나올 법한 AI를 개발하지는 못했다"면서도 "AI 산업에 대한 과대광고와 투자가 넘쳐나면서 큰 사고가 우려되고 있다"고 밝혔다. 이어 "AI의 책임 있는 개발을 위한 토론과 적절한 규제가 필요하다"고 강조했다.
이날 성명에는 AI 과학자들과 경영인 등 350명이 서명했으며 이 가운데 '챗GPT'를 개발한 오픈 AI의 올트먼 CEO외에도 미라 무라티 최고기술분야대표(CTO)가 참여했다. 또 케빈 스콧 마이크로소프트(MS) 최고기술책임자(CTO), 구글 딥마인드를 공동 창업한 무스타파 술레이만 등도 이름을 올렸다.
이와 함께 유엔에서 군축 분야를 담당했던 앤젤라 케인도 서명했으며, CAIS는 서명에 동참할 전문가들을 추가로 모집하고 있다.
댄 헨드릭스 CAIS 센터장은 "이번 성명이 핵무기의 위험성을 경고하는 과학자들과 유사하며, 위험 관리 차원에서 잠재적 위험을 무시하는 것은 무모한 일이다"고 강조했다.
한편 최근 AI 규제에 대한 목소리는 커지고 있다. 지난 3월에도 1000여명의 기술자들과 개발자들은 규제의 필요성을 강조하며 대규모 AI 개발을 6개월간 중단할 것을 촉구하기도 했다.
이에 최근 실질적인 논의가 이뤄지고 있다. 이달 초에는 백악관이 오픈AI를 비롯해 구글 등 핵심 기업을 초청해 카멀라 해리스 부통령 주관으로 대책 회의를 열었다. 또 상하원 청문회에서는 AI의 위험성을 막기 위해 정부 차원의 규제와 개입, 국제 표준 마련이 필요하다는 주장이 제기됐다.
올트먼 CEO도 최근 청문회를 통해 AI의 잠재적 위험을 통제하고 부작용을 막기 위해 국제원자력기구(IAEA) 같은 국제기구가 필요하다는 방안을 제시한 바 있다.
ticktock0326@newspim.com