전체기사 최신뉴스 GAM
KYD 디데이
산업 생활경제

속보

더보기

[김정호의 4차혁명 오딧세이] 인공지능의 소통 방법

기사입력 :

최종수정 :

※ 본문 글자 크기 조정

  • 더 작게
  • 작게
  • 보통
  • 크게
  • 더 크게

※ 번역할 언어 선택

김정호 교수.

펀치 카드의 추억

필자가 대학 1학년때 배운 컴퓨터 언어가 ‘포트란’이라는 과학기술용 컴퓨터 언어였다. 이러한 컴퓨터 언어란 인간과 컴퓨터의 소통을 가능하게 해주는 도구이다. 그 포트란은 주로 수학과 과학기술 계산에 편리한 컴퓨터 언어였다. 1980년대인 그때 학교에서 포트란 언어를 읽고 실행하는 컴퓨터가 IBM360/380 시리즈로 기억 한다. 그런데 프로그램을 직접 짜면 ‘펀치카드’라는 두꺼운 종이에 구멍이 뚫리는 방식으로 프로그램이 기록이 된다.

지금 생각해 보면 아주 원시적인 기록이며 컴퓨터 입력 방식이다. 타이프 치듯이 프로그램을 입력하면 이 펀치카드 종이에 구멍이 뚫린다. 이렇게 완성된 이 수 십장, 또는 수 백장의 펀치카드 뭉치를 학교 전산실에 제출하고 그 이후 1-2일 후에 계산 결과를 얻는다. 그때 계산 결과는 종이에 숫자 형식의 데이터로 프린트 되어 나온다. 그러니 1980년대초 컴퓨터의 입력은 종이에 구멍이 뚫린 펀치카드였고, 출력은 프린트 용지였다. 종이가 많이 필요했다. 이때 프린트 용지 맨 바깥쪽에는 프린트 기기에 쉽게 연결이 되게 작은 구멍이 아래 위로 쭉 뚫려 있었다. 이 수 백장의 프린트 용지는 추후 전공 관련 수학 수식을 풀때 요긴하게 쓰인 ‘이면지’였다. 종이가 이면지이자 컴퓨터와의 소통 방식이었다.

그런데 한번 포트란 프로그램에서 실수를 하면 몇 일이 지난 후에야 그 결과를 보고, 다시 고치고 입력해야 한다. 디버깅에 시간이 엄청 많이 걸린다. 그래서 프로그램을 짤 때 실수를 최소화해야 한다. 그때 필자는 학교를 전철을 타고 다녔는데, 전철에 앉아 펀치카드에 입력된 프로그램의 오류를 찾기 위해 몇 번이고 다시 검토하고 읽어 보기도 한 기억이 난다. 이처럼 이러한 초기 컴퓨터의 입출력 방식은 수시로 고치고 편집하거나 다시 실행하기 어려웠다. 그리고 종이의 낭비가 심했다고 볼 수 있다. 요즘 말로 ‘copy’, ‘paste’ 가 불가능하다. USB 에 작게 담거나 인터넷으로 파일을 보낼 수도 없다. 그때는 펀치카드 한 개의 박스로 담아 이동했다. 시간과 비용이 많이 드는 소통방식이다.

그 이후 몇 년이 지나 애플 8비트 컴퓨터가 학과에 한 대가 도입이 되었다. 이제는 펀치카드나 프린트 종이 필요 없이 화면을 보고, 프로그램을 편집하고, 입력하고, 그 계산 결과도 바로 화면으로 보았다. 컴퓨터와의 소통에 종이가 사라지기 시작했다. 편집이나 수정은 한 줄, 한 줄 했다. 요즘처럼 화면 전체를 왔다 갔다 하면서 고친 것이 아니라, 한 줄, 한 줄 고쳤다. 그야말로 줄 편집(line editing)이었다. 이 때 사용한 프로그램으로 ‘베이직’이 기억한다. 이후 IBM XT/AT 개인용 컴퓨터가 등장하면서 컴퓨터가 더욱 대중화 되었다. 워드 프로세서도 등장했다. 이제 펀치카드는 사라졌다. 이처럼 컴퓨터가 발전하면서 입력, 출력 장치도, 다르게 말하면 소통 방식도 인간에게 더 편리하게 발전해 왔다. 따라서 인공지능 컴퓨터의 입출력 형태와 소통 방식도, 또 다시 진화할 것으로 기대한다.

인공지능의 입력과 출력

현재 가장 많이 사용되고 있는 대표적인 인공지능 알고리즘이 CNN(Convolution Neural Network)이다. 주로 사진 이미지나 동영상을 판독하고, 이해하는데 사용하는 알고리즘이다. 특히 인터넷과 유튜브에 널린 수많은 사진과 영상 자료가 CNN 학습 데이터가 된다. 이때 컴퓨터가 자동적으로 인터넷에서 읽어서 긁어 모은다. 펀치카드도 필요가 없고 자판기도 필요가 없다. CNN은 이들 사진들을 입력하고, 출력으로는 예를 들어 그 사진 속의 물체를 인식(Classification)하거나 사진(Image) 속의 장면으로 글(Caption)로 쓰거나, 이야기(Text)를 만들 수도 있다. 또는 사진 속의 인물이 다음에 할 행동을 예측(Prediction)하거나 추후 일어날 사건을 예측한다. 또는 화면 속의 상황을 이해(Explain)할 수 있다. 이렇게 CNN의 출력은 ‘Tag(이름), ‘설명문(Caption)’, ‘문학 작품(Text)’이 되기도 한다. 때로는 음성 단어나 스토리로 만들어 출력할 수도 있다. 그리고 더 나아가 그 내용에 맞게 영상도 제작 가능하고, 음악도 창작 가능하고, 그림도 창작 가능하다. 출력으로 창작물을 만들 때 GAN(Generative Adversary Network) 알고리즘이 CNN과 같이 결합될 수 있다. 이 경우 출력은 창작 그림, 시, 문학작품, 음악, 영화도 된다.

입력 ‘사진’을 보고, ‘새’라고 확률(출력)을 제시(Classification)해 주는 CNN의 내부 구조. [출처=KAIST]

인공지능에서 CNN 다음으로 많이 사용하는 알고리즘이 RNN(Recurrent Neural Network)이다. 주로 시간 차이를 두고 순차적으로 입력되는 데이터의 해석과 이를 기초한 미래 예측에 사용된다. 대표적으로 사용하는 말을 알아듣는 인공지능 알고리즘이다. 말은 문법에 따라 순서대로 들어 온다. 그래서 입력의 순서에 따라 의미와 해석이 달라진다. 이 때문에 인공지능이 컴퓨터 내부에서 순차적으로 데이터를 받아 들이고, 순차적으로 학습하고 판단하도록 설계되어 있다. 다른 말로 시간과 순서 개념이 있는 인공지능이다. 그래서 RNN의 입력은 문장 혹은 사람의 말이 된다. 또는 영화의 장면과 장면의 연속이 입력이 될 수 있다.

책 한 권 전체가 RNN의 입력이 될 수도 있다. 그 속에 단어가 순서대로 나열되어 있게 때문이다. 더 나아가 인류가 유사이래 만든 모든 문서, 모든 책이 RNN 의 입력이 될 수 있다. 여기에 전세계 수 백 개 언어의 책과 문서, 녹음 파일 전체가 입력 데이터가 되는 엄청난 분량이 된다. 인공지능 컴퓨터가 책을 모두 쉽고 빠르게 읽는 입력 장치만 개발되면 된다.

전화 상담하면 녹음이 되고, 디지털화되면 그 파일이 바로 RNN의 입력이 된다. 지하철 속에서 주고 받는 대화 모두가 누군가 기록한다면 RNN 입력이 된다. 스마트폰으로 주고 받는 문자와 통화내용도 입력이 된다. 집에 설치된 아마존 인공지능 스피커도 ‘알렉사’도 RNN 입력이 된다. 그래서 CNN의 영상 이미지 이상으로 많은 RNN 입력 데이터가 지구상에 존재한다.

이러한 RNN의 출력은 ‘정답’, ‘독후감’, 설명문’ 또는 ‘다음 문장’이 된다. 입력 데이터를 읽고 이해하고, 그 전체를 요약하거나 문맥을 설명하는 것이 출력도 된다. 또는 그에 해당하는 사진이나 영상을 출력할 수도 있다. 또는 입력 문장에 맞게 음악, 그림, 소설, 영화 등을 창작할 수 있다. 이때는 RNN 과 GAN이 결합해야 한다. 이처럼 RNN의 입력은 문자이나, 녹음, 영상, 책이 되고 출력은 단어, 해설, 또는 창작물이 된다. 이것이 RNN의 소통방식이다.

순서대로 들어오는 입력 문장을 통해 출력으로 해석하거나 단어로 표현하는 RNN 구조. [출처=KAIST]

궁극적인 인공지능의 입출력

결국 인공지능이 사람같이 생각하고, 행동하고 교류하려면 입출력 방식이 인간을 닮은 모습이 아닌가 한다. 결국 인공지능 소통 방식이 인간과 같아야 한다. 그렇게 되면, 인공지능의 입력은 사람처럼 말을 알아 듣고, 눈으로 볼 수 있어야 한다. 그리고 인공지능의 출력은 말을 하거나 글을 쓰거나, 단어로 표현하거나 한 단계 더 나아가, 문장, 소설, 시, 그림, 음악, 영화와 같은 창작물이 될 수 있다. 더 똑똑한 인공지능은 말을 하지 않아도, 문맥이나 표정만 보고 알아서 판단하고 행동을 하면 더 좋다. 궁극적으로 말 끼를 알아듣고, 눈치가 빠른 인공지능이 되어야 한다. 그 때 인공지능은 IQ 뿐만 아니라 EQ 도 좋아 사회성과 도덕성을 가지면 더욱 바람직하다.

미래 자율주행자동차에서는 이런 인공지능의 입출력 방법이 인간과 인공지능 컴퓨터와의 소통과 대화의 방식이 된다. 자율주행자동차의 기능에서 인공지능 자체의 기능도 중요하지만, 인간과의 소통을 위한 입출력 기능도 그에 못지 않게 같이 중요하다. 그래야 완전한 자율주행자동차 시대가 된다. 결국 인공지능이 발전하면서 인공지능의 소통 기술도 함께 발전되어야 한다. 궁극적으로는 소통의 방식은 ‘인간의 모습’을 닮아 간다. 언제인가 인공지능의 소통 방식으로 ‘텔리파시’까지 사용될 수도 있다.

 

[김정호 카이스트 전기 및 전자공학과 교수] joungho@kaist.ac.kr

[관련키워드]

[뉴스핌 베스트 기사]

사진
LG전자, 홈로봇 '클로이드' CES 공개 [라스베이거스=뉴스핌] 김아영 기자 = LG전자가 오는 6일(현지시간) 미국 라스베이거스에서 개막하는 세계 최대 가전·IT 전시회 CES 2026에서 홈로봇 'LG 클로이드(LG CLOiD)'를 공개한다고 4일 밝혔다. LG 클로이드는 AI 홈로봇의 역할과 가능성을 보여주는 콘셉트 제품이다. 사용자의 스케줄과 집 안 환경을 고려해 작업 우선순위를 정하고, 여러 가전을 제어하는 동시에 일부 가사도 직접 수행하며 비서 역할을 수행한다. 이번 공개는 '가사 해방을 통한 삶의 가치 제고(Zero Labor Home, Makes Quality Time)'를 지향해온 LG전자 가전 전략의 연장선이라는 것이 회사 측 설명이다. LG 클로이드가 세탁 완료된 수건을 개켜 정리하는 모습. [사진=LG전자] ◆CES서 보여주는 '제로 레이버 홈' 관람객은 CES 전시 부스에서 클로이드가 구현하는 '제로 레이버 홈' 시나리오를 볼 수 있다. 출근 준비로 바쁜 거주자를 대신해 전날 세운 식단에 맞춰 냉장고에서 우유를 꺼내고, 오븐에 크루아상을 넣어 아침 식사를 준비하는 모습 등이 연출된다. 차 키와 발표용 리모컨 등 일정에 맞는 준비물을 챙겨 전달하는 장면도 포함된다. LG 클로이드가 크루아상을 오븐에 넣으며 식사를 준비하는 모습. [사진=LG전자] 거주자가 집을 비운 동안에는 세탁물 바구니에서 옷을 꺼내 세탁기에 넣고, 세탁이 끝난 수건을 개켜 정리하는 시나리오가 제시된다. 청소로봇이 움직일 때 동선 위 장애물을 치워 청소 효율을 높이는 역할도 수행한다. 홈트레이닝 시에는 아령을 들어 올린 횟수를 세어주는 등 거주자의 일상 케어 기능도 시연한다. 이러한 동작은 상황 인식, 라이프스타일 학습, 정교한 모션 제어 능력이 결합돼 구현된다는 설명이다. ◆가사용 폼팩터·VLM·VLA로 최적화 클로이드는 머리와 두 팔이 달린 상체와 휠 기반 자율주행 하체로 구성된다. 허리 각도를 조정해 높이를 약 105cm에서 143cm까지 바꿀 수 있으며, 약 87cm 길이의 팔로 바닥이나 다소 높은 위치의 물체도 집을 수 있다. LG 클로이드가 거주자 위한 식사로 크루아상을 준비하는 모습.[사진=LG전자] 양팔은 어깨 3축(앞뒤·좌우·회전), 팔꿈치 1축, 손목 3축(앞뒤·좌우·회전) 등 총 7자유도(DoF)를 적용해 사람 팔과 유사한 움직임을 구현한다. 다섯 손가락도 개별 관절을 가져 섬세한 동작이 가능하도록 설계됐다. 하체에는 청소로봇·Q9·서빙·배송 로봇 등에서 축적한 휠 자율주행 시스템을 적용해 무게 중심을 아래에 두고, 외부 힘에도 균형을 유지하면서 상체의 정밀한 움직임을 지원한다. 이족보행보다 비용 부담이 낮다는 점도 상용화 측면의 장점으로 꼽힌다. LG 클로이드가 홈트레이닝을 돕는 모습. [사진=LG전자] 머리 부분은 이동형 AI 홈 허브 'LG Q9' 기능을 수행한다. 칩셋, 디스플레이, 스피커, 카메라, 각종 센서, 음성 기반 생성형 AI를 탑재해 언어·표정으로 사용자를 인식·응답하고, 라이프스타일과 환경을 학습해 가전 제어에 반영한다. LG전자는 자체 개발 시각언어모델(VLM)과 시각언어행동(VLA) 기술을 칩셋에 적용했다. 피지컬 AI 모델 기반으로 수만 시간 가사 작업 데이터를 학습시켜 홈로봇에 맞게 튜닝했다는 설명이다. VLM은 카메라로 들어온 시각 정보를 언어로 해석하고, 음성·텍스트 명령을 시각 정보와 연계해 이해하는 역할을 맡는다. VLA는 이렇게 통합된 시각·언어 정보를 토대로 로봇의 구체적인 행동 계획과 실행을 담당한다. 여기에 LG의 AI 홈 플랫폼 '씽큐(ThinQ)', 허브 '씽큐 온'과 연결 가전이 더해지면 서비스 범위가 넓어진다. 예를 들어 가족과 씽큐 앱에서 나눈 메뉴 대화를 기반으로 식단을 계획하고, 날씨 정보와 창문 개폐 상태를 조합해 비가 오면 창문을 닫는 등의 시나리오가 가능하다. 퇴근 시간에 맞춰 세탁·건조를 마치고 운동복과 수건을 꺼내 준비하는 연출도 제시된다. ◆로봇 액추에이터 브랜드 'LG 악시움' 첫 공개 LG전자는 홈로봇을 포함한 로봇 사업을 중장기 성장축으로 보고 조직·기술 강화에 나서고 있다. 최근 조직개편에서 HS사업본부 산하에 HS로보틱스연구소를 신설해 전사에 흩어져 있던 홈로봇 관련 역량을 모으고, 차별화 기술 확보와 제품 경쟁력 제고를 목표로 삼았다. LG 액추에이터 악시움(AXIUM) 이미지. [사진=LG전자] 이번 CES에서는 로봇용 액추에이터 브랜드 'LG 액추에이터 악시움(LG Actuator AXIUM)'도 처음 공개한다. '악시움'은 관절을 뜻하는 'Axis'와 Maximum·Premium을 결합해 고성능 액추에이터를 지향한다는 의미를 담았다. 액추에이터는 모터·드라이버·감속기를 통합한 모듈로 로봇 관절에 해당하며, 로봇 제조원가에서 비중이 큰 핵심 부품이다. 피지컬 AI 확산과 함께 성장성이 높은 후방 산업으로 평가된다. LG전자는 가전 사업을 통해 고성능 모터·부품 기술을 축적해왔다. AI DD 모터, 초고속 청소기용 모터(분당 15만rpm), 드라이버 일체형 모터 등 연간 4,000만 개 이상 모터를 자체 생산하고 있다. 회사는 이 같은 기술력이 액추에이터의 경량·소형·고효율·고토크 구현에 기반이 될 것으로 기대한다. 휴머노이드 한 대에 수십 개 액추에이터가 필요한 만큼, LG의 모듈형 설계 역량도 맞춤형 다품종 생산에 도움이 될 것으로 전망된다. ◆홈로봇 성능·폼팩터 진화 지속…축적된 로봇 기술은 가전에 확대 적용 LG전자는 집안일을 하는 데 가장 실용적인 기능과 형태를 갖춘 홈로봇을 지속 개발하는 동시에 청소로봇과 같은 '가전형 로봇(Appliance Robot)'과 사람이 가까이 가면 문이 자동으로 열리는 냉장고처럼 '로보타이즈드 가전(Robotized Appliance)' 등 축적된 로봇 기술을 가전에도 확대 적용할 계획이다. AI가전과 홈로봇에게 가사일을 맡기고, 사람은 쉬고 즐기며 가치 있는 일에만 시간을 쓰는 AI홈을 만드는 것이 목표다. 백승태 LG전자 HS사업본부장 부사장은 "인간과 교감하며 깊이 이해해 최적화된 가사 노동을 제공하는 홈로봇 'LG 클로이드'를 비롯해 '제로 레이버 홈' 비전을 향한 노력을 지속해 나갈 것"이라고 밝혔다. aykim@newspim.com 2026-01-04 10:00
사진
의대 정시 지원자 5년 만에 최저 [서울=뉴스핌] 정일구 기자 = 올해 의과대학 정시모집 지원자가 큰 폭으로 줄어 최근 5년 중 최저치를 기록했다. 4일 종로학원에 따르면 2026학년도 전국 39개 의대 정시모집 지원자는 7125명으로 전년대비 32.3% 감소했다. 지원자는 2022학년도 9233명, 2023학년도 844명, 2024학년도 8098명, 2025학년도 1만518명으로 집계됐다. 사진은 4일 서울 시내의 한 의과대학 모습. 2026.01.04 mironj19@newspim.com   2026-01-04 15:57
기사 번역
결과물 출력을 준비하고 있어요.
종목 추적기

S&P 500 기업 중 기사 내용이 영향을 줄 종목 추적

결과물 출력을 준비하고 있어요.

긍정 영향 종목

  • Lockheed Martin Corp. Industrials
    우크라이나 안보 지원 강화 기대감으로 방산 수요 증가 직접적. 미·러 긴장 완화 불확실성 속에서도 방위산업 매출 안정성 강화 예상됨.

부정 영향 종목

  • Caterpillar Inc. Industrials
    우크라이나 전쟁 장기화 시 건설 및 중장비 수요 불확실성 직접적. 글로벌 인프라 투자 지연으로 매출 성장 둔화 가능성 있음.
이 내용에 포함된 데이터와 의견은 뉴스핌 AI가 분석한 결과입니다. 정보 제공 목적으로만 작성되었으며, 특정 종목 매매를 권유하지 않습니다. 투자 판단 및 결과에 대한 책임은 투자자 본인에게 있습니다. 주식 투자는 원금 손실 가능성이 있으므로, 투자 전 충분한 조사와 전문가 상담을 권장합니다.
안다쇼핑
Top으로 이동