이재성 / 창의ICT공과대학 컴퓨터공학부 교수

[과학] A.I.: 인공지능과 미래

  지난해 치러진 이세돌과 알파고의 바둑 대결 이후 인공지능에 관한 세간의 관심은 높아져 갔다. 이러한 관심을 바탕으로 인공지능 기술을 다양한 분야에 적용시키려는 노력 역시 박차를 가하고 있다. 이제 인공지능 기술의 완전한 실현은 먼 미래의 이야기가 아닌, 지금 여기의 이야기로 성큼 다가왔다고 해도 과언이 아니다. 본 지면은 앞으로 도래할 인공지능기술과 여러 분야의 전망에 대해 이야기 하고자 한다. <편집자 주>
[글 싣는 순서] ① 인공지능에 관하여 ② 4차 산업혁명과 인공지능의 역할 ③ 예술을 창작하는 기계, 인공지능 ④ 인간과 기계의 공(共)진화

 

 

인공지능, 이제 시작이다
 

이재성 / 창의ICT공과대학 컴퓨터공학부 교수


  최근 이세돌과 인공지능 바둑 프로그램 알파고(AlphaGo)의 대결에서 촉발된 인공지능(Artificial Intelligence)에 대한 관심은 학계, 산업계 등 다양한 분야로 확산됐다. 비록 인공지능이라는 용어 자체는 1956년 다트머스 회의(Dartmouth Conference)에서 전문가 시스템(Expert System)의 대가인 마빈 민스키(Marvin Minsky)와 인공지능의 아버지로 불리는 존 매카시(John McCathy), 정보 엔트로피를 제안한 수학자 클로드 섀넌(Claude Shannon) 등의 논의를 통해 제안되긴 했지만, 그 아이디어 자체는 그리스 신화에 등장하는 대장장이 신 헤파이스토스의 트리포도스(Tripodos)나 피그말리온 신화 등에서도 엿볼 수 있을 만큼 오래됐다. 다만, 구체적인 개념 자체는 1943년 월터 피츠(Walter Pitts)와 워런 맥클러(Warren McCulloch)에 의해 제기된 것을 최초로 보는 편이다. 두 연구자들은 뉴런(Neuron)이 시냅스(Synapse)에 의해 연결되어 있는 두뇌의 기본 구조를 모티브 삼아 인공지능 모형을 제안한다. 해당 모형은 뉴런들의 네트워크로 표현되는데, 하나의 뉴런이 다른 뉴런으로부터 자극을 받으면 0 또는 1을 출력해 뉴런간의 상호작용을 모사한 것이 핵심이다. 추가적으로 뉴런 사이의 연결강도를 변화시킬 수 있는 기계적인 학습 방법의 필요성을 주창했는데, 이는 헵의 학습 규칙(Hebbian learning rule)으로 알려져 있다. 이로써 과거 심리학과 철학의 전유물이었던 인간의 사고 과정은 뉴런을 활용한 신경망 모형과 기계적인 학습 방법을 통해 인공지능 분야의 핵심적인 연구 주제로 다뤄질 수 있게 된다.


인공지능의 역사


  1945년 폰 노이만(John von Neumann)은 기계도 생각을 할 수 있다고 주창한 앨런 튜링(Alan Turing)의 튜링 머신 아이디어를 바탕으로, 오늘날에도 활용되는 폰 노이만 구조의 컴퓨터를 발표하고, 1950년에는 앨런 튜링이 그 유명한 튜링 테스트를 제안하였다. 같은 해에 앨런 튜링의 주장에 공감하던 클로드 섀넌이 일반 체스 게임에서 고려해야 하는 경우의 수가 컴퓨터의 연산 능력을 아득히 넘어선다는 점을 지적하며 인공지능의 핵심 개념 중 하나인 휴리스틱(Heuristic)을 제안했고, 1951년 당시 대학원생이었던 마빈 민스키와 딘 에드먼즈(Dean Edmonds)가 폰 노이만 구조를 활용한 신경망 컴퓨터 SNARC를 최초로 개발하는 등의 성과를 거두었다. 1956년의 다트머스 회의는 인공지능이라는 새로운 과학 분야가 탄생하는 밑거름이 되었으며, 1950년대 후반에는 인공지능을 통한 대수학 문제 풀이, 기하학 정리의 증명, 언어 학습, LISP 프로그래밍 언어 개발 등 여러 가시적인 성과를 바탕으로 급속한 발전을 구가하게 된다. 1962년에는 프랭크 로젠블랫(Frank Rosenblatt)이 원시적인 신경망 이론에 학습을 위한 구체적인 이론인 퍼셉트론(Perceptron) 이론을 제시하여 최근 각광받고 있는 심층 학습(Deep learning)의 토대를 이룬다. 그러나 1960년대 말 이후의 인공신경망 연구는 2000년대 초반 제프리 힌튼(Geoffrey Hinton) 교수에 의해 부활하기까지 긴 암흑기를 맞이하게 되는데, 호사가들은 그 원인을 마빈 민스키의 기호주의(Symbolism)와 프랭크 로젠블랫의 연결주의(Connectionism)의 대립에서 찾곤 한다.

 
 


연결주의의 부활과 심층 학습의 대두


  마빈 민스키가 다트머스 회의에서 주장한 인공지능의 개념은 인간의 지식을 기호화하고 그 기호 간의 관계를 일일이 입력하여 학습을 시키거나 프로그래밍을 하면 컴퓨터는 인간과 비슷한 입력을 얻었을 때 출력 또한 비슷하게 낼 것이라는 가정에서 출발한 것이다. 이러한 접근 방법을 기호주의라고 하여 주어진 입력에 대해 원하는 출력을 얻기 위한 수많은 규칙으로 시스템을 구성하는 것이 핵심으로, 전문가 시스템으로 통칭된다. 반면에 프랭크 로젠블랫은 인간의 뇌가 시냅스를 통한 뉴런들의 연결, 즉 신경망으로 이루어져 있다는 점을 지적하며, 컴퓨터도 신경망으로 학습을 시키면 인간의 추론 능력을 모사할 수 있을 것이라고 주장했다. 인공지능에 대한 이러한 접근방법을 연결주의라고 하며 퍼셉트론 이론을 기반으로 이를 구현한 인공지능 시스템이 바로 인공 신경망(Artificial Neural Network)이다. 연결주의를 통한 인공 신경망이 전문가 시스템에 비해 가지는 장점은 입력에 일정 수준의 오류가 존재한다 할지라도 정상 범위 내의 출력이 가능하다는 점이다. 이러한 특성은 인공지능이 실생활에서 큰 힘을 발휘하게 하는데, 예를 들어 입력 문자나 숫자에 얼룩이나 회전 등으로 인한 오류가 있다 할지라도 정상적인 인식을 가능케 한다. 프랭크 로젠블랫의 연결주의는 많은 연구자들과 대중의 지지를 받으며 승승장구하는 듯 했지만, 불행하게도 1969년 출간된 마빈 민스키의《퍼셉트론(Perceptrons)》이라는 저서를 통해 원시적인 인공 신경망에 명확한 한계가 존재한다는 점이 수학적으로 증명되면서 큰 시련을 겪게 된다.

  인공지능 연구에서 퍼셉트론이 가지는 파장은 많은 연구자들이 연결주의를 기피하게 되는 원인을 제공했다. 한편, 두뇌의 방대한 연산 능력에 비해 형편없기 그지없어 보이던 그 당시 컴퓨터의 연산 능력은 인공 신경망이 현실적으로는 불가능한 모형으로 보이게 하는데 충분했다. 그러나 연결주의에 대한 믿음을 버리지 않았던 프랭크 로젠블랫의 동료들과 제자들의 지속적인 연구는 1984년 존 홉필드(John Hopfield)의 은닉층을 포함한 홉필드 네트워크와 데이비드 럼멜하트(David Rummelhart)에 의한 신경망 학습의 병렬 처리법이라는 결실을 맺어 원시적인 인공 신경망이 가지는 한계를 극복하게 된다. 그러나 인공 신경망이 내포하고 있는 은닉층이 많아지면 많아질수록, 또는 층이 깊어질수록 학습의 정확도가 높아지는 대신 학습을 위한 예제의 개수도 그만큼 늘어나야 한다는 문제점과 신경망 층의 깊이가 깊어질수록 기하급수적으로 증가하는 계산량에 대한 해결책이 없어 2000년대 초반까지 심층 학습의 등장이 지연된다. 한편, 이 문제는 시간이 흐르면서 자연스럽게 해결되는데, 그 해결책이 바로 빅데이터와 비트코인 채굴 등에서 유명한 GPU 등의 병렬 처리 연산장치이다. 이 두 개의 첨단 무기를 발판삼아 인공 신경망은 태생적인 한계를 극복하고 심층 신경망으로 진화하여 인류의 눈앞에 인공지능의 새로운 가능성을 펼치고 있다.

저작권자 © 대학원신문 무단전재 및 재배포 금지