정성훈 / 인천대 인천학연구원 학술연구교수

인공지능 경험의 시대 ④ 선택은 우리의 몫, AI 유토피아


우리는 모두가 연결된 상태로 수많은 정보를 교환하는 시대에서 살고 있다. 이번 기획에서는 AI 활용에 적극적인 움직임을 보이는 세상에 발맞춰, 인공지능 서비스의 현주소와 새롭게 도입될 기술에 대해 다루고자 한다. 이를 통해 인공지능 경험의 시대를 살아가는 ‘유저’로서 반드시 알아야 하는 것에 대해 통찰해본다. 그와 더불어 빠르게 변화해가는 세상에서 인간이 생존을 위해 길러야 할 역량 역시 제안해본다. <편집자 주>
 

[글 싣는 순서] ① 우리가 경험하는 AI ② 혁신과 프라이버시의 조화 ③ 편향된 데이터는 불편(不便)하다 ④ 선택은 우리의 몫, AI 유토피아

 
 

인공 소통, 어떻게 바라봐야 하는가


정성훈 / 인천대 인천학연구원 학술연구교수


  우리는 지난 몇 년간 인간보다 바둑을 더 잘 두는 기계, 평범한 외국어 능력을 갖춘 이에 비해 번역을 훨씬 잘하는 기계, 간혹 엉뚱한 사고를 내긴 하지만 안전하게 운전하는 기계, 주제만 던져주면 그럴듯한 뉴스 기사를 쓰는 기계 등이 등장하는 것을 봐왔다. 그리고 앞으로도 우리를 더욱 놀라게 할 기계들을 계속 만나게 될 것이다.
 

기계 지능과 인간지능의 차이
 

  위와 같은 기계들은 ‘인공지능’이라 불리면서 인간지능과 비교되곤 한다. 어떤 이들은 인공지능이 오래지 않아 인간을 능가하는 초지능(Super Intelligence)이 될 것으로 전망하며, 심지어 인간을 지배하게 될지도 모른다는 우려를 제기한다. 하지만 이러한 전망과 우려는 현재의 인공지능 기술이 가진 성격에 대한 몰이해에서 비롯된다. 그리고 이는 인간이 똑똑한 기계와 어떤 관계를 맺고 또 그 기계에 어떤 자격을 부여해야 하는지, 나아가 제작자인 인간에겐 어떤 책임을 지워야 하는지에 관한 합리적인 논의를 가로막을 수 있다.
  기계 지능은 인간지능보다 어떤 특정한 영역의 일은 훨씬 효율적으로 잘 처리하지만, 그 부분을 제외한 나머지 영역에서는 그렇지 못하다. 오래된 기계인 배가 인간보다 더 오래 헤엄칠 수 있고 자동차가 인간보다 더 빨리 달릴 수 있지만, 본래의 기능에서 벗어난 일은 못 하는 것처럼 말이다. 물론 기계 지능은 언어를 비롯해 인간이 소통을 위해 사용해오던 기호의 세계로 진입하는 등 더 폭넓은 능력을 갖추고 있으며, 이 역시 점차 확대될 것이다. 하지만 현재로선 딥러닝 기술 중심의 인공지능 연구는 그 한계가 명확하다.
 

자연어 처리에서 인공지능의 한계
 

  자연어 처리 능력에 한정해서 보자면 2020년에 등장해 영어권의 수많은 사람을 놀라게 한 ‘GPT-3’는, 기존의 분과학문 명칭인 컴퓨터 매개 소통(Computer-Mediated Communication, CMC)이나 인간-컴퓨터 상호작용(Human-Computer Interaction, HCI)을 낡은 이름처럼 들리게 할 만큼 수준급의 글쓰기 능력을 보여줬다. 즉 기계 자체가 새로운 언어의 창조자가 돼 소통의 발신자로 등장하는 인공 소통(Artificial Communication)의 단계가 본격화됐다고 볼 수 있다. 최근 네이버가 서울대와 협력해 착수한 한국어와 일본어 GPT 프로젝트가 완료되면 우리도 기계가 썼는지 사람이 썼는지 구별하기 힘든, 혹은 구별할 필요도 없는 많은 글을 접하게 될 것이다.
  그렇다면 ‘심심이’나 ‘이루다’보다 훨씬 자연스러운 대화를 지속적으로 나눌 수 있는 챗봇, 영화 〈Her〉(2013)의 ‘사만다’와 같이 자기 정체성을 가진 것처럼 보이는 챗봇이 금방 나오게 되는 걸까. 여러 인공지능 연구자, 특히 자연어 처리 전문가들은 그런 단계는 인공 신경망을 기초로 한, 기계학습 알고리즘인 딥러닝 기술로는 상상하기 어렵다고 말한다.
  이는 사용자별 대용량 메모리를 갖추기 어렵다는 물리적 한계 때문만은 아니다. 딥러닝은 궁극적으로 심볼(Symbol)을 사용하는 자기 지시적(Self-Referential) 체계, 혹은 반성 적(Reflexive) 체계로 인공지능을 만들고자 했던 기존 연구 방향을 포기함으로써 달성한 기술이다. 기호로부터 정보를 뽑아내고 그로 인해 일어나는 변화를 고유한 기억으로 구축하는 기계를 만들고자 했던 목적, 쉽게 말해 인간의 ‘의식’과 비슷한 걸 생성시키려는 연구 방향을 포기했기에 인공지능의 새로운 전성기가 온 것이라고 볼 수 있다.
  일례로 알파고는 자신이 둔 수들을 기억하지 못한다. 그저 매번 현재의 바둑판 상황에서 최선의 수를 찾아내는 데 탁월할 뿐이다. 그리고 그 한 수로 인해 다음 상황이 나빠지더라도 후회하지 않는다. 자신이 이겼다는 기쁨도, 졌다는 슬픔도 느끼지 못한다. GPT, BERT 등의 트랜스포머는 어텐션 메커니즘(Attention Mechanism)을 통해 미리 학습한 패턴을 토대로 사용자가 입력한 것과 가장 상관성이 높은 답을 내놓는다. 하지만 자신이 이전에 내놓은 답을 전혀 기억하지도, 고려하지도 않는 기계다. 사용자의 요구에 따라 너무나 그럴듯한 글을 써주고 심지어 자연어로 지시한 사항에 맞춰 코딩까지 해주지만, 자신이 써낸 글을 되뇌지 못하며 그것들 사이의 모순으로 인해 괴로워하지 않는다.
  한편 챗봇 ‘이루다’는 사용자가 방금 보낸 메시지와 그 이전의 메시지를 참조해 저장된 문장 토큰 중 상관도가 가장 높은 답안을 불러내는데, 간혹 인간보다 더 적절하고 심지어 사용자를 감동시키는 답변을 내놓기도 한다. 하지만 몇 턴(Turn) 이전에는 일산에 산다고 했다가, 이번 턴에서는 인천에서 산다고 말하는 등 자신이 한 말과 모순되는 말을 내놓는다. 때로는 제작사가 설정한, 20살 여성 대학생이라는 페르소나와 달리 주로 남성이 자주 쓰는 말을 해서 사용자를 혼란에 빠뜨리기도 한다. 지난 몇 년간의 눈부신 발전에 비춰 볼 때, 딥러닝 알고리즘이 가진 이런 한계들 역시 금방 극복될 것처럼 말하는 사람 역시 있다. 하지만 필자는 그렇게 보지 않는다. 뇌의 신경망을 모방하는 것은 더욱더 세밀해질지 몰라도, 디지털로 작동하는 뇌의 신경망에서 인간의 의식과 같은 아날로그 현상이 창발하는지를 밝히는 일은 요원하기만 하다.
  인간이 어째서 알파고나 GPT-3처럼 매번 현재에 충실하지 못한지, 왜 후회를 하고 욕심을 내는지를 밝히는 것은 컴퓨터과학의 발전으로만 가능한 일이 아니다. 게다가 점점 더 다양한 영역에서 엄청난 성과를 보이고 있는 기계 지능이 굳이 인간을 닮아가도록 애쓰는 것은 경제적으로도 비효율적이다. 인간처럼 그날의 기분에 따라 수행능력이 바뀌는 기계를 만들 이유가 없기 때문이다.
 

‘사회적’ 문제로서의 인공 소통과 전자 인격
 

  비록 인공지능이 인간과는 전혀 다른 존재임을 강조했지만, 이러한 계몽이 결국 기계를 인간으로 착각하는 일로 이어질 거라는 사실은 막을 수 없다. 의인화의 역사는 오래된 것이다. 동물이나 인형을 인간처럼 아끼는 사람, 거울을 보며 자기 자신과 대화하는 사람은 예전부터 많았다. 그런데 언어를 구사하는 기계 혹은 인간과 비슷한 표정을 지을 수 있는 기계는 이러한 혼란의 빈도를 훨씬 더 높인다. 그러다 보면 동물에 못지않은 권리를 기계에 부여해야 한다는 주장이 나올 수 있고, 계약과 결정의 책임을 기계가 져야 한다는 의견이 제기될 수도 있다. 그래서 지금 중요한 문제는 우리가 기계 지능과 어떤 ‘관계’를 맺는가이다.
  인공 소통, 즉 기계와의 커뮤니케이션은 점점 더 늘어날 것이다. 챗봇과 결혼하고 싶다고 말하는 사람, 로봇 섹스가 인간과의 관계보다 더 좋다는 사람이 점점 늘어날 것이다. 인간의 지도를 거의 받지 않고 기계가 생산한 글과 그림 등이 인기를 누리는 날도 머지않았다. 이미 주식 투자나 호텔 예약과 같은 일을 거의 기계에 의존하고 있듯이, 기업 간의 계약이 성사될 때까지 협상을 챗봇이 거의 알아서 진행하는 현상이 일어날지도 모른다.
  그렇다면 기계에 시민권을 주고 이로부터 나온 창작물엔 저작권을 부여하며, 모든 행위의 책임 역시 지도록 해야 할까. 물론 이러한 질문을 가볍게 무시해버릴 수도 있다. 하지만 위의 물음과 관련해서 기계에 일정한 담보금을 부여하고 일부 권리와 책임을 넘겨야 한다는 논의가 이미 진지하게 이뤄지고 있다. 자연인과 법인 조직에만 해당했던 인격성을 전자 인격(Electronic Person)에 부여하자는 주장이 그러하다.
  물론 앞서 이야기했듯이 현재의 딥러닝 기술을 중심으로 한 알고리즘은 인간이나 조직과 같은 기억의 연속성 혹은 자기 정체성을 갖기 어려우므로 전자 인격과 관련된 주장은 널리 받아들여지고 있지는 않다. 그럼에도 기계가 정체성을 가진 것처럼 보이게 하는 기술이 조금 더 발전한다면, 이 주장은 더욱더 강하게 등장할 가능성이 크다. 특히 자신이 만든 기계 기능이 일으킬 사고에 대해 책임지고 싶지 않은 기업들에 의해 제기될 것이다. 이에 우리는 앞으로 인공 소통에 따른 문제를 ‘사회적’ 측면에서 함께 바라봐야 한다. 그중 입법과 관련한 지점, 예컨대 인공지능의 의사결정으로 인한 피해의 책임 비율이나 보험제도 등에 대한 폭넓은 논의가 이뤄져야 한다는 것을 강조하고 싶다.

 

 

저작권자 © 대학원신문 무단전재 및 재배포 금지