추격하는 AI, 연구자들의 미래는

  인공지능의 도약이 매섭게 몰아치고 있다. 오픈AI(OpenAI)에서 만든 챗GPT(ChatGPT)는 알파고 이후 전 세계적으로 가장 많은 관심을 받고 있다. 새로운 패러다임을 발생시킬 기술의 진보에 과학계뿐만 아니라 산업·인문계 또한 즉각적으로 반응하는 모양새다.
  그간 국내외 기업들은 인공지능 챗봇을 내놓으며, 그들의 기술력을 홍보했다. 그러나 질문자의 질문에 따라 편향적인 학습이 진행되고 혐오적인 발언이나 잘못된 답변을 내놓는 등의 기술적 한계를 맞닥뜨린 상황이었다. 때문에 일각에서는 인공지능의 한계를 말하며, 단순히 정보를 취합하고 그럴듯하게 조합하는 것이 고작이라고 폄하하기도 했다.
  그러나 이번 챗GPT는 이런 윤리적 이슈를 사전에 차단하고자 학습 데이터셋 자체에 실제 인간의 판단을 적용했다. 또한 축적된 데이터를 처리하는, 즉 답변을 완성하는 과정에서 새로운 알고리즘을 적용한 것이 핵심이다. 이는 흔히 외국어를 배우는 과정에 빗대 표현하는데, 기존의 알고리즘이 단어 하나, 문법 하나를 학습한 뒤 이에 맞게 조합하는 것이었다면, 이번 챗GPT는 현지에서 외국어를 배우듯 많이 쓰는 표현, 어법 등을 학습해 적용한다. 때문에 기존의 챗봇들에 비해 훨씬 더 우수한 형태의 문장을 완성해낸다. 실제로 최근 미국 의료기업 ‘앤서블 헬스(Ansible Health)’ 연구팀은 챗GPT에게 미국 의사면허시험(USMLE)를 치루게 한 결과, 정답률 60%로 무난하게 면허를 취득할 수 있는 수준임을 확인했다. 수집된 정보를 표현하는 데 있어 인간과 근사한 정도로 올라섰음을 증명한 사례들은 전문직들에게 큰 충격일 것으로 보인다.
  물론 이러한 기술의 진보에도 근본적이고 치명적인 문제가 잔존한다. 바로 인공지능이 발생시키는 문제에 대한 책임 소지이다. 현재 개발된 인공지능 관련 프로그램들은 다양하지만, 대부분 인간을 보조하는 역할에 국한돼있다. 일례로 인공지능 진단 프로그램인 IBM의 왓슨(Watson)이 분석한 결과를 의사가 그대로 적용해 진단을 내릴 경우, 의료사고에 대한 과실은 적용한 의사에게 주어진다. 때문에 숙련된 전문직들의 경우 오히려 이러한 기술을 꺼리게 되는 등의 문제가 발생할뿐더러, 판단의 결과가 치명적인 피해로 직결되는 의료 및 법조계에 적용되기에 아직은 시기상조라는 의견도 존재한다.
  그렇다면 우리는 이런 인공지능의 단점 뒤에서 안심하고 있어도 될까. 기술은 발전하고, 점점 더 앎의 가치는 떨어지고 있다. 단순한 지식인이 아닌 이전에 없던 새로운 방향과 창조를 이뤄내야 할 것이다. 인공지능이 따라올 수 없는 영역을 개척해야만 ‘인간’으로써 가치를 존중받을 수 있으며 ‘대체불가’한 존재가 될수 있다. 평온했던 지식인들의 세계에 새로운 자극이 되고 있는 기술의 진보 속에서, 연구자들의 고뇌와 노력이 더욱더 필요해지는 시점이다. 

저작권자 © 대학원신문 무단전재 및 재배포 금지