김정덕 / 산업보안학과 명예교수

 챗GPT의 위험과 대응에 대한 단상

김정덕 / 산업보안학과 명예교수

  챗GPT(ChatGPT)에 대한 논의가 한창이다. 챗GPT는 대화의 맥락을 파악해 마치 사람과 얘기하는 것과 같은 경험을 주는 인공지능 챗봇이다. 개발사 OpenAI가 발표한 GPT-3.5 기반의 사전 훈련된 생성 변환기는 인간의 고유 영역이라고 간주됐던 콘텐츠 제작 등 다양한 분야에서의 활용이 가능한 획기적인 인공지능 기술이라 할 수 있다. 과거 판별 AI 모델의 한계를 극복한 생성 AI는 인간처럼 대화를 통해 시를 짓거나, 논문 작성이 가능하다. 지난달 15일 발표된 GPT-4는 이미지 인식을 포함한 멀티모달(Multi Modal)이 가능하며 언어능력 및 기억력이 향상됐고 위험한 질문을 걸러냄으로써 안전성이 강화됐다고 한다. 구글, 메타, 마이크로소프트 등 빅테크 기업들은 막대한 투자를 통해 시장 선점을 도모하고 있다. 국내에서도 네이버, 카카오가 그간 확보한 대량의 한국어 데이터를 기반으로 챗GPT의 부족한 점을 보완해 국내 시장 맞춤형 서비스를 내놓을 계획이다.
  하지만, 챗GPT의 부정적 영향에 대한 우려도 존재한다. 무엇보다 걱정되는 것은 ‘환각 현상(The Illusion of Intelligence)’이다. 챗GPT는 놀라운 성능에도 불구하고 잘못된 답변을 설득력 있게 내놓는 ‘환각 현상’을 일으킨다. 누군가 고의로 가짜 정보를 인터넷에 흘리면 챗GPT는 그럴 듯 하게 새로운 이야기를 만들어 내고, 이는 지속적으로 확대 재생산돼 진실을 구분하기 어려운 지경에 이를 수 있다. 또한, AI가 학습하는 과정에서 사용된 각종 저작물을 둘러싼 저작권 이슈와 챗GPT가 생성한 작품에 대한 창작성 여부 논의도 해결돼야 할 이슈다. 유럽과 미국, 그리고 국내에서도 AI의 윤리와 저작권 등 관련 법·제도 마련으로 분주하다. AI에 따른 변화가 불가피한 만큼 어떻게 활용될 수 있는 지에 대한 기준이 필요하기 때문이다. 필자가 연구하고 있는 사이버보안 영역에서도 챗GPT의 양면성은 큰 고민거리다. 챗GPT는 우수한 코드 분석 기능을 바탕으로 잠재적 위협요인들을 최대한 빨리 발견할 수 있으며, 보안 담당자의 보안 업무 처리를 원활하게 할 수 있다. 그러나 챗GPT의 코드 작성 능력으로 인해 악성코드를 쉽게 만들 수 있어 문제가 된다. 또한, 최근 해외에서 큰 이슈로 대두되는 기업 이메일 침해 공격을 통한 사기 위험도 높다. 이처럼 챗GPT는 피해자를 속이기 쉬운 훌륭한 도구로 악용될 수 있다.
  챗GPT의 활성화를 위해서는 그 위험을 경감시킬 수 있는 신뢰성 보장 기술의 발전이 선행돼야 하며, 법·제도 측면에서도 안전한 AI 서비스가 활용될 수 있도록 관련 법 제정과 객관적 평가 및 인증제도 등의 노력이 병행돼야 할 것이다.
  필자가 지난 학기 수업에서 출제했던 과제형 문제를 챗GPT에게 물었을 때 나오는 응답은 수험생들의 답안보다는 내용 면에서 낮은 수준의 결과를 얻었다. 문제가 수업 내용에 대한 단순 요약이 아니라 주관적 비판과 개선을 제안하라는 개방형 질문이었기 때문일 것이다. 챗GPT는 “사용자가 제공한 입력의 품질뿐만 아니라 훈련된 데이터의 정확성과 관련성에 달려 있으며, 중요한 결정이나 결론을 내리기 전에 항상 정보를 비판적으로 평가하고 확인하는 것이 좋습니다”라고 사용 주의사항을 스스로 응답했다. 진실이거나 창작인 듯한 답변을 내놓으며 지식과 예술을 넘나드는 AI는 만능이 아니다. 나머지 역할은 결국 인간의 몫이다.

저작권자 © 대학원신문 무단전재 및 재배포 금지