강신천 / 공주대 컴퓨터교육과 교수

 

[영화 같은 삶, 우리의 미래는]


영화 속에서만 보던 일들이 현실로 다가오고 있다. 빙하가 녹아 동물들이 살 곳이 없어지고, 이상기후로 인해 사우디아라비아 사막에 눈이 쌓이기도 했다. 이번 기획에서는 공상과학영화에서 그려낸 다양한 형태의 디스토피아를 살펴보고자 한다. 어쩌면 그리 머지않은 미래, 우리네 삶의 종착지일지도 모르는 가능성을 마주하면서. 이를 극복해 낼 수 있는 방도와 우리가 취해야 할 자세는 무엇인지 고민해 보고자 한다. <편집자 주>


[글 싣는 순서] ①변화하는 지구에 미래가 있을까 ②지구에 마실 물이 없어진다 ③무서운 건 바이러스인가 사람인가 ④인공지능의 책임과 윤리적 잣대


인공지능의 시대, 윤리기준과 책임은


강신천 / 공주대 컴퓨터교육과 교수

 
 

 

  올해 가장 주목받은 첨단과학기술 중 하나가 ‘인공지능’이라는 것에 대체로 동의할 것이다. 그것은 인공지능이 가진 무한한 발전 가능성과 문제 해결의 효율성 및 효과성 때문이다. 하지만 장점만을 가졌다고 생각된 기술이 인간에게 위협적일 수 있고 실제로 위해를 가하는 사건이 발생하기도 했다. 이에 세계는 인공지능 책임론에 주목했으며 급기야 앞다퉈 윤리 헌장을 제정하기에 이르렀다. 그러나 인공지능 책임과 윤리적 잣대의 문제는 여전히 복잡하고 큰 사회적인 이슈로 남아 있다.

 

누가 책임질 것인가

 

  ‘인공지능 책임소재’는 사용자를 포함해 인공지능 공급자 및 개발자를 둘러싼 권리와 책임의 문제로까지 볼 수 있다. 논의에 앞서, ‘책임소재’에 대한 해석이 다양할 수 있기에 본고에서는 ‘인공지능을 사용함으로써 생긴 피해에 대한 책임을 누가 질 것인가’의 문제로 국한하려 한다. 제안된 이슈의 첫 번째 이해 당사자는 당연히 인공지능을 세상에 선보이게 한 인공지능 개발자다. 이들은 기술 특허나 저작권과 같은 개발에 대한 고유한 권리를 갖는다. 그렇기에 당연히 기술 자체의 결함이나 기술로 인해 생기는 여러 가지 문제에 대한 책임을 피할 수 없다.
  다음으로 공급자는 개발된 원천 기술을 상품화하고 판매를 통해 인공지능을 시장에 유통한다. 그 과정에서 초기에 개발된 인공지능이 때로는 변형될 수도 있다. 소비자인 인공지능 사용자가 소정의 비용을 지불하고 이를 구매하기에, 개발자는 물론 공급자 또한 사용자와 밀접하게 연결되는 것이다. 이때 공급자는 상품화를 위해 개발자에게 인공지능 변형을 요구함과 함께 사용자에게 사용에 따른 정당한 비용을 청구할 권리가 있다. 동시에 인공지능 사용과정에서 발생할 수 있는 서비스나 환불에 대한 책임, 개발자로부터 요구되는 비용을 지급할 의무가 부여되기도 한다.
  인공지능 사용자는 어떠한가. 이들은 공급자로부터 일정 비용을 지불하고 인공지능을 구매해서 사용한다. 따라서 사용자에게는 인공지능을 사용하면서 발생하는 다양한 문제 해결을 요구할 권리가 존재한다. 동시에 인공지능 자체를 오용하거나 남용함으로써 발생하는 문제에 대해서 책임을 져야 한다. 예컨대, 인공지능 기술을 남용해 사생활을 침해하거나 더 심한 경우 사람을 살해하는 등의 오남용에 대해서는 엄격한 법적 책임을 져야 한다.

 

‘옳음’을 누가 정하나

 

  인공지능 책임만을 놓고 본다면 단순할 수도 있는 문제가 윤리적 딜레마를 동시에 고려한다면 매우 복잡해진다. 지난 2018년 자율주행 자동차로 유명한 테슬라는 모델X가 중앙 분리대와 충돌해 발생한 운전자 사망사고에 대해 “운전자가 사고가 나기 직전 6초 동안 운전대에 손을 올리지 않았다”라는 근거를 제시하며 책임 소재를 운전자에게 돌렸다. 테슬라는 이어 자율주행모드에서 운전자가 운전대에 손을 올리고 주의를 기울일 필요가 있다고 주장하면서, “이 사고는 운전자가 도로에 주의를 기울이지 않았다는 것을 전제로 한다”라고 덧붙였다. 이와 같이 인공지능의 법적 책임 문제는 어쩌면 단순하며 해결 또한 비교적 쉬울 수도 있다. 하지만 윤리적 딜레마 상황에서 인공지능이 윤리적 판단을 내리지 못한 것에 대한 책임소재의 문제는 매우 복잡하다.
  자국민을 지키려는 목적으로 인공지능 드론을 활용해 적을 살상했다면 ‘인공지능의 윤리적 책임’의 관점에서 어떤 해석이 가능할까. 이 사건에서는 인간의 존엄한 생명을 살상할 수 없다는 규범윤리의 관점과, 자국민을 보호하기 위해 적을 살상해야만 한다는 상황윤리의 관점이 팽팽하게 맞서 딜레마를 만들고 있다. 이렇듯 인공지능의 윤리적 딜레마는 인공지능 책임만을 고려할 때와 확연히 다르다. 규범윤리의 관점에서는 사람을 죽이는 살상용 자율주행 드론을 개발한 것 자체가 문제이기에 인공지능 개발자에게 윤리적 책임소재가 부과된다. 살상용 드론을 유통하고 서비스하는 공급자도 당연히 윤리적 책임에서 벗어날 수 없고, 이런 점에서 사용자도 마찬가지다. 하지만 상황윤리는 이런 책임소재를 순식간에 정당화시킨다. 따라서 인공지능 책임을 관점마다 달리 해석할 수 있는 윤리적 잣대 공방은 당분간 지속될 전망이다. 그것은 ‘윤리적 딜레마’가 득과 실을 동시에 가지고 있는 갈등상황이기 때문이다.

 

다가올 미래를 준비해야

 

  인공지능 책임을 둘러싼 윤리적 잣대의 문제 해결이 쉽지 않음에도 불구하고 인공지능 상용화에 박차를 가하는 국가 대부분은 ‘인공지능 윤리 헌장’을 앞다퉈 발표하고 있다. 그것은 인공지능 상용화와 생활화에 따른 인공지능의 인간 가해에 대한 대비책을 마련하는 것과 동시에 사람과 같이 생각하고 감성을 느끼는 ‘강인공지능’의 상용화를 예견하기 때문이다. 우리나라는 헌장뿐만 아니라 재작년 12월 관계부처합동으로 「인공지능(AI) 윤리기준」을 발표했다. 이 윤리기준의 목적은 제조·의료·교통·교육 등 산업의 전체분야에 인공지능이 활용·확산되면서 야기될 수 있는 다양한 윤리 이슈에 능동적으로 대응하기 위함이다.
  이 기준은 인간 존엄성, 사회의 공공선, 기술의 합목적성의 3가지 원칙과 ▲인권보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성과 같은 10가지 핵심요건을 포함했다. 한편 소프트웨어 엔지니어 벤 딕슨(Ben Dickson)은 현재 사용하고 있는 인공지능을 약인공지능이라고 보고 앞으로 지능이나 감성에 이르기까지 더욱 인간을 닮은 강인공지능의 상용화에 대해서 예견했다. 이와 함께 심지어 인공지능도 인간의 권리를 부여받아야 한다는 새로운 쟁점까지 제기되고 있다. 이런 강인공지능은 인공지능 자체가 가진 기술적인 결함은 물론, 악의적인 기술개발이나 데이터편향 때문에 발생하는 윤리적 책임 소재를 더욱 복잡하게 만들 것이다.
  글을 마무리하며, 분명히 말하고 싶은 것은 인공지능이 아무리 발달해도 사람과 인공지능의 선을 분명히 하고 인공지능은 사람 중심으로 존재함을 모두가 인정해야 한다는 점이다. 따라서 인공지능 자체에 인간의 권리를 부여하는 일은 신중해야 할 것이다. 또한, 앞서 논의한 바와 같이 인공지능 책임 소재를 둘러싼 윤리적 잣대란 규범윤리와 상황윤리를 둘러싼 상대적 중요도에 따라 각각의 사례가 서로 다르게 해석될 수 있음을 받아들여야 한다. 끝으로 비록 이 글이 인공지능 책임에 대한 윤리적 잣대를 선명하게 다루지는 못했지만, 인공지능 책임에 대한 윤리적 잣대로 고려할 것과 신중할 부분에 관해 문제 제기를 충분히 했기를 기대한다.

 

저작권자 © 대학원신문 무단전재 및 재배포 금지