김시연 / 물리학과 교수

연구자의 길에서 묻다 

 ④연구를 위한 인프라Ⅱ - 제도
최근 교육과학기술부가 대학선진화위원회를 구성해 부실 운영 사립대학의 구조조정을 계획하는 등 대학 연구사회는 대내외적으로 개혁과 혁신이 불가피한 상황에 이르렀다. 이러한 시점에서 연구사회를 둘러싼 정치적, 산업적 압력에 대항하는 한 가지 방식으로 내부 성찰과 정체성에 대해 반성을 모색하는 5가지 이슈를 제기해본다.

  

 연구를 어떻게 평가하는가. 논문이 탈고되면 맨 처음 평가는 연구자 자신이 내린다. 연구내용이 어느 정도의 비평의 수위를 거쳐서 학계에서 신뢰받는 학술지에 실릴 수 있는가를 연구자 본인이 가늠해야 한다. ‘IF(Impact factor)’라는 지수를 통해 학술지에 게재한 논문이 얼마나 많이 인용되는지 알 수 있는데, 세부분야 내 IF에 따라서 학술지의 서열이 대충 매겨진다. 연구자의 평가란 주로 어떤 학술지에 논문을 게재하는지, 얼마나 많은 논문을 내는지, 상위권 학술지에 주저자로서 역량이 있는지, 논문들이 많이 인용되어 후속 연구에 기여를 하는지 등으로 이루어진다.
셀 수 없이 많은 학문분야에서 연구실적을 쌓는 양상을 보편화시켜 기술하기는 불가능하다. 이공계의 경우, 인문·사회·예술 계열에 비해 연구 활동의 국제학술지 논문게재 의존도가 높아서 IF, Eigenfactor 등 수치화된 지표기반 학술지 평가방식을 빌려 연구업적 전반에 대한 피상적 평가가 가능하다. 그러나 학문 세부분야가 인기 분야인지 비인기 분야인지, 이론인지 실험인지, 같은 이론이라도 연구방식에 따라서 모델설계인지 분석인지 시뮬레이션인지에 따라 논문 한 편을 낼 수 있는 기간과 고충은 천차만별이다. 결국 논문을 많이 쓰는 것만으로 연구 업적을 평가하는 것은 가장 저급한 방법이다.
연구란 학습처럼 남이 닦아놓은 길을 가는 것이 아니므로 그 누구도 우위적 입장에서 정답을 알아 점수를 매길 수 없고, 단지 비슷한 연구를 하는 사람들끼리 소위 “peer review(동료들끼리의 평가)”를 통해 최소한의 심사장치를 둘 뿐이다. 연구의 평가가 정확하고 신속해야할 이유는 없다. 학계에서 주목받고, 후속 연구에 영향을 주면서 점차 논문의 가치가 인정받게 되는 극히 정성적이고 아날로그적인 방법이 가장 합리적일 것이다. 문제는 대학평가가 교수들의 연구실적을 한 축으로 삼으면서, 비연구자들의 가치관이 연구 동기나 방향에 영향을 주기 시작했다는 점이다.

자율성을 잃게 하는 통계적 평가


 평가기관의 대학별 연구실적 평가는 통계로 이루어진다. 앞서 거론했던 개별적이면서 조심스러운 평가는 제외한 채, 교수 1인당 논문 편수를 집계하고, 논문의 인용지수에 의존해 논문의 질을 평가하는 방식이 채택되어 각 학문분야의 특성을 배제하는 시스템이 자리를 잡았다. JCR이나 Scopus, NCR과 같은 데이터베이스는 학술지나 연구자에 대한 논문실적 통계를 제공하고, 평가기관은 이 수치를 이용해 적당한 항목의 점수로 환산해 쓴다. 즉 IT의 발전에 힘입어 연구실적 관리가 용이해지면서 연구 활동의 자율성을 잃게 되었다는 아이러니가 생겨난 것이다.
‘중앙일보 대학평가’는 기업적 철학으로 교육 소비자인 학생과 학부모에게 대학정보를 제공하겠다는 목표를 표방하며 교육적 관점에 치중해 평가를 한다. 특히 이번 평가에서는 대학의 특성에 따라 인문사회 중심, 이공계 중심, 종합계열 중심으로 나누어 순위를 발표했다. 연구 부문에서 새로이 추가된 ‘효율성 평가’는 투입 대비 산출이 얼마나 높은지 비교하는 지표로 적은 수의 연구인력(교수, 대학원생)과 적은 액수의 연구비를 가지고 얼마나 높은 연구실적을 거두는지를 평가하는 항목이다. 중앙대의 연구영역 세부지표 순위는 ‘인문사회분야 교수당 국내논문(가중치:15)’ 4위, ‘인문사회분야 SSCI, A&HCI(20)’ 15위, ‘과학기술분야 교수당 SCI게재(20)’ 23위, ‘SCI IF(5)’ 24위, ‘전분야 5년간 피인용수(10)’ 29위, ‘5년간 10회 이상 피인용수(5)’ 31위로서, 연구의 질에 의존하는 지표로 갈수록 순위는 떨어지는 것을 알 수 있다.
우리 대학의 2009년 교원 수는 전임이 940여 명, 비전임 시간강사가 1천 9백여 명으로, 전임교원의 비율이 조사대상이 된 대학 중 가장 낮은 것으로 드러났다. 이러한 전임교원의 부족은 연구력 감소로 직결된다. 타 대학보다 더딘 교원의 충원은 대부분 교육단위의 BK21 대형과제 신청을 불가능하게 했고, 국제적 경쟁력을 갖출 수 있는 기회를 놓치게 했다. BK21 과제가 사회계열의 연구 국제화, 연구전담 교원의 확보, 우수 대학원생 유치 등으로 대학의 연구역량을 효과적으로 강화시킬 수 있어 아쉬움이 크다.
또 다른 구조적 문제점은 이공계 비율이 너무 낮다는 점이다. 우리 학교는 ‘중앙일보 대학평가’에서 인문사회 중심대학으로 분류되며 5위를 차지했는데, 각각 3위와 4위를 차지한 한국외국어대와 이화여대가 인문사회 중심일 수밖에 없는 구조임을 감안할 때, 두어 대학을 제외하고 경쟁력을 갖춘 대부분의 대학들은 이공계 중심이나 종합계열의 대학임을 간접적으로 알 수 있다.
한편 ‘Times-QS’의 세계대학순위는 다음과 같은 가중치를 두고 산정된다. 학계 동료의 평가 40%, 기업인들의 평가 10%, 교수 대 학생 비율 20%, 교수 1인당 인용 횟수 20%, 외국교원과 외국학생 각각 5%이다. 평가방법으로 보자면 연구영역이 60%를 차지하고, 학자나 기업인들의 주관적 평가가 50%를 차지한다. 더불어 교수 1인당 인용횟수는 연구의 질과 양을 모두 반영할 수 있다. ‘Times-QS’의 평가에서 동료학자들의 리뷰에 가장 큰 비중을 두는 이유는 다양한 학문 영역을 공평한 시각으로 볼 수 있기 때문이다. 결국 대학의 연구능력 평가란 학자가 동료학자를 개별적으로 파악하는 극히 정성적인 방법이 최선인 것이다. 재미있는 사실은 중앙일보 평가의 국제화 지표가 QS 세계대학 순위에 상응하지 않는다는 점이다. 아마도 중앙일보는 ‘교육’에, Times-QS는 ‘연구’에 비중을 두고 있기 때문일 것이다. 간혹 평가결과 때문에 억울하기도 하지만, 이렇게 서로 다른 평가방식을 고려한다면 평가에 일희일비하지 않고 평가방식을 역으로 평가해 그 특징을 파악하고 분석하여 학교의 발전 전략을 세울 때 참고해야 할 것이다.

기본에 충실한 연구의 장 돼야

 


우리 대학본부가 매번 돌아오는 평가를 위해 어떻게 만반의 준비를 기하는지 구성원들은 잘 알고 있다. 그러나 교수들의 업적평가방식이나 연구활성화 정책을 들여다보면 그 노력이 학문 본연의 발전과 연구역량의 제고를 꾀한다든지 하는, 긴 안목으로 학교의 위상을 높이려는 취지가 보이지 않는다. 당장에 닥친 평가결과를 한두 칸 올리는데 급급하다가 2018년이 되어도 여전히 이 자리에 머물지 않을까 염려된다. 외부 평가기관이 논문을 많이 쓰는 것에 비중을 두어 평가를 하면, 논문을 많이 쓰는 교수들에게 빚을 진 것 같은 기분이 들기도 한다. 대학평가에 대한 조사 후에야 논문을 많이 쓰는 것이 아니라 학문의 발전에 획을 그을 수 있는 연구자들을 보유하는, 기본에 가장 충실한 연구의 장이 되는 것이 가장 미래지향적이고 학교이름을 세계랭킹에 올릴 수 있는 방향이라고 믿게 되었다.
지난 5월 QS와 조선일보가 발표한 아시아 대학평가 결과에 따르면, 중앙대는 종합순위 22위에 머물렀다. 같은 QS의 평가라 하더라도 아시아 대학평가는 종합대학 대상의 세계 순위와 다른 기준을 채택하여 중소(second-tier)대학을 평가할 의도로 시행되었음을 웹페이지에 밝혀두었다. 따라서 이번 QS의 평가는 이공계 중심대학이나, 규모가 작고 몇몇 세부항목에 강한 대학들에게 유리했다. 지난 10월 ‘Times-QS’의 중앙대의 위치는 세계대학 순위 501-600로서 국내대학 순위는 13위권에 해당한다. ‘Chung-Ang University’가 세계 명문 500대, 300대 대학으로 도약하는 길은 결국 종합대학의 본연의 자세에 충실하게 다양한 학문영역의 고른 발전을 꾀하는 것이다.

저작권자 © 대학원신문 무단전재 및 재배포 금지