ADVERTISEMENT

챗GPT에게 리포트 쓰게 하고, 학생이 오류 찾게 하라

중앙선데이

입력

지면보기

867호 06면

챗GPT 1년, 전문가 진단

챗GPT 4.0 모델에게 ‘인공지능과 인간들이 너의 생일, 즉 챗GPT 1주년을 축하하는 그림을 그려보라’고 하자 생성한 이미지. 매우 그럴듯하지만 ‘Happy Birthday’ 철자는 틀렸다. 문소영 기자

챗GPT 4.0 모델에게 ‘인공지능과 인간들이 너의 생일, 즉 챗GPT 1주년을 축하하는 그림을 그려보라’고 하자 생성한 이미지. 매우 그럴듯하지만 ‘Happy Birthday’ 철자는 틀렸다. 문소영 기자

“사회적 이분화 현상이 일어나고 있다. 산업과 시장의 관점으로 보면 지난 1년간 챗GPT의 임팩트는 인터넷과 스마트폰의 출현을 능가할 정도로 굉장히 컸다. 그런데 인터넷과 스마트폰 출현 당시에도 그랬지만, 일반 시민이 체감하기에는 아직은 좀 이르다. 게다가 (챗GPT를) 잘 쓰고 관심 있는 사람들과 그렇지 않은 사람들 사이의 격차가 스마트폰 출현 당시보다 더욱 커졌다.”

미국의 오픈AI 사(社)가 생성형 인공지능 챗봇 ‘챗GPT’를 내놓은 후 지난 1년간의 파장에 대해 인공지능 기업 솔트룩스의 이경일 대표는 이렇게 평했다. 이 대표가 언급한 ‘사회적 이분화’ 현상은 챗GPT 관련 기사의 생산·소비 양상만 보아도 확인할 수 있다. 챗GPT 1주년이었던 지난 30일, 국내외 언론은 일제히 관련 기사를 쏟아냈다. 그러나 기사들에 달리는 댓글 개수는 정치·사건사고 기사에 비해 현저하게 적다. 관련해서 이 대표는 이렇게 말했다.

이경일

이경일

“AI는 기자를 포함해 지적 노동을 하는 사람들의 생산성을 높여주는 데 굉장히 도움이 되지만 그렇지 않은 사람들이 아직은 대다수일 수 있어요. 스마트폰이 대중화되기까지도 4~5년이 걸렸습니다. AI는 조금 더 빠를 것 같긴 한데 3~4년 이상은 걸릴 거예요. ‘디지털 네이티브’란 말이 있듯 지금 초등·중학생들이 이제 ‘AI 네이티브’일텐데, 이들이 성장했을 때 ‘AI 리터러시(AI Literacy)’ 즉 다양한 AI 서비스를 얼마나 삶에서 활용할 수 있는지, 또 주체적으로 사용 가능한지 이슈가 될 것입니다.”

시장에서의 임팩트는 이미 크다. 1년 전 챗GPT가 출시되자마자 열풍을 일으킨 후 국내외 빅테크들은 생성형 AI 모델 개발에 박차를 가했다. 지난 2월에는 구글이 챗GPT의 대항마 ‘바드(Bard)’를 공개했고, 지난 8월에는 네이버가 2세대 생성형 AI ‘하이퍼클로바X’를 공개했으며, 지난 28일에는 아마존이 기업용 AI 챗봇인 ‘큐(Q)’를 출시했다. 또한 영화·음악·미술·웹툰 등 콘텐트 창작 분야에서 AI의 저작권 침해와 일자리 침해 문제가 화두로 떠올랐다.

이태환

이태환

한편 일상생활에서 챗GPT와 가장 긴밀하게 연결된 분야는 교육이다. 많은 대학들이 챗GPT 등 생성형 AI 윤리 가이드라인을 설립했다. 이와 관련해서 세종대학교 경제학과 이태환 교수는 “과제가 가장 민감한 부분인데, 교수들 사이에는 ‘어차피 이 학생들은 나중에 AI와 함께 살아갈 아이들이니까 윤리적으로 사용하도록 인지시키고 잘 쓰는 법을 가르쳐야 된다’는 쪽과 ‘그래도 아직은 학생들이 자기 머리로 생각을 하고 AI는 사용하는 걸 최소화해야 되는 것 아니냐’는 의견이 맞서는데 전자가 우세하다.”

그는 또 이렇게 말했다. “가이드라인에 따라 챗GPT 생성물을 그대로 베끼는 것은 표절로 간주되지만 학생이 그렇게 에세이(레포트)로 낸다고 해도 대학에서 가려낼 수 있는 방법이 실질적으로 없다. 그러나 지난 1년간 학생들의 에세이 수준은 별로 변하지 않았다. 챗GPT를 쓰지 않는 학생들도 많고, 사용하는 학생들은 베끼지 않고 자료 리서치에 활용하는 듯하다.”

이경일 대표도 AI 표절을 가려내기 위한 AI 툴들이 시중에 나와있긴 하지만 실효성이 거의 없다고 인정하며, 과제의 방법을 바꾸면 해결될 일이라고 했다. 한양대 컴퓨터공학부 특임교수이기도 한 그는 이렇게 말했다.

그래픽=이정권 기자 gaga@joongang.co.kr

그래픽=이정권 기자 gaga@joongang.co.kr

“학생들에게 숙제를 내준다면, ‘지난 1년간 챗GPT가 가져온 산업적·사회적 변화가 무엇인지 조사하고 리포트를 써라’라고 하는 대신 그러한 변화를 ‘챗GPT를 활용하여 분석 및 리포트를 작성하고 그 안에 있는 핼루시네이션(hallucination·허위 정보 생성 오류)을 찾아내고, 그 리포트의 내용에 대해 비평해 보라’고 해야 한다. 후자가 더 고도의 지적 노동을 필요로 한다. 지식이 있어야 생성물이 참인지 거짓인지 가려내고 깊이가 있는지 피상적인지 평할 수 있다.”

한편, 생성형 AI에서 오픈AI의 선도가 계속될 것인지에 대해 이경일 대표는 “당분간은 그럴 것”이라 답했다. 최근 일어난 샘 올트먼 오픈AI CEO의 축출과 복귀 사태를 가리키며, “오픈AI가 스타트업으로서 구글이나 MS 같은 공룡 기업들에 비해 강력한 경쟁력을 지닌다는 것을 시사한다”고 평했다. “MS가 오픈AI의 압도적인 최대 주주인데도 흡수하지 않는 이유가 있다. 이번에 샘 올트먼이 쫓겨났었던 이유는 그의 사고방식과 추진력이 너무 리스키하다는 것이었다. 저작권 소송이 어마어마하게 걸리고 AI가 인류에 끼칠 수 있는 위험에 대해 이사회가 염려해도 그는 밀어붙인다. 스타트업의 강점은 윤리적·산업적 임팩트의 한계를 거침없이 실험해 볼 수 있는 것이다.”

끝으로 챗GPT 등 AI가 인간의 직업을 빼앗는 조짐이 나타나고 있느냐는 질문에 이 대표는 무시무시한 대답을 해주었다. “기자님의 직업을 챗GPT나 생성 AI가 대체하지 못할 거고요. 대신 챗GPT나 다른 생성형 AI를 기가 막히게 잘 쓰는 다른 기자님들이 위협할 수 있는 거죠. 지적 노동이나 의사결정 하시는 분들, 특히 리서치를 하시는 분들의 생산성이 2~3배가 아니라 20배~70배 정도 올라갈 수 있으니까요.”

ADVERTISEMENT
ADVERTISEMENT