ADVERTISEMENT

[AI 예술 시대] “챗GPT는 최첨단 표절시스템”…수퍼 지능 그늘도 짙다

중앙선데이

입력

업데이트

지면보기

826호 10면

[SPECIAL REPORT - AI 예술 시대] 부작용 막을 법·제도 시급

챗GPT를 이용 중인 기기. 챗GPT는 잘못된 정보를 생성하기도 한다. [AP=연합뉴스]

챗GPT를 이용 중인 기기. 챗GPT는 잘못된 정보를 생성하기도 한다. [AP=연합뉴스]

“미국이 인공지능(AI) 연구·개발에서 선두 지위를 유지하고, 기술 변화의 여러 가능성을 탐색하려면 이스라엘 같은 글로벌 파트너와 협력해야 합니다.” 지난달 25일(이하 현지시간) 화제가 된 제이크 오친클로스 미국 하원의원의 연설 내용엔 언뜻 봐서는 특이한 부분이 없다. 그럼에도 그의 연설이 세계적으로 화제가 된 이유는 미 의회 역사상 처음으로 AI 챗봇 ‘챗GPT’가 쓴 것을 현직 의원이 읽었기 때문이다. 오친클로스 의원은 “새 법안의 중요성을 소개하는 연설문을 100단어로 작성하라고 챗GPT에 지시했고, 몇 차례 보완 지시를 통해 원하는 결과를 얻었다”고 설명했다. 국내에서도 비슷한 일이 일어나지 말란 법이 없다. 윤석열 대통령은 지난달 말 “이쪽을 잘 아는 지인한테 2023년도 대통령 신년사를 챗GPT가 한번 써보게 해서 제가 받아봤다. 그럴 듯하다. 정말 훌륭하더라”며 “몇 자 고치면 그냥 대통령 신년사로 나가도 (괜찮을 정도)”라고 언급했다.

이는 챗GPT의 능력을 보여주는 사례 중 일부에 지나지 않는다. 지난해 12월 미국 캘리포니아주에선 한 연구진이 챗GPT를 대상으로 3단계의 의사면허시험(USMLE)을 치르게 했다. 그 결과 챗GPT는 모든 시험에서 50% 이상의 답을 맞혀 통과할 수 있는 실력을 지닌 것으로 나타났다. 챗GPT는 지난달 4일 ‘세이프존’이라는 영화의 감독으로도 데뷔했다. 직접 각본을 쓰고 연출까지 했다. 머지 않은 시기에 챗GPT를 위시한 AI가 인간의 지식노동 중 상당 부분을 대체할 것이란 전망은 이제 더 이상 새로운 얘기가 아니다. “천재들의 세상이 무너질 것”이라며 “과학기술의 발전은 세상을 점점 평등하게 만들고 있다”는 장밋빛 전망도 나온다.

관련기사

하지만 모든 일에는, 특히 인간의 상상을 초월할 정도로 빠르게 변화하는 분야에서는 예기치 않은 문제들이 종종 발생하는 법이다. 챗GPT의 놀라운 능력이 악용되는 사례들은 이미 현실로 일어나고 있다. 대표적인 게 표절·대필 문제로, 미국에선 대학생들이 과제나 논문 제출 때 챗GPT를 썼다가 적발된 사례가 급증하고 있다는 뉴스가 CNN 등을 통해 전해졌다. 이러자 미국 뉴욕시 교육청은 공립학교의 챗GPT 접속을 차단했고, 국제머신러닝학회(ICML)도 AI 툴(tool)을 활용한 논문 작성을 제한하고 나섰다. 세계적 언어학자인 노암 촘스키 미국 메사추세츠공대 명예교수는 “챗GPT는 첨단 기술을 활용한 표절 시스템”이라고 거세게 비판하면서 특히 인문·사회과학 분야에서 표절이 쉬워질 것으로 우려했다.

그래픽=남미가 기자 nam.miga@joongang.co.kr

그래픽=남미가 기자 nam.miga@joongang.co.kr

한국도 비상이 걸렸다. 최근 국내 수도권의 한 국제학교에선 챗GPT를 이용해 영문 에세이를 작성, 제출한 학생들을 적발해 전원 0점 처리한 것으로 알려졌다. 이런 가운데 챗GPT의 개발사인 오픈AI는 공식 블로그를 통해 특정 글의 작성자가 사람인지 챗GPT인지 여부를 5단계로 판별해주는 애플리케이션(앱)을 공개했다. 이 회사가 이런 앱을 만들어 서비스에 나선 이유는 그만큼 챗GPT가 표절에 악용될 소지가 다분하다고 봤기 때문이다. 하버드대와 예일대 등은 마찬가지로 AI가 작성한 글을 판별하는 ‘GPT제로’ 앱을 사용하기로 했다.

지식재산권 침해에 대한 우려 목소리도 높다. 온라인 사진·그림·동영상 공급 업체 게티이미지와 화가들은 지난달 17일 이미지 생성 AI 업체인 스테빌리티AI를 상대로 지식재산권 침해 소송을 제기했다. 이들은 “스테빌리티AI가 상업적 이익을 위해 라이선스 취득의 필요성을 무시했다”고 주장했다. 미국의 컴퓨터 글꼴 전문가이자 개발자, 변호사인 매슈 버터릭도 지난해 11월 캘리포니아 북부 연방지방법원에 MS와 오픈AI 등 깃허브 관련 기업들을 상대로 집단 소송을 제기했다. IT 전문 매체 테크크런치는 “자고 일어나면 AI 관련 새 소송이 시작된다”고 꼬집었다. IT 업계 관계자는 “챗GPT를 비롯한 생성형 AI는 사람이 만든 기존 콘텐트를 대량으로 학습해야만 작동할 수 있어 지식재산권 침해 논란이 끊임없이 불거질 수밖에 없는 구조”라고 전했다. 문제는 세계 어느 나라도 사람이 아닌 AI의 지식재산권을 어디까지 인정할지를 아직 규정하지 못한 상태라는 점이다. 그래서 법적 판단에도 일관성이 없다.

AI가 가짜 뉴스와 혐오 발언, 성(性)·인종적 편견 등을 포함한 유해 콘텐트를 생산하는 도구로 악용될 수 있다는 우려도 있다. 일본 니혼게이자이신문은 챗GPT로 가짜 뉴스를 만들었더니 기자들도 헷갈릴 만큼 감쪽같았다고 지난 4일 보도했다. 이미 국내 스타트업이 개발한 AI 챗봇 ‘이루다’가 2021년과 지난해에 걸쳐 동성애자와 장애인 등 사회적 약자와 군인을 향한 혐오·차별 발언을 쏟아내 커다란 논란을 일으킨 바 있다. 온라인에서 일부 이용자가 입력한 글 내용을 AI가 무비판적으로 학습하다보니 일어난 사고였다. 김명주 서울여대 정보보호학과 교수는 “예컨대 온라인 일부 커뮤니티에서 일부 이용자가 과거에 남긴 데이터만 갖고 올해 AI가 판단을 하면 잘못된 정보에 따른 부정확한 답변 또는 편향된 답변이 나올 수밖에 없다”고 지적했다.

AI의 부작용을 최소화하기 위한 규제 도입이 시급하다는 목소리가 높아지고 있다. 테드 류 미국 하원의원은 지난달 23일 뉴욕타임스 기고에서 “AI 기술이 광범위한 차별을 유발할 수 있다”며 “정부가 AI 규제 전담 기관을 신설해야 한다”고 주장했다. 유럽연합(EU)은 내달 초안 공개를 앞둔 인공지능법을 통해 AI 기술의 위험도를 총 3단계로 나눠 규제하는 방안도 검토 중이다.

이성엽 고려대 기술경영전문대학원 교수는 “AI의 작동 규칙인 알고리즘을 기업들이 공정하고 투명하게 설계하도록 유도하는 게 무엇보다 중요하다”며 “알고리즘의 주요 기준을 공개하도록 하거나 AI의 윤리 교육을 의무화하는 등의 방안이 효과적일 것”이라고 말했다. 반면 지나친 규제보다 육성에 초점을 맞춰야 한다는 분석도 제기된다. 최경진 한국인공지능법학회장(가천대 법과대학 교수)은 “챗GPT의 부작용을 간과할 순 없지만 보완 기술이 같이 발전하면서 단계적으로 개선될 수 있다”며 “기업들이 연구·개발에 전념하도록 산업적 육성에 초점을 맞춘 데이터·AI 관련 법·제도 정비가 필요하다”고 강조했다.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT