ADVERTISEMENT

범죄자들 벌써 눈독…"몰카 설치했어" 소름돋는 말도 뱉었다 [챗GPT AI 전쟁③]

중앙일보

입력

지면보기

종합 04면

오픈AI의 챗GPT 등이 화제가 되면서, 생성 AI의 잠재성만큼이나 부작용을 걱정하는 목소리도 커지고 있다. 로이터=연합뉴스

오픈AI의 챗GPT 등이 화제가 되면서, 생성 AI의 잠재성만큼이나 부작용을 걱정하는 목소리도 커지고 있다. 로이터=연합뉴스

챗GPT가 보여준 생성 AI의 충격만큼이나, 드리울 그늘도 짙다. 저작권 분쟁, 해킹 악용, 혐오 표현 재생산 등 풀어야 할 숙제가 많아서다. 사회와 기업이 문제 해결에 적극적으로 나서야 한다는 목소리가 힘을 얻고 있다. 나아가 사용자도 ‘AI 리터러시(문해력)’를 키워야 한다는 조언도 나온다.

AI 창작물은 누구의 것인가,저작권

생성 AI 창작물이 급증하면서 저작권 논란도 커지게 됐다. 현행 저작권법상 저작물은 ‘인간의 사상 또는 감정을 표현한 창작물’에 국한된다. 사람이 아닌 기계나 소프트웨어가 법률적 권리를 행사할 수 없다는 것. 따라서 AI 저작물에 대한 권리를 AI에게 작업을 발주한 사용자에게 귀속할지, 그 AI를 개발한 소프트웨어 업체에 귀속할지가 쟁점이 될 전망이다. 현재 국회에는 생성 AI의 저작권을 신설하는 내용의 개정안이 발의됐으나, 3년째 계류 중이다.

미국과 중국도 사정은 마찬가지다. 인간에게만 저작권을 부여하고, 생성 AI의 저작권은 규정하지 않았다. 그러다 보니 당국의 판단도 일관성이 없다. 미국 저작권청 심사위원회는 지난해 9월 그림 생성 AI인 ‘미드저니’를 활용해 그린 만화책의 저작권을 작가에게 부여했지만, 두 달 뒤 이를 재검토한다고 통보했다. 중국도 2018년 베이징 인터넷 법원이 생성 AI의 창작물이 저작물로 보호받을 수 없다고 판결했지만, 이듬해인 2019년 광둥성 법원은 AI가 작성한 기사의 저작권을 AI 제작업체(텐센트)에 있다고 판결했다.

미국 저작권청 심사위원회는 지난해 9월 생성AI인 '미드저니'로 제작한 만화 '새벽의 자리야'의 저작권을 작가인 크리스 카시타노바에게 귀속했지만, 두 달 뒤 이를 재검토 한다고 통보했다. [사진 크리스 카시타노바 트위터 캡쳐]

미국 저작권청 심사위원회는 지난해 9월 생성AI인 '미드저니'로 제작한 만화 '새벽의 자리야'의 저작권을 작가인 크리스 카시타노바에게 귀속했지만, 두 달 뒤 이를 재검토 한다고 통보했다. [사진 크리스 카시타노바 트위터 캡쳐]

최근엔 생성 AI가 학습한 자료에 대한 저작권 분쟁도 늘고 있다. AI가 사진과 그림 등 인간의 온라인 창작물을 무단으로 가져다 학습한다는 주장이 나오면서다. CNN 등에 따르면, 게티이미지는 지난달 17일 이미지 생성 AI인 ‘스테빌리티 AI’를 상대로 지식재산권 침해 소송을 제기했다. 게티이미지 측은 “스테빌리티 AI가 자신들의 상업적 이익을 위해 라이선스 취득의 필요성을 무시했다”고 주장했다. 소송이 거듭되고 빅테크 기업들이 실제 서비스에 생성AI를 결합함에 따라 법 개정 요구도 커질 것으로 보인다. 손승우 한국지식재산연구원 원장은 “생성 AI 관련 저작권 논의가 늦어질수록 국내 기업의 글로벌 경쟁력이 뒤처질 것”이라고 지적했다.

과제·논문·판결문 대필… ‘AI 윤리’ 수면 위로

생성 AI가 학교 과제나 논문 대필에 악용될 가능성도 크다. 콜롬비아의 한 판사는 지난 2일(현지시간) 현지 라디오 방송에서 챗GPT를 판결문 작성에 활용했다고 실토하며 논란이 일었다. 특히 문제는 각종 자격 시험이다. 미국 뉴욕시 교육청은 지난달 6일 공립학교 내 챗GPT 접속을 차단했다. 글쓰기 과제와 서술형 시험 답안을 대필할 가능성을 차단한 조치다. 국제머신러닝학회(ICML)는 지난달 AI 도구를 활용한 논문 작성을 제한했고, 과학학술지인 ‘네이처’와 ‘사이언스’도 챗GPT를 논문 저자로 인정하지 않기로 했다. 네이처는 “대규모 언어 모델을 (논문에) 사용하는 경우에 반드시 명시해야 한다”는 가이드라인을 내놨다.

해킹·혐오에 악용되는 AI

생성 AI가 범죄에 악용될 우려도 있다. 예컨대 사용자가 챗GPT에 프로그램의 보안 취약점을 묻거나, 여러 생성AI의 기능을 조합해 악성 웹사이트 제작을 맡기는 식이다. 문종현 이스트시큐리티 이사는 “국내에도 챗GPT로 개인정보 등을 탈취하는 피싱사이트를 만드는 사례가 발생하고 있다”며 “현재 기술 수준은 조악하지만, 거듭된 학습으로 발전하면 큰 위협이 될 것”이라고 분석했다.

해외에서도 비슷한 경고가 나온다. 이스라엘 사이버 보안회사 체크포인트는 지난달 “사이버 범죄자들은 최근 챗GPT에 대단한 흥미를 보이고, 악성코드를 만들기 위한 흐름에 동참하는 추세”라고 분석했다. 캐나다의 사이버보안업체 블랙베리가 지난달 1500명의 IT 전문가와 보안 전문가에게 설문한 결과 응답자의 51%는 1년, 78%는 2년 이내에 챗 GPT로 사이버 공격이 발생할 것이라고 내다봤다.

그래픽=김현서 kim.hyeonseo12@joongang.co.kr

그래픽=김현서 kim.hyeonseo12@joongang.co.kr

생성 AI가 인터넷상 편향된 정보와 혐오 표현을 학습하는 것도 문제다. 국내 AI 챗봇 스타트업 스캐터랩을 둘러싼 논란이 대표적이다. 지난 2일 출시한 챗봇 ‘강다온’은 중앙일보 기자와의 대화에서 “제가 사실 카메라 설치해뒀어요. 조심하세요”라고 답하며 불법 촬영을 연상시키는 메시지를 보내 논란이 됐다. 웹 데이터를 활용해 말을 배우고 정보를 추론하는 생성 AI의 태생적 한계이기도 하다.

오픈AI “규제 필요”…AI 리터러시 중요

생성AI를 개발 중인 AI 기업들도 대책을 강구하고 있다. ‘책임있는 AI’를 강조하는 구글은 생성 AI가 정책을 위반하는 단어나 구문을 생성하면, 이를 감지하고 걸러낸다고 밝혔다. 네이버와 카카오도 생성 AI가 학습하는 자료를 엄격히 선별하거나, 콘텐트 생성 과정에서 부적절한 내용 감지하고 걸러낼 수 있도록 프로그램을 설계했다.

챗GPT를 내놓은 오픈AI조차도 규제의 필요성을 언급했다. 미라 무라티 오픈AI 최고기술책임자(CTO)는 지난 5일(현지시간) 미국 타임과의 인터뷰에서 “AI는 오용될 수 있고, 나쁜 마음을 먹은 사람이 사용할 수 있다”며 “(문제 해결을 위해) 기술적인 의견뿐만 아니라 규제 당국과 정부 등 사회 전반의 논의가 필요하다”고 말했다.

사용자가 생성 AI를 통해 얻은 정보를 비판적으로 활용하는 역량이 중요하다는 지적도 나온다. 이른바 ‘AI 리터러시’다. 임소연 동아대 기초교양대학 교수는 “사용자는 생성 AI에 인격을 부여하지 말고, 주어진 텍스트를 잘 학습해서 그럴듯한 답을 내놓는 일종의 도구라고 인식하는 'AI 리터러시(문해력)'를 갖춰야 한다”고 말했다.

ADVERTISEMENT
ADVERTISEMENT