ADVERTISEMENT
오피니언 중앙시평

AI와 사회적 윤리, 함께 진화할 수 있을까

중앙일보

입력

지면보기

종합 27면

김명자 KAIST 이사장·전 환경부장관

김명자 KAIST 이사장·전 환경부장관

2022년 11월 오픈AI가 내놓은 생성형 AI 모델 챗GPT-3.5가 태풍의 눈이 되고 있다. 이 ‘사전훈련된 생성형 변환기’는 출시 첫 주에 100만 명을 끌어들였고, 석 달 뒤 구글의 대화형 AI ‘바드’와 마이크로소프트(MS)의 AI 챗봇 ‘빙’이 등장했다. GPT-3.5는 넉 달 만에 GPT-4로 진화했고, AI 윤리와 보안 이슈가 급부상했다.

2023년 11월에는 오픈AI의 샘 올트먼 CEO가 해임되는 ‘이사회 스캔들’로 떠들썩하더니, 닷새 만에 복귀하는 해프닝이 벌어졌다. 훗날 올트먼은 소회를 묻는 말에 “AGI(인공일반지능) 시대에 근접하면서 스트레스와 텐션 수준이 높아지고 있다. 사회적 우려에 대해 공감한다. 기술과 사회가 공진화(共進化)해야 한다”는 요지로 답했다. 인간처럼 학습하고 추론하며 창작력까지 갖춘 게 AGI라는데, 정의조차 아리송하다.

인간 수준의 AI 등장 예측 앞당겨져
국가 간 및 기업 간 ‘칩 전쟁’ 새 국면
챗GPT 열풍 속 신뢰 리스크는 커져
생성형 AI 개발과 규제 균형 난제로

올트먼의 복귀로 GPT-5 개발이 재개된 가운데 2023년 12월 뉴욕타임스(NYT)는 오픈AI와 MS를 상대로 저작권 침해 소송을 제기했다. 170여년 전통의 대언론사와 빅테크의 충돌이 언제 어떻게 판결 나건 간에 생성형 AI 기술 개발과 전파는 빗장이 풀렸다. 2005년 NYT 베스트셀러 『특이점이 다가왔다(The Singularity Is Near)』에서 2045년경 인간 수준의 인공지능이 등장할 것이라고 예측한 레이 커즈와일은 올 6월에 개정판 『특이점이 더 다가왔다(The Singularity Is Nearer)』를 출간한다고 한다. 2040년경, AI가 인류 지성의 총합보다 앞서게 되려나.

챗GPT 열풍은 초거대 AI 생태계 구축을 둘러싼 국가 간, IT 공룡기업 간 경쟁에 불을 붙였다. 반도체 패권경쟁도 새 국면을 맞았다. AI 소프트웨어 기업이 AI 하드웨어까지 영역을 확대하는 ‘칩 전쟁’으로 번졌기 때문이다. AI 칩 시장의 90% 이상을 점유한 엔비디아에 맞서 MS·아마존·메타 등은 자체 AI반도체 개발에 나섰다. 국내에서도 리벨리온·퓨리오사·사피온 등 벤처기업이 등장했다. 한국을 찾은 올트먼 CEO는 삼성전자와 SK하이닉스와 고대역폭메모리(HBM: 메모리 반도체 D램 여러 개를 수직연결한 고성능 메모리) 등의 조달방안을 논의했다고 한다. HBM 시장은 삼성전자와 SK하이닉스가 91%를 차지하고 있으나, 빅테크 사이의 합종연횡, 메모리 기능과 연결망을 확장하는 CXL(Computer Express Link)과 PIM(Processing in Memory) 부상 등이 변수다.

연초 대규모 국제행사도 AI가 휩쓸었다. “All Together, All On”(모두 함께, 모두 켜라)을 주제로 열린 CES의 콘텐트는 모든 산업에서의 AI 기술 융합이었다. 팻 겔싱어 인텔 CEO는 기조연설에서 AI가 와이파이처럼 고속확산되리라 전망했다. 삼성전자는 AI 스마트폰 갤럭시S24 시리즈를 선보이며 국내외 사전예약 판매시장을 달구고 있다. 너도나도 손바닥에 AGI를 장착하게 되는 시대가 열리고 있다.

세계경제포럼(WEF)에서는 ‘생성형 AI가 4차 산업혁명의 증기기관’이라는 슬로건이 등장했다. WEF 글로벌 리스크 전망 보고서는 세계적 단기 리스크 1순위로 AI 기술과 관련되는 ‘잘못된 정보와 허위정보’를 꼽았다. 과연 소셜미디어를 통한 딥페이크(AI의 영상합성·조작기술)의 피해가 심각하다. 2023년 콘서트 매출로만 10억 달러를 기록한 전설의 팝 가수 테일러 스위프트의 음란물 딥페이크는 ‘세상을 뒤집어 놓으며’ 규제 요구 목소리를 높였다.

2024년에는 64개국에서 세계인구의 49%가 선거를 치른다(Time Magazine). 슈퍼 선거의 해, 생성형 AI 기술이 캠페인에 미칠 영향에 관심이 쏠린다. 10여 년 전부터 후보자들이 선거운동에 빅데이터를 활용하던 것과는 차원이 달라, 텍스트와 이미지를 생성하는 AI가 도처에서 진짜와 가짜를 헷갈리게 하고 있다. 소수의 팔로워를 거느린 마이크로-인플루언서를 캠페인에 활용하는 것도 새로운 추세라고 한다(MIT Technology Review).

생성형 AI의 등장으로 AI 개발과 규제 사이의 균형이 난제로 떠올랐다. 규제는 기술 도입에 따르는 사회적 피해가 불거진 뒤에 나오기 마련인데, AI 기술의 진화에 대한 예측도 어렵고 복잡하다. 규제에 앞장선 유럽연합(EU)은 작년 6월 디지털서비스법(DSA) 시행으로 디지털 플랫폼에서의 선거방해 가짜뉴스 등에 대해 법적 책임을 묻고 있다. 첫 사례로 작년 12월 하마스의 이스라엘 공격에 관한 가짜뉴스 전파에 대응하지 못한 X(이전 트위터)가 조사를 받고 있다.

국내에서도 선거대책으로 네이버가 AI 댓글 감시신고센터를 신설하고, 언론사가 AI로 자동생성한 기사에 대해서는 표시한다고 한다. 그러나 홍수처럼 쏟아지는 잘못된 정보와 허위정보를 제어할 수 있을지는 미지수다. 결국 AI 기술을 누려야 할 사람들은 ‘정직해야 한다’가 답인데, 과연 그게 가능할까.

김명자 KAIST 이사장·전 환경부장관