ADVERTISEMENT

구글에 사표낸 AI 대부 “핵보다 무서운 AI, 국제 규제 필요”

중앙일보

입력

지면보기

종합 12면

‘딥러닝’ 정립한 힌턴 박사의 경고 

챗GPT 같은 생성형 인공지능(AI)의 등장으로 AI의 부정적 기능에 대한 우려가 커지자, AI 개발 속도를 조절해야 한다는 주장이 거세지고 있다.

‘AI의 대부’로 불리며 50년 이상 AI를 연구한 ‘딥러닝’의 창시자 격인 제프리 힌턴 박사도 AI의 위험성을 경고하고 나섰다.

제프리 힌턴

제프리 힌턴

1일(현지시간) 뉴욕타임스(NYT) 등 외신에 따르면 힌턴 박사가 지난달 구글에 사표를 냈다. 힌턴 박사는 NYT와 인터뷰에서 “AI의 위험성에 대해 알리기 위해”라고 퇴사 이유를 밝혔다. 그는 캐나다 토론토대 컴퓨터과학 교수 시절 창업한 DNN리서치가 2013년에 구글에 인수되면서 구글과 인연을 맺었다. 이후 구글 부사장 겸 엔지니어링 펠로로 AI 연구를 해왔다.

힌턴 박사는 현재 생성 AI 분야에서 구글과 마이크로소프트(MS) 사이의 경쟁을 언급하며 국제적인 규제 필요성을 강조했다.

그는 “AI의 악용 시도를 막기는 어려울 것”이라며 “핵무기와 달리 AI는 비밀리에 연구하면, 그걸 밖에선 알 방법이 없다. 전 세계의 학자들이 협력해서 AI 기술을 제어할 방법을 찾아야 한다”고 강조했다. 그는 자신의 과거 연구와 관련해 “후회한다”며 “내가 (AI를 연구)하지 않았다면 다른 누군가가 했을 일이라고 생각하며 스스로를 위로할 뿐”이라고 토로했다. 그는 AI 기술이 적용된 ‘킬러 로봇’이 현실이 될까 두렵다고도 했다.

평생 AI를 개발한 석학도 우려할 만큼 AI 기술의 발전 속도는 빨라진 데 비해, 각국의 제도적 준비는 크게 부족하다. AI가 인간의 일자리를 위협할 뿐만 아니라 AI 기술을 활용한 사이버 해킹, 권위주의 혹은 독재 정부의 AI 악용 가능성 등을 우려하는 목소리가 커지는 배경이다. 유발 하라리 예루살렘 히브리대 교수, 스튜어트 러셀 UC버클리대 교수 등을 중심으로 AI 개발에 ‘속도 조절’이 필요하다는 의견이 잇따라 나오는 이유다. 1일(현지시간) 테슬라의 최고경영자(CEO)인 일론 머스크는 자신의 트위터에 “선한 의도로 개발된 AI나 자동화 기술조차도 기술과 기계가 (애초 어떤 목적으로) 작동하는지 잊어버릴 수준으로 개발되면 인류 문명이 위험해진다”고 했다. 유발 하라리 교수도 “강력한 기술적 도구가 나왔을 때는 안전을 점검하는 과정이 반드시 필요하다”고 주장했다.

그래픽=김경진 기자 capkim@joongang.co.kr

그래픽=김경진 기자 capkim@joongang.co.kr

AI 규제에 가장 적극적인 쪽은 유럽이다. 2021년부터 인공지능법(AI Act) 제정을 추진 중인 유럽연합(EU)은 최근 이 법안 초안에 ‘AI 기업이 AI 훈련에 활용한 데이터의 출처와 저작권을 공개하도록 의무화’하는 내용을 추가했다. 연내에 법안이 제정될 가능성이 크다. 실리콘밸리에 AI 기업이 포진한 미국도 정부 차원에서 생성 AI 관련 규제 장치 마련을 위한 검토에 착수했다.

초거대 AI를 개발하는 기업을 감시하기 위한 국제기구를 설립하자는 목소리도 커지고 있다. AI 전문가인 게리 마커스 뉴욕대 교수와 앵카 루엘 스탠퍼드대 박사는 최근 영국 이코노미스트지에 기고를 통해 “2차대전 이후 국제사회가 국제원자력기구(IAEA)를 만들었듯이, AI 개발을 감시할 수 있는 글로벌 중립 비영리 기구를 만들어야 한다”고 제안했다 .

그러나 AI 기술로 수익화하려는 빅테크 기업들은 규제론에 회의적이다. 챗GPT 이후 AI 열풍을 주도하고 있는 오픈AI의 샘 알트먼 창업자는 “AI가 두렵다”면서도 “AGI(범용 인공지능)의 장점이 매우 크기 때문에 사회가 영원히 개발을 중단하는 것은 가능하지도, 바람직하지도 않다”고 말한다. 최근 오픈AI가 유료화 상품을 출시하기도 했다. 미·중 AI 기술 경쟁도 변수다. AI·반도체 등에서 G2의 기술 패권 경쟁이 심화되고 있어 어느 한쪽이 먼저 멈추기는 쉽지 않다.

구글 CEO를 지낸 에릭 슈밋 전 미국 방위혁신위원회 의장은 최근 AI 개발을 6개월 만이라도 멈추자는 주장이 나오자 “그렇게 하면 중국만 이득을 본다”며 반대 입장을 밝혔다.

국내는 과학기술정보통신부를 주축으로 AI 발전에 따른 사회적 문제를 해결하기 위한 규범 체계를 마련 중이다. 현재 국회에 계류된 인공지능법은 3년마다 AI 기본계획을 수립하고 AI 관련 기술 등을 지원하는 국가인공지능센터를 설치하는 내용 등을 담고 있다. 규제보다는 육성을 강조하는 방향이다. 2일 국무회의에서는 ‘새로운 디지털 질서 정립 방안’도 논의했다. 오는 9월까지 디지털 심화 시대의 갈등해소 원칙 등을 담은 ‘디지털 권리장전’을 마련하고, 인공지능 등에 대한 여론을 수렴하는 홈페이지 형식의 ‘디지털 공론장’을 8월 안에 만든다는 내용이다.

국내 전문가들은 AI 속도조절론에 신중한 편이다. 현재 전 세계에서 초거대 AI 언어모델을 자체 개발한 국가는 미국·중국·한국·이스라엘 등 4개국뿐인 만큼 AI 경쟁력을 더 키워야 한다는 것이다.

오혜연 KAIST 인공지능연구원장은 “AI 기술이 앞으로 어떻게 변화할 것인지 모르는 상황에서 선(先)규제론은 조심해야 한다”며 “기술 발전을 저해할 수도 있고, 규제의 효과가 떨어질 수도 있다”고 말했다. 또 이동규 아산정책연구원 연구위원은 “미국이 초당적으로 중국에 대한 견제와 압박을 지속하고 있기 때문에 AI 기술 경쟁은 앞으로 더 심화될 것”이라고 진단했다.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT