ADVERTISEMENT

똑똑한 인공지능에게 상식은 없다

중앙선데이

입력

지면보기

839호 20면

AI 이후의 세계

AI 이후의 세계

AI 이후의 세계
헨리 키신저·에릭 슈밋·대니얼 허튼로커 지음
김고명 옮김
윌북

좋든 싫든 인공지능(AI, artificial intelligence)을 거부하기 힘든 시대다. 특히 인간처럼 글을 쓰는 챗GPT 같은 생성형 AI의 등장은 인간 아닌 지능적 존재의 위력, 그리고 이런 존재가 종종 터무니없는 결과를 내놓을 수 있다는 점까지 동시에 체감하게 하고 있다.

이 책은 구글의 전 CEO 에릭 슈밋을 비롯해 세 저자가 4년간 주고받은 논의를 간추렸다. AI의 발전 과정과 더불어 지금 시대 AI가 제기하는 철학적 문제, 군사·안보적 문제까지 개괄하는 것이 특징이다. 공저자 중 헨리 키신저는 알다시피 미국의 전 국무장관. 국제관계라면 몰라도 AI와 무슨 상관일까 싶은데, 책 후반을 보면 수긍이 간다.

AI는 비정밀·역동적·창발적이며 학습이 가능하다. 저자들은 이런 특징이 기계에 존재하는 건 “혁명적”이라고 썼다. [로이터=연합뉴스]

AI는 비정밀·역동적·창발적이며 학습이 가능하다. 저자들은 이런 특징이 기계에 존재하는 건 “혁명적”이라고 썼다. [로이터=연합뉴스]

저자들은 제4장에서 구글·페이스북 같은 네트워크 플랫폼이 지리적 한계를 넘어 정치적·사회적 영향을 미치는 상황을 짚고 이를 개별 민간 기업의 규제에만 내버려 둘 수 없다는 점을 드러낸다. 이어 5장에서는 핵무기 규제의 역사와 비교하며 지금 AI의 군사적 활용에 대한 규제가 얼마나 절실하고도 어려운 일인지 강조한다. 핵탄두는 몇 개인지 셀 수라도 있지만, 계속 진화하는 AI는 규제를 위한 검증이나 핵 억지의 ‘억지’ 같은 개념 합의조차 쉽지 않다는 게 이 책의 설명. 관련 기술이 군·민 양용인 데다, 핵과 달리 정부가 인프라를 통제할 수 없는 확산성과 강력한 잠재적 파괴력을 지닌 것도 특징으로 꼽는다.

저자들은 스스로 목표물을 정하고 타격할 수 있게 훈련된 치명적 자율무기(LAWs)나 생성형 AI가 만들 수 있는 진짜 같은 가짜 뉴스를 비롯해 다양한 위협과 복합적 문제를 지적한다. 이들은 물리적 무기와 사이버 무기를 아울러 ‘AI 군비통제’ 개념에 세계가 합의하고 그 규제를 서둘러야 한다고 주장한다.

그렇다고 이 책이 정책 입안자들만 겨냥하는 건 아니다. 저자들은 서구 계몽주의 시대 이래로 인간의 이성을 중심에 둔 철학적 관점이 AI 때문에 바뀔 것이라고 내다보는데, 이는 AI의 속성을 이해하는데도 요긴해 보인다. 단적인 예가 AI 연구의 돌파구가 된 머신러닝. 인간이 선별한 지식을 부호로 기계에 입력하는 대신 기계에 학습을 일임하는 머신러닝은 특히 신경망을 이용해 방대한 데이터에서 패턴을 추출하는 기술로 큰 효과를 거두게 됐다고 한다.

이를 저자들은 사물의 본질을 식별하는 플라톤의 방식이 아니라, 유사성의 일반화란 점에서 비트겐슈타인의 방식을 따른 것으로 설명한다. 비트겐슈타인의 ‘가족 유사성’ 개념을 비롯해 계몽주의에서 탈피해 인식의 모호성과 상대성을 수용하는 사상적 조류가 20세기 후반~21세기 초반에 AI와 머신러닝에 대한 이론들의 토대가 됐다고 한다.

저자들은 과거의 컴퓨터와 달리 지금의 AI가 지닌 비정밀성을 역동성, 창발성, 학습능력과 함께 기계가 가질 수 있는 혁명적 특성으로 꼽는다. 이를 비롯해 AI의 발전 과정에 대한 설명은 이 책의 3장에 주로 나오는데, 저자들은 그 특징과 한계를 고루 짚는다.

그중에도 눈길을 끄는 건, 이제 AI가 내놓는 결과가 어떻게 나온 것인지 그 과정을 인간이 늘 설명할 순 없단 점이다. 예컨대 구글의 검색엔진은 2015년부터 AI를 활용하고 있는데, 왜 이 웹페이지가 저 웹페이지보다 먼저 나오는지 구글 엔지니어라고 반드시 설명할 수는 없단 얘기다. 책에 따르면, 2020년 미국 MIT의 AI가 기존 항생제에 내성이 있는 균을 죽이는 새 항생물질을 발견한 놀라운 성과 역시 인간이 이해 못 하거나, 아예 규칙화하기 힘든 화학물질의 속성과 관계를 파악한 결과로 이뤄졌다. 더 피부에 와 닿는 예는 기업 채용이나 대출 심사를 AI가 할 경우다. 당락의 결과만 내놓을 뿐 과정을 설명할 수 없다면, 저자들 말마따나 세상이 부조리하게 느껴지기에 십상이다.

저자들은 AI가 우리 같은 상식이 없을뿐더러, 인간이 하듯 결과를 반추하지도 않는다고 지적한다. AI, 특히 챗GPT 같은 생성형 AI를 구텐베르크의 인쇄술에 비견되는 성과로 평가하는 동시에 AI의 활용에 대한 규제를 책 곳곳에서 강조한다. 구체적 방안을 내놓거나 하는 건 아니어서 독자에 따라서는 이 책 전반이 피상적으로 느껴질 수도 있다. 그럼에도 당장의 파편적 정보에 매몰되는 대신 AI를 조망하는 단초를 찾으려는 데는 도움이 될 수 있다. 책에 나오는 다음과 같은 문장처럼 말이다.

“정보에 맥락이 더해질 때 지식이 된다. 그리고 지식에 소신이 더해지면 지혜가 된다. 역사적으로 볼 때 소신이 생기려면 홀로 성찰하는 시간이 필요했다. 하지만 인터넷은 이용자에게 수천·수만·수억 명의 의견을 쏟아부으며 혼자 있을 시간을 허락하지 않는다. 홀로 생각할 시간이 줄어들면 용기가 위축된다. 용기는 소신을 기르고 지키기 위해 꼭 필요하며 특히 새로운 길, 그래서 대체로 외로운 길을 걸을 때 중요하다. 인간은 소신과 지혜를 갖출 때만 새로운 지평을 탐색할 수 있다.” 원제 The Age of AI: And Our Human Future.

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT