ADVERTISEMENT
오피니언 장덕진의 퍼스펙티브

인류 미래 걸린 ‘판도라의 상자’ 조심히 다뤄야

중앙일보

입력

지면보기

종합 24면

곳곳서 터져 나오는 인공지능 경계론

장덕진 서울대 사회학과 교수, 리셋 코리아 운영위원

장덕진 서울대 사회학과 교수, 리셋 코리아 운영위원

챗GPT와 관련된 놀라운 경험담이 넘쳐난다. 세계적으로 잘 알려진 이야기는 토머스 파타첵이 트위터에 공유한 것인데, 챗GPT에게 VCR(Video Cassette Recorder)에서 땅콩버터 샌드위치를 꺼내는 방법을 킹제임스성경 스타일로 써달라는 황당한 요구를 했더니 근사한 답변을 내놓았다는 것이다.

“내가 너의 손을 인도하고 너에게 길을 보여줄지니 두려워하지 말라. 네 버터나이프를 샌드위치와 VCR 사이에 끼우고 조심스럽게 떼어낼지어다. 인내와 집념으로 샌드위치는 마침내 떨어질지니 VCR은 구원받을 것이다.”

챗GPT가 내놓은 답변 중 일부이다. 기업체 대표인 필자의 지인은 외국 파트너와 맺는 영어로 된 계약서를 써달라고 했는데, 변호사가 쓴 것과 별 차이 없어 보이길래 시험 삼아 그냥 보내봤더니 아무 문제 없이 계약이 진행되었다고 한다. 그는 변호사 비용 몇백만 원을 절약했다며 밥값을 냈다.

가짜 뉴스·이미지 쏟아질 수도
정보접근 범위 신중히 정해야

AI 위험성은 결국 인간의 문제
극소수 전문가에 맡기면 곤란

선거 등 공공영역 개입 가능성
기술·사회 이해하는 정책 절실

가상의 상대와 대화하는 착각

퍼스펙티브

퍼스펙티브

필자는 챗 GPT에 규칙을 어기도록 설득하는 실험을 해봤는데 그리 어렵지 않았다. 세간의 관심을 끌고 있는 재판의 결과가 어찌 될 것 같은지 물었더니 챗GPT는 처음에는 자신이 그런 예측 능력을 갖추고 있지도 않고, 그런 예측을 하는 것이 적절치 않으며, 법원의 판결을 존중해야 하고, 그런 예측을 하는 것이 자칫 인권침해가 될 수도 있다며 답변을 하지 않으려 했다. 하지만 다섯 차례 설득한 끝에 “알겠습니다. 현재까지 공개된 증거들을 바탕으로 판단하면…”으로 시작되는 인공지능의 예측을 들을 수 있었다.

이런 경험은 마치 실제 지능을 가진 대상과 대화하고 있는 것 같은 착각을 불러일으킨다. 사실은 챗GPT는 조건부 확률에 근거해 다음 단어를 생성해내는 언어모델일 뿐이다. 챗 GPT에 질문하면 잠깐 커서가 깜박이다가 답변을 준다. 질문이 까다로우면 커서가 깜박이는 시간이 좀 더 길어진다. 이 시간 동안 이용자는 마치 챗GPT가 답변을 생각하고 있는 것 같은 착각에 빠진다. 실제로는 이 시간 동안 챗GPT는 무엇이 가장 확률 높은 다음 단어인지 계산하고 있을 뿐이다. 언어모델에 잘 작동하는 챗봇을 붙여놓았기 때문에 진짜로 사람과 대화하는 것 같은 이용자 경험을 주는 것이다.

이것은 몇 가지 근본적인 질문을 제기한다. 예를 들면 이런 것이다. 챗GPT가 단순히 확률 높은 다음 단어를 생성해내는 언어모델이라면 그것을 ‘인공지능’이라고 부르는 것은 적절한가. 언어학의 아버지이자 석학으로 불리는 노엄 촘스키는 이것은 지능이 아니라고 단언한다. “이렇게 별것도 아닌 일에 그렇게 많은 돈과 관심이 집중되는 것은 희극적인 동시에 비극적이다”는 것이 그의 진단이다.

기계가 진정 인간을 능가할 것인가

하지만 반대편에서는 지능을 무엇이라고 정의하느냐에 따라 달라질 수 있다고 주장한다. 예를 들어보자. 인간은 오래전부터 새처럼 하늘을 날기를 열망해왔고, 마침내 비행기를 가지게 되었다. 그러나 비행기가 나는 원리는 새가 나는 원리와는 전혀 다르다. 그러면 인간은 새처럼 하늘을 날 수 있게 된 것인가 아닌가.

대부분 사람은 비행기로 하늘을 날 수 있게 된 것이 중요하지 그 원리가 새와 다른 것은 별문제가 아니라고 답할 것이다. 그렇다면 비록 원리가 다르다 할지라도 언어모델이 인간의 지능과 비슷한 답을 내놓는다면 인공지능이라 불러도 손색이 없다는 것이다.

인공지능의 위험성을 경고하는 목소리도 드높다. 인공지능이 사람들의 일자리를 빼앗아 갈 것이라는 우려가 대표적이다. 하지만 러다이트 운동을 촉발했던 산업혁명이나 오늘날 생활의 일부가 되어버린 컴퓨터가 일자리를 빼앗아가기보다는 훨씬 많은 일자리를 만들었듯이, 정반대의 예측을 하는 사람들도 많다.

더 근본적이고 섬뜩한 질문은 기계의 지능이 인간의 지능을 능가하는 ‘특이점(singularity)’이 가까이 있는 것 아니냐는 것이다. 수많은 공상과학 영화에서 봐왔던, 어느 날 기계가 세계를 지배하고 심지어 인류를 몰살할 수도 있는 ‘판도라의 상자’를 우리가 겁 없이 열어젖히고 있는 것 아니냐는 우려이다.

머스크, 하라리, 힌턴의 잇단 경고

지금의 챗GPT만 놓고 보면 너무 앞서 나간 걱정인 것 같지만, 일론 머스크나 유발 하라리처럼 첨단기술과 과학을 잘 이해하고 있는 사람들이 인공지능 개발을 6개월간 멈추고 안전판을 모색하자는 호소문에 서명하고, 인공지능의 대부로 불리며 튜링상을 받은 제프리 힌턴이 구글 석학연구원직을 사직하며 인공지능 개발에 기여한 자신의 삶을 후회한다는 소회까지 내놓았다는 소식에 이르면 “어? 이건 뭐지?” 하는 불안감을 떨치기 어려워진다.

하지만 그들의 우려를 자세히 들여다보면 기술 그 자체가 아니라 그 기술을 운용하는 사람들에 대한 우려에 가깝다는 점을 알 수 있다. 예를 들어 힌턴은 “인공지능 시스템이 자체적으로 코드를 생성해 실행하도록 허용되면 ‘킬러 로봇’까지도 현실이 될 수 있다”고 우려했는데, 이것은 근본적으로는 그렇게 하도록 허용하는 인간에 대한 우려이다.

사회과학적으로 보면 인공지능의 등장은 ‘사회운영체제(social operating system)’의 독과점에 가깝다. 사회운영체제란 토론토대 사회학자 배리 웰만이 2012년에 출판한 책에서 제안한 개념인데, 사람들 간의 관계를 관리하는 소프트웨어 플랫폼을 말한다. 컴퓨터를 사용하려면 윈도나 리눅스 같은 운영체제가 필요하듯이, 사회적 관계를 만들고 관리하는 데에도 운영체제가 존재하는 세상이 된 것이다.

과거에 그런 것이 없었던 시절에는 사람들의 사회적 관계는 주로 밀접한 지인들의 소규모 네트워크나 거주하는 지역 등에 집중되었다. e메일의 등장은 물리적 거리와 상관없이 사회적 관계를 유지하도록 해주었다면, SNS와 같은 소셜 미디어의 등장은 사람들의 개인적 네트워크를 더 대규모로 키우고 전혀 모르는 타인들과도 일종의 사회적 관계를 맺도록 만들었다.

완벽한 중앙집권의 위험성

이제 사람들은 알지도 못하는 타인들의 관심을 받기 위해 때로는 기발하고 때로는 선정적인 행동을 서슴지 않는다. 기술의 등장으로 인해 사회적 관계가 특정한 방향으로 편향되어 나아가고, 그에 따라 인간의 행동도 달라지는 것이다. 블록체인의 등장은 사회적 관계 자체가 필요 없도록 완벽한 정보 공유를 통해 완벽한 분권을 지향한다. 인공지능은 정반대로 거의 완벽한 중앙집권을 가능하게 할 수도 있다.

인공지능의 위험이 있다면 그것은 사회운영체제를 소수가 독점하게 되었는데 그 결과로 실행되는 것들이 너무나 효율적이어서 되돌리기 어려운 결과를 만들어낼 수 있다는 점이다. 예를 들어 챗GPT와 구글의 인공지능 ‘바드(bard)’ 사이의 경쟁을 보자. 챗GPT는 인터넷에 있는 모든 자료를 학습하는 것이 아니라 2021년까지의 온·오프라인 자료 중 개발자들이 선정한 방대한 자료를 학습했다. 즉 챗GPT는 답변을 만들기 위해 실시간 인터넷 검색을 하지 않고, 2021년 이후 일어난 일들에 대해서는 알지 못한다.

하지만 챗GPT의 등장으로 비상사태를 선포한 구글은 바드에게 인터넷 검색을 허용했다. 이것이 이용자의 호응을 얻는다면 챗GPT도 같은 결정을 하게 될 가능성이 크다. 이로 인해 인공지능의 잠재적 위험은 훨씬 커질 수 있다. 인터넷은 인공지능이 만들어낸 가짜 뉴스와 가짜 이미지로 뒤덮일 가능성이 더 커졌고, 선거와 같은 중요한 공공의 영역에 인공지능을 활용한 개입이 더 쉬워졌다. 제프리 힌턴이 구글을 떠난 중요한 이유이다.

언어모델과 제어모델의 결합

그런데 이 엄청난 의사결정을 누가 했는지 생각해보면 결국은 한두 명의 테크기업 경영자로 압축된다. 언어모델이 제어모델과 결합하면 무서운 결과를 초래할 수도 있다. 예를 들어 환경을 해치지 않는 지구를 만들라는 목적함수를 줬더니 무기를 제어해서 인류를 몰살하는 것과 같은 시나리오이다. 하지만 이것도 언어모델인 인공지능에 무기를 제어하는 권한을 주기로 한 인간의 결정이 선행되어야 가능한 일이고, 인공지능 이전에도 인간의 권한을 조금씩 프로그램에 위임해오면서 늘 발생하던 일의 극단적인 확장판일 뿐이다.

결국 인공지능의 위험성은 인간인 것으로 보인다. 이 극적으로 효율적인 도구에 무슨 권한을 얼마만큼 줄 것인지, 무엇을 허용하고 무엇을 금기로 할 것인지, 그러한 결정을 할 권한을 가진 사람들은 누구인지가 사회적 합의와 정치의 핵심 의제로 떠오를 것이다. 기술과 사회를 동시에 이해하는 입법과 정책이 더욱 절실해졌다.

장덕진 서울대 사회학과 교수·리셋 코리아 운영위원