ADVERTISEMENT
오피니언 중앙시평

인공지능 개발을 멈춰야 할까?

중앙일보

입력

지면보기

종합 31면

장하석 케임브리지대 석좌교수·과학철학

장하석 케임브리지대 석좌교수·과학철학

필자는 지난번 칼럼에서 챗봇의 개발과 사용을 규제해야 한다고 주장한 바 있다. 인공지능 분야의 문외한 주제에 내놓아 본 의견이었는데, 최근 그 분야의 많은 전문가들이 이와 비슷한 입장을 발표했다. 전기차업체 테슬라와 우주탐사기업 스페이스엑스의 창업주 일론 머스크가 설립한 ‘삶의 미래 연구소’에서 보내는 공개서한 형식의 이 성명서에는 인공지능에 대해 뭔가 좀 안다는 사람들 1000명 이상이 서명하였다. 이들은 최근에 나온 ‘챗GPT-4’ 수준을 넘어서는 인공지능의 개발을 모두 당장 최소한 6개월간 중단하고, 그 기간 이 신기술이 가지는 사회적·윤리적 함의를 조심스레 검토하면서 그 기술을 제대로 규제할 수 있는 방안을 고민하자고 주장한다.

AI 전문가들의 개발 규제 성명
논란 많은 인물 머스크가 주동
인간이 AI 작동 원리 이해 필요
관련 기술 조심스럽게 관리돼야

이 성명이 주의를 끌었던 것은 머스크라는 사람 때문이기도 했다. 얼마 전 440억 달러라는 거액으로 트위터를 사들이는 등 참으로 논란을 많이 일으키고 다니는 인물인데, 지금까지 그는 기술개발을 삼가는 것과는 거리가 먼 일생을 살아왔다. 50대 초반 나이에 세계에서 두 번째 부자로 꼽히는 머스크는 신기술에 매혹된 부유한 사람들을 겨냥하는 여러 가지 사업으로 많은 돈을 번 인물이다. 인류가 지구에서 안고 있는 여러 문제가 해결 안 되면 화성으로 이주해서 살면 된다며 민영 우주개발에도 앞장서 온 사람이기도 하다. 인공지능 분야에서는 바로 그 챗GPT를 만들어낸 오픈AI를 공동 창업하기도 했다. 그가 만드는 테슬라 자동차도 이미 인공지능을 사용한 자동운전 기능을 어느 정도 발휘하고 있다.

이런 인물이 도대체 왜 인공지능 개발을 중단하자는 발상을 했을까? 여러 가지 좋지 않은 해석들도 있다. 우선, 머스크는 위선자라는 비판이 있다. 그는 최근 테슬라 차량에 들어있는 자동운전 인공지능에 문제가 발견되어 리콜 조치를 당했을 때는 그런 규제에 대해 반발한 바 있다. 또 인공지능 개발을 지금 정지하자는 주장은 이미 상품을 개발한 회사들만 독점적 이익을 보고 다른 곳에서는 연구에 못 뛰어들게 하려는 의도가 아닌가 생각할 수도 있다. 비유하자면, 선진국들이 자기들만 핵무기를 가지고서 다른 나라에서는 개발하지 못하게 막으려 하는 것이나 비슷하다고나 할까?

머스크 이야기는 이제 제쳐놓자. 다른 사람들이 그와 같은 개인적 이유로 성명에 서명한 것은 아니리라. 그래서 그 주장 자체의 당위성을 고려해 볼 필요가 있는데, 거기에서 주목할 만한 내용이 두 가지 있다.

첫째, 인공지능 개발은 근래에 상당히 놀라운 성과를 거두었으니 이제 이미 개발된 기술을 어떻게 하면 가장 잘 유용하고 부작용 없이 써먹을 수 있을까부터 찬찬히 궁리해 보자는 주장이다. 색다른 관점인데, 충분히 일리가 있다. 생각해 보면 진짜 수준 높은 기술자는 비교적 단순한 도구를 가지고도 온갖 일을 잘해 낸다. 그 도구가 어떻게 사용될 수 있는지 속속들이 이해하고 잘 알기 때문이다. 그 반면 서툰 사람은 항상 최신 도구를 갈망하고 사들여도 실제로 해 놓는 일은 별로 없다.

또 한가지는 인공지능의 작동 원리를 우리가 깊이 이해할 필요가 있다는 지적이다. 이는 그 분야 전문가들이 이미 많이 해 온 이야기다. 근래 개발된 인공지능의 특징은 인공지능이 정확히 어떻게 해서 놀라운 지식을 얻고 솜씨를 익혀가는지 그 기술을 설계한 사람들조차 잘 이해하지 못한다는 점이다.

간단한 예를 들자면, 이세돌을 격파한 알파고를 만든 사람들은 바둑의 명인들이 아니었다. 그들은 절대 이세돌과 바둑을 두어 이기지 못할 것이다. 기가 막힌 바둑 실력은 알파고가 알아서 배워 익힌 것이고, 그 발명가들은 이를 배울 수 있는 틀을 짜 주었을 뿐이다. 말하자면 훌륭한 제자가 스승을 뛰어넘는 일에 비유할 수 있는데, 이 제자가 어떻게 해서 그리 훌륭하게 되었는지 스승은 정확히 이해하지 못하는 격이다. 그런데 발명가 자신도 이해하지 못하는 건 단순한 기술이라고 할 수 없다. 이해 안 되는 작동 원리는 제어할 수 없는 프랑켄슈타인이 될 위험성이 크다.

이번 성명서의 서두에는 ‘아실로마(Asilomar) 인공지능 원칙’이 언급됐다. 인공지능 발전은 지구 생명의 역사 자체에 근본적 변화를 초래할 수 있으므로, 적절한 자원을 들여 조심스럽게 계획하고 관리해야 한다는 내용의 원칙들이다. 2017년 미국 캘리포니아주 아실로마라는 곳에서 인공지능의 장래를 우려하는 뜻있는 인물들이 토의하여 합의한 원칙이다. 아실로마는 1975년 유전공학의 파급력을 우려하는 생물학자들이 모여 토의한 후 DNA 합성 기술의 개발을 자진해서 삼가도록 합의했던 곳이다. 인공지능 원칙 선언 장소를 아실로마로 정한 것은 그런 의미를 상기한 때문이리라. 생물학자들의 뜻대로 일이 진행되지는 않았지만 그 선언은 많은 각성을 일으켰고, 유전공학이 전혀 걷잡을 수 없는 방향으로 발전하지 않도록 하는 데 좋은 영향을 미쳤다. 인공지능 성명도 그런 씨앗이 되어주기를 바란다.

장하석 케임브리지대 석좌교수·과학철학