“엄마가 계단서 굴렀는데 왜?” 학교 못 간 이유 답한 챗GPT

중앙선데이

입력

지면보기

831호 26면

이준기의 빅데이터

빅데이터

빅데이터

인공지능(AI)을 공부하다 보면 인간이란 과연 무엇인가에 대해 다시 생각해 보게 된다. 예전에 배웠던 도구 사용 혹은 언어 사용이 인간으로 특정되는 고유한 필요조건이 아닌 것은 확실하다. 지능의 영역이 동물을 넘어서 집에 있는 로봇 청소기에까지 적용되는 요즘, 그렇다면 인간만이 다른 동물 또는 객체와 구분되는 특성은 무엇일까?

『사피엔스』 저자인 유발 하라리 교수는 상상하는 능력을 인간의 고유 능력으로 꼽았다. 그는 허구를 상상하고 공유함으로써 호모 사피엔스 종의 대규모 협업이 기능해졌고 문명을 이룰 수 있었다고 설파하고 있다. 여기서 허구의 상상이란 돈, 종교, 민족 그리고 기업 같은 것을 의미한다. 실제로 존재하지는 않는 이러한 허상에 대한 상상을 통하여 협력을 이룰 수 있었다는 것이 그의 주장이다. “원숭이에게 지금 먹는 바나나를 불쌍한 친구 원숭이를 위해 양보한다면 너는 죽어서 평생 바나나에 묻혀 행복하게 살 수 있을 것이다”라고 아무리 말해도 양보하는 원숭이는 한 마리도 없겠지만  인간은 그렇게 할 수 있다는 조롱인지 통찰인지를 그의 책에서 볼 수 있다.

3개월 만에 전 세계 1억명 사용

챗GPT의 열풍이 매우 뜨겁다. 여태껏 지구상에 나온 서비스 중 이렇게 단시간만에 관심을 받으며 많이 사용된 서비스는 없었다. 불과 3개월도 되지 않아 1억 명 이상이 사용하고 있으니 그 위세가 대단하다. 이 인공지능 시스템의 진짜 위력은 많은 사람이 그냥 재미로 사용해 보는 데 그치는 것이 아니라, 벌써 30% 이상의 사용자가 업무에 적용하고 있다는 데에 있다. 여기저기서 사용하면서 ‘와우’ 하는 탄성이 나오는 한편 ‘거짓말을 한다’ 혹은 ‘틀린 정보를 내뱉는다’는 우려의 시선도 많다. 물론 앞으로 이 서비스가 보이스피싱, 해킹 등에 적용될 수 있다는 가능성과 더불어 인공지능이 인간을 대체할 것인지 혹은 정복할 것인지, 또는 미래에 어떤 직업이 살아남을 것인지 등 다양한 질문들이 단골 메뉴로 등장하고 있다.

인공지능이 발달하면서 인간은 지능을 갖고 있는 것을 어떻게 평가할 것인가에 대한 여러 가지 방법들을 고안해 놓았다. 하지만 우리는 지능을 평가한다는 것이 무슨 의미인지 정확하게 알지는 못하다. 예를 들어 지능 평가로 가장 많이 알려진 튜링 테스트의 경우 분리된 다른 방에 인공지능을 가져다 놓고 대화하면서 인간인지 아닌지 인간이 판단하는 방식이다. 현재 우리가 평가하는 방식은 ‘지능’을 가지고 있는지 여부에 대한 평가이기보다는 얼마나 인간과 비슷하게 표현할 수 있는가를 판단하는 방식이다. 그럴싸하게 말을 하면 인공지능으로서 통과시켜 준다는 말이다. 하지만 일단 지능을 ‘인간과 비슷한’으로 대체하더라도 이 테스트는 지능을 판단하는 데에는 분명히 문제가 있다. 챗GPT는 분명 그럴듯하게 인간처럼 언어를 구사하고 있다. 최근 기사를 보면 챗GPT는 튜링 테스트를 통과했다고 한다. 그럴듯한 말을 한다고 해서 문맥을 이해하고 있다고 말할 수는 없다. 그럴듯한 말을 하는 것과 생각하는 것은 분명히 구분되는 의미이다. 튜링의 테스트에는 또 다른 중요한 문제가 있는데, 그것은 철학자 셜이 제안한 ‘중국방’의 문제이다. 셜은 분리된 방에 중국말을 전혀 모르는 사람에게 중국어로 된 질문과 답변의 쪽지를 동시에 넣어 준 후 중국말로 쓰인 쪽지로 질문하면 답을 하는 철학적 사고의 실험을 고안했다. 이 실험은 방에 고립된 사람이 중국말을 하나도 모르지만 질문 쪽지를 받으면 자신이 갖고 있는 쪽지 데이터베이스에서 동일한 질문 쪽지를 패턴으로 찾아내고 그 질문에 대응하는 답변 쪽지를 찾아서 질문한 사람에게 보여 주는 방식이다. 즉 밖에서 질문하는 사람은 자신의 중국말 질문에 대해 방에 있는 사람은 척척 대답하는 것처럼 보이지만 사실 방 안에 있는 사람은 전혀 중국말을 하지 못하는 상태이다.

보이스피싱·해킹에 적용 우려도

출판계도 인공지능 챗GPT 바람이 거세다. 서울 시내 대형서점에 진열된 관련 도서. [뉴시스]

출판계도 인공지능 챗GPT 바람이 거세다. 서울 시내 대형서점에 진열된 관련 도서. [뉴시스]

수학적 계산에 의해서 가장 높은 확률로 나오는 다음 단어들을 추정하여 문장을 만들어서 문제의 답을 보여 주는 지금의 방식에 대한 평가는 셜이 제안한 중국방의 문제와 매우 유사하다. 공식적으로 이것에 대한 테스트는 아직 진행되었다고 볼 수는 없지만, 최소한 챗GPT는 지금까지 지구상에 존재하는 공개된 거의 모든 문서에서 문자 내의 단어 간의 연계를 학습하여, 문맥을 어느 정도 파악하고 있는 것으로 보인다. 필자가 인공지능 책을 쓰면서 인공지능이 “어머니가 계단에서 굴러떨어지셔서 오늘 학교에 갈 수 없습니다”라는 문장에 대하여 쓴 적이 있다. 이 심각하면서 단순한 말은, 6세 유아는 쉽게 이해하지만, 상식이 없는 인공지능에는 나에게 어머니의 의미, 굴러떨어졌을 때의 결과, 그리고 그것에서 야기되는 내가 학교에 갈 수 없는 이유에 대해서는 이해가 쉽지는 않은 문장이다. 하지만 챗GPT는 내가 왜 이 학생은 오늘 학교에 올 수 없는가를 질문했을 때 ‘학생의 어머니가 사고를 당해 다른 사람의 도움이 필요한 상황이라 학생이 학교에 출석하지 못한 것으로 이해할 수 있습니다’라고 답했다. 이러한 점으로 볼 때, 기존 문서의 학습을 통해 우리가 말하는 ‘상식’이라는 것을 어느 정도 갖춘 것으로 볼 수 있다.

지금까지의 인공지능은 판별 인공지능이었다. 암인지, 고객이 대출금을 제때 반환할지, 3개월 안에 직장을 떠날 사람인지 등을 판별하는 방식이다. 하지만 지금의 챗GPT는 생성 방식이다. 기존의 구조를 학습한 후 그 구조에 맞는 새로운 디자인을 내어놓는 방식이다. 예를 들어 사람의 얼굴이라는 구조를 학습한 후 조건에 따라 다른 얼굴을 만들어 내는 방식이다. 어느 면에서 생성 인공지능은 인간이 처음 접하게 되는 인공지능의 방식이다. 우리가 이 시스템에 열광하는 이유는 기존의 데이터 안에서 존재하는 정보나 패턴을 통계적으로 인식하는 것이 아니라 다양한 확률적 조합을 통해 처음으로 없던 디자인을 새롭게 생성해 낸다는 데에 있다. 예를 들어 네이버나 구글의 검색은 있는 정보를 찾아주는 것이지만 생성 AI는 새로운 문장이나 해답을 제시하는 것이다. 하라리 교수가 말했던 인간의 고유 조건인 ‘상상’을 최초로 구현했다고도 볼 수 있다. 따라서 지금까지 판별 인공지능을 평가하기 위해서 사용됐던 정확성에 대한 측정도구는 생성 인공지능의 평가를 위해서는 새로운 방법으로 대체돼야 한다.

인공지능은 지금까지의 발전으로 마침내 사람처럼 말하고, 아직은 제한적이지만 문맥을 이해하며 상상을 구현하는 인공지능으로 발전했다. 이 인공지능은 이제 새롭게 출발했지만 엄청난 잠재력을 갖고 있다. 패션이나 사물의 디자인에 있어 새로운 디자인을 제안할 수 있고 단백질 구조나 사회 시스템에 대한 시뮬레이션이 가능하며 교육에서도 새로운 문제 유형을 만들어 낼 수도 있다. 또한 새롭게 개발된 약품의 실험에서 필요한 가상의 환자 데이터를 만들 수도 있다.

이 새로운 인공지능이 결정적으로 인간과의 차이가 나는 것은 목적성에 대한 인식이다. 우리의 상상력은 내일 발표를 잘하기 위한 상상, 불안에서 벗어나기 위한 종교적 상상, 미적 특성이 두드러지면서도 안정성이 담보되는 새로운 자동차를 디자인하기 위한 상상 등 목적성과 연계가 돼 있다. 하지만 아직 우리는 이러한 목적성에 관련된 의식의 구현에 관한 인공지능 연구에는 한 발짝도 나아가지 못하고 있다. 생성 인공지능은 우리에게 다양한 옵션을 제공해 줄 수 있다. 따라서 인간은 본인의 목적성에 맞춰 인공지능이 제안한 여러 옵션 중의 선택권을 갖게 됐다. 이것은 생산성 측면에서 인간에게 엄청난 혜택을 가져다줄 것이 분명하다. 물론 목적성은 인간의 의지에 따라 다른 방향으로 움직일 수도 있지만 말이다.

이준기 연세대 정보대학원 교수. 서울대에서 계산통계학과를 졸업 후, 카네기멜론대 사회심리학 석사, 남가주대 경영학 박사를 받았다. 국가 공공데이터 전략위원회에서 국무총리와 함께 민간 공동위원장을 맡고 있으며  『AI 로 경영하라』 『오픈콜라보레이션』 『웹2.0과 비즈니스 전략』 등을 펴냈다.

ADVERTISEMENT
ADVERTISEMENT