ADVERTISEMENT
오피니언 이준기의 미래를 묻다

일론 머스크는 왜 ‘사람 없는 공장’을 포기했을까

중앙일보

입력

지면보기

종합 24면

인간과 인공지능의 공존

이준기 연세대 정보대학원 교수

이준기 연세대 정보대학원 교수

여배우 앤젤리나 졸리는 2013년 선제적 유방 절제술을 했다고 고백해 또 한 번 유명세를 탔다. 앞으로 유방암에 걸릴 것을 걱정해 유방 절제술을 했다는 내용이었다. 육체적·감성적·정신적으로 아주 힘든 결정이었을 것이다. 졸리의 결정은 의사의 조언에 따른 것이 아니다. 알고리즘과 데이터에 의한 것이었다. 유전자 검사 결과 컴퓨터는 졸리가 유방암에 걸릴 확률을 87%로 예측했으며, 이에 따라 그는 큰 결정을 내렸다.

‘AI·로봇만 있는 공장’ 실패한 뒤 #인간과 함께 일하는 시스템 구축 #AI는 일자리 뺏는 대결 상대 아니라 #더 나은 세상 위해 이용하는 도구

우리는 많은 결정의 시점에 놓이게 된다. 어려운 의사 결정을 할 때 우리는 누구의 도움을 가장 필요로 할까. 중세 시대엔 ‘신이 인도하는 대로’였다. 인간은 기도를 하고 깊은 내면에서 신의 소리를 들으려 노력했다. 하지만 인간 중심의 사회가 되면서 권위는 신에게서 전문가로 옮겨 갔다. 우리는 선생님과 진로를 상의하고, 의사의 조언을 받아 수술을 할 지 말지 결정하며, 인수·합병(M&A)을 위해서는 법률가나 회계사를 찾아간다. 이것이 일반적인 현대의 모습이다.

인간의 의사결정을 대신하는 AI

인공지능(AI)은 만능이 아니다. 공장에도 AI와 로봇이 할 수 있는 일이 있고, 사람의손을 타야 하는 일(아래 사진)이 있다. 테슬라가 ‘사람 없는 완전 자동 공장’을 포기한 이유다. [AP=연합뉴스]

인공지능(AI)은 만능이 아니다. 공장에도 AI와 로봇이 할 수 있는 일이 있고, 사람의손을 타야 하는 일(아래 사진)이 있다. 테슬라가 ‘사람 없는 완전 자동 공장’을 포기한 이유다. [AP=연합뉴스]

빅데이터와 인공지능(AI)의 시대는 다른 모델을 요구하고 있다. 사실 우리가 좋아하건 싫어하건, 또는 잘 인식하지 못하고 있을 수 있지만, 요즘 의사결정의 중심은 데이터와 알고리즘으로 가고 있다. 넷플릭스는 우리가 어떤 영화를 볼 것인가를 알려준다. 음원사이트는 내가 무슨 음악을 들으면 좋은지 가려낸다. 운전하면서는 내비게이션이 시키는 대로 따라간다. 기업의 채용 과정도 최소한 1차 심사는 인공지능으로 대체하기 시작했다. 은행 대출도 많은 경우 알고리즘에 의해 결정하는 추세다. 주식 투자의 70~80%는 알고리즘이 담당하고 있다. 미국의 데이팅 웹사이트들은 당신의 이력과 당신의 SNS 활동 등을 고려해 파트너를 추천한다. 앞으로는 직업·전공 선택, 그리고 누구와 결혼할 것인가 등의 문제에 대해, 컴퓨터 알고리즘의 도움을 차츰 더 많이 받을 것이다.

컴퓨터는 가장 최근의 연구 결과를 습득하고, 인간이 도저히 상상할 수 없는 정보를 순식간에 분석해 우리에게 최적의 의사결정 조언을 한다. 이런 인공지능 알고리즘 의사결정을 기업에서는 점점 보편적으로 사용하고 있다. 우리는 이것을 ‘인공지능을 통한 자동화’라 부른다. 기업은 인력을 대체하고, 비용을 절감하며, 생산 효율성을 높이는 방식을 적극적으로 도입하고 있다. 인공지능이 우리의 일자리를 빼앗아 갈 것이라는 걱정은 이러한 트렌드에 기인한 것일 것이다. 이에 대해 여러 가지 논의가 진행되고 있지만, 앞으로 가장 중요해질 것은 단순한 ‘일자리 대체’보다 ‘인간 + 인공지능’의 의사결정 프로세스를 어떻게 재정립할 것인가 하는 문제다.

인공지능(AI)은 만능이 아니다. 공장에도 AI와 로봇이 할 수 있는 일(위 사진)이 있고, 사람의 손을 타야 하는 일이 있다. 테슬라가 ‘사람 없는 완전 자동 공장’을 포기한 이유다. [중앙포토]

인공지능(AI)은 만능이 아니다. 공장에도 AI와 로봇이 할 수 있는 일(위 사진)이 있고, 사람의 손을 타야 하는 일이 있다. 테슬라가 ‘사람 없는 완전 자동 공장’을 포기한 이유다. [중앙포토]

일론 머스크는 경영 능력과 비전에서 일반인의 상식을 훨씬 뛰어넘어 ‘외계인’이라고까지 불린다. 그는 완전히 사람이 없는 인공지능 기반 공정으로 테슬라 전기차를 만들려고 엄청난 노력을 쏟았다. 하지만 그는 인공지능과 로봇을 이용해 완전 자동화 생산 공정을 실행하려던 계획이 실패했음을 시인하게 된다. 그 후 그는 커다란 텐트 공장을 만들고 옆에서 숙식하며 새로운 프로세스를 총 진두지휘했다. 그래서 만든 것이 인간과 인공지능이 어우러진 새로운 협업 공정이다. 그는 이 텐트 공장에서 인간과 로봇이 해야 하는 일을 다양하게 실험했다. 이를 통해 어떤 프로세스를 완전 자동화하고, 어떤 프로세스에는 인간이 개입해야 하는지를 결정해 새로운 시스템을 완성했다. 결과는 ‘인간 + 인공지능’이라는 공존이다.

제프 베저스의 아마존도 거의 완벽한 물류자동화 시스템을 완성했지만, 여기에서 25만 명의 인간이 같이 일하고 있다는 것을 아는가?

IBM의 인공지능 ‘왓슨(Watson)’을 도입한 병원에서는 환자들이 왓슨의 진단 결과를 얼마만큼 신뢰할까. 사실 우리가 알고 싶은 것은 ‘인간과 왓슨의 결과가 다른 경우 누구를 따라야 할 것인가’하는 자극적 질문이다. 하지만 이는 좋은 질문이 아니다. 인공지능은 대결 상대가 아니라 이용 대상이다. 우리의 목표는 인공지능을 이용해 인간에게 더 나은 최적의 시스템을 만들어 나가는 것이다. 인공지능의 진단시스템이 의사를 대신해 암 진단을 내려 주겠지만, 의사들은 이 결과를 최종 판단하고, 얼마나 심각한지 살펴보고, 치료 계획을 세우고, 추가 검사가 필요한지 결정해야 한다.

일론 머스크

일론 머스크

‘인간 + 인공지능’의 세상에서 필요한 게 몇 가지 있다. 첫째는 인공지능이 내놓은 결과를 어느 선에서 신뢰할지에 대한 이해다. 그대로 따를 것인가, 아니면 결과를 전문가가 자료로 활용할 것인가다. 인간과 함께 일하려면, 아예 인공지능 모델을 만드는 단계에서 설명 능력까지 갖추게 해야 한다. 예를 들어 암을 진단할 때 영상의 어느 부분이 인공지능으로 하여금 이런 판단을 하게 했는지 의사에게 보여줄 수 있어야 한다.

둘째, 인공지능에 어떤 특정 업무를 맡기는 게 좋은지를 이해해야 한다. 채용에 인공지능을 이용한다고 해서 서류심사부터 면접, 그리고 최종 결정까지 전체를 인공지능에 맡길 수는 없다. 상식과 인간의 종합적 판단이 들어가는 부분은 인간이 하고, 특정 분석은 인공지능이 하는 식의 역할 조정이 필요하다.

AI의 장·단점 파악하는 능력이 필요

인간과 AI가 협업하는 테슬라의 캘리포니아주 텐트형 공장 모습. [유튜브 캡처]

인간과 AI가 협업하는 테슬라의 캘리포니아주 텐트형 공장 모습. [유튜브 캡처]

인공지능과 더불어 지내야 하는 시대에 진정으로 우리가 걱정해야 하는 것은 일자리 상실이 아니다. 개인의 역할 변화와 그에 따른 새로운 교육, 그리고 기업의 새 프로세스 재조절 능력이다. 개인에게도 인공지능의 결정을 이해하는 것은 아주 중요하다. 앤젤리나 졸리가 데이터에 의한 선제수술을 결정한 근간은 단순한 용기가 아니라 얼마나 데이터를 신뢰할 것인가 하는 판단, 그리고 제공된 결과에 대한 이해였을 것이다. ‘인간 + 인공지능’시대의 교육 또한 이런 부분에 초점을 맞춰야 한다. 인공지능을 자신에 맞게 디자인할 수 있고, 인간과 인공지능의 장점과 부족한 점을 이해하며, 본인의 능력을 인공지능을 통해 강화할 수 있는 역량을 키우는 게 새 시대에 걸맞은 교육이다.

똑똑한 인공지능 감별법

로봇

로봇

인공지능(AI)을 활용하려면 인공지능이 판단한 결과의 신뢰도를 이해하는 게 중요하다. 여기 인스타그램 사진만 보고 20대인지 아닌지를 판단하는 인공지능 시스템이 있다고 가정하자. 시험해 보니 1000명 중 실제 20대를 20대로 판단하는 경우가 800건, 20대였지만 아니라고 한 게 100건, 20대가 아님을 정확히 맞춘 게 50건, 그리고 20대가 아닌데도 20대라고 한 게 50건이었다. 이 시스템의 정확도는 얼마일까?

맞춘 경우가 총 850건이다. 20대를 20대라고 한 게 800건, 20대가 아닌데 아니라고 한 게 50건이다. 1000개 중의 850개를 맞췄으니(틀린 경우는 150건) 정확도는 85%다. 그렇다면 쓸만한 시스템인가? 얼핏 그렇다고 할 수 있겠지만, 답은 ‘아니다’이다. 왜냐하면 무조건 ‘20대’라고만 해도 맞출 확률이 90%이기 때문이다(1000명 중 900명이 20대다). 이 시스템의 문제점은 전체 20대를 20대로 알아보는 확률(민감도)은 88.9%(900명 중 800명)인 반면, 20대가 아닌 것을 맞출 확률(특이도)은 50%로 떨어진다는 데 있다.

인공지능 시스템을 만들 때 맞는 것을 맞다고 맞추는 능력(민감도)과 아닌 것을 아니라고 짚어내는 능력(특이도), 둘 다 높으면 좋을 것이다. 하지만 보통의 경우 이 둘은 상보적이다. 예를 들어 신종 코로나바이러스 감염증(코로나19)에 걸렸는지 진단하는 인공지능 시스템을 생각해 보자. 시스템 A는 어느 정도 확률이 나오면 코로나라고 판단하고, 시스템 B는 정말 확실한 경우만 코로나라고 한다. A의 경우 실제 환자를 놓치는 경우가 거의 없겠지만(민감도 높음), 환자가 아닌데 환자라고 판단할 확률도 덩달아 커진다(특이도 낮음). 물론 B는 그 반대다.

이 중에 어떤 시스템을 만들지는 각각의 비용과 오진의 위험을 고려해 결정해야 할 것이다. 문제는 자료를 활용하는 의사다. 인공지능 시스템 A와 B의 특성을 모르면 의사가 오판할 수 있다. 따라서 의사는 인공지능이 어느 방향으로 디자인됐는지를 살펴야 한다. 아니, 디자인 방향과 진단 논리를 의사에게 설명하는 능력까지 인공지능이 갖고 있어야 한다. 이를 ‘인공지능의 설명력’이라고 부른다

이준기 연세대 정보대학원 교수