인간과 인공지능의 공존
우리는 많은 결정의 시점에 놓이게 된다. 어려운 의사 결정을 할 때 우리는 누구의 도움을 가장 필요로 할까. 중세 시대엔 ‘신이 인도하는 대로’였다. 인간은 기도를 하고 깊은 내면에서 신의 소리를 들으려 노력했다. 하지만 인간 중심의 사회가 되면서 권위는 신에게서 전문가로 옮겨 갔다. 우리는 선생님과 진로를 상의하고, 의사의 조언을 받아 수술을 할 지 말지 결정하며, 인수·합병(M&A)을 위해서는 법률가나 회계사를 찾아간다. 이것이 일반적인 현대의 모습이다.
‘AI·로봇만 있는 공장’ 실패한 뒤
인간과 함께 일하는 시스템 구축
AI는 일자리 뺏는 대결 상대 아니라
더 나은 세상 위해 이용하는 도구
컴퓨터는 가장 최근의 연구 결과를 습득하고, 인간이 도저히 상상할 수 없는 정보를 순식간에 분석해 우리에게 최적의 의사결정 조언을 한다. 이런 인공지능 알고리즘 의사결정을 기업에서는 점점 보편적으로 사용하고 있다. 우리는 이것을 ‘인공지능을 통한 자동화’라 부른다. 기업은 인력을 대체하고, 비용을 절감하며, 생산 효율성을 높이는 방식을 적극적으로 도입하고 있다. 인공지능이 우리의 일자리를 빼앗아 갈 것이라는 걱정은 이러한 트렌드에 기인한 것일 것이다. 이에 대해 여러 가지 논의가 진행되고 있지만, 앞으로 가장 중요해질 것은 단순한 ‘일자리 대체’보다 ‘인간 + 인공지능’의 의사결정 프로세스를 어떻게 재정립할 것인가 하는 문제다.
제프 베저스의 아마존도 거의 완벽한 물류자동화 시스템을 완성했지만, 여기에서 25만 명의 인간이 같이 일하고 있다는 것을 아는가?
IBM의 인공지능 ‘왓슨(Watson)’을 도입한 병원에서는 환자들이 왓슨의 진단 결과를 얼마만큼 신뢰할까. 사실 우리가 알고 싶은 것은 ‘인간과 왓슨의 결과가 다른 경우 누구를 따라야 할 것인가’하는 자극적 질문이다. 하지만 이는 좋은 질문이 아니다. 인공지능은 대결 상대가 아니라 이용 대상이다. 우리의 목표는 인공지능을 이용해 인간에게 더 나은 최적의 시스템을 만들어 나가는 것이다. 인공지능의 진단시스템이 의사를 대신해 암 진단을 내려 주겠지만, 의사들은 이 결과를 최종 판단하고, 얼마나 심각한지 살펴보고, 치료 계획을 세우고, 추가 검사가 필요한지 결정해야 한다.
둘째, 인공지능에 어떤 특정 업무를 맡기는 게 좋은지를 이해해야 한다. 채용에 인공지능을 이용한다고 해서 서류심사부터 면접, 그리고 최종 결정까지 전체를 인공지능에 맡길 수는 없다. 상식과 인간의 종합적 판단이 들어가는 부분은 인간이 하고, 특정 분석은 인공지능이 하는 식의 역할 조정이 필요하다.
AI의 장·단점 파악하는 능력이 필요
똑똑한 인공지능 감별법
맞춘 경우가 총 850건이다. 20대를 20대라고 한 게 800건, 20대가 아닌데 아니라고 한 게 50건이다. 1000개 중의 850개를 맞췄으니(틀린 경우는 150건) 정확도는 85%다. 그렇다면 쓸만한 시스템인가? 얼핏 그렇다고 할 수 있겠지만, 답은 ‘아니다’이다. 왜냐하면 무조건 ‘20대’라고만 해도 맞출 확률이 90%이기 때문이다(1000명 중 900명이 20대다). 이 시스템의 문제점은 전체 20대를 20대로 알아보는 확률(민감도)은 88.9%(900명 중 800명)인 반면, 20대가 아닌 것을 맞출 확률(특이도)은 50%로 떨어진다는 데 있다.
인공지능 시스템을 만들 때 맞는 것을 맞다고 맞추는 능력(민감도)과 아닌 것을 아니라고 짚어내는 능력(특이도), 둘 다 높으면 좋을 것이다. 하지만 보통의 경우 이 둘은 상보적이다. 예를 들어 신종 코로나바이러스 감염증(코로나19)에 걸렸는지 진단하는 인공지능 시스템을 생각해 보자. 시스템 A는 어느 정도 확률이 나오면 코로나라고 판단하고, 시스템 B는 정말 확실한 경우만 코로나라고 한다. A의 경우 실제 환자를 놓치는 경우가 거의 없겠지만(민감도 높음), 환자가 아닌데 환자라고 판단할 확률도 덩달아 커진다(특이도 낮음). 물론 B는 그 반대다.
이 중에 어떤 시스템을 만들지는 각각의 비용과 오진의 위험을 고려해 결정해야 할 것이다. 문제는 자료를 활용하는 의사다. 인공지능 시스템 A와 B의 특성을 모르면 의사가 오판할 수 있다. 따라서 의사는 인공지능이 어느 방향으로 디자인됐는지를 살펴야 한다. 아니, 디자인 방향과 진단 논리를 의사에게 설명하는 능력까지 인공지능이 갖고 있어야 한다. 이를 ‘인공지능의 설명력’이라고 부른다
이준기 연세대 정보대학원 교수