ADVERTISEMENT

[트랜D]인공지능(AI)이 '라떼'를 읊는다면….

중앙일보

입력

업데이트

트랜D

트랜D’ 외 더 많은 상품도 함께 구독해보세요.

도 함께 구독하시겠어요?

송년회 시즌이 다가왔다. 코로나19 확산 이후 처음 맞이하는 송년의 밤들이 어떤 모양새를 띠게 될지는 아직 아무도 모른다. 그런데도, 여전히 조직 내 송년회가 지닌 숱한 이미지는 ‘라떼’와 절대 무관하지 않을 것이다. '라떼'는 이른바 '꼰대'들의 말버릇인 "나 때는 말이야~"를 유머러스하게 표현한 것이다.

학습 메커니즘은 ‘과거의 경험’으로부터

세상 신기술은 다 끌어모은 듯한 인공지능도, 잘 들여다보면 ‘라떼(나 때)는 말이야’ 와 꽤 가깝다. 기본적으로 과거의 것을 분석해(데이터) 그 경험을 기반으로(트레이닝) 의견을 내놓는다. 여기까지는 사람과 비슷하다. 기계는 여기서 조금 더 나아간다. 자기 확신을 종종 수치(정확도 등)로 환산하고 주장의 근거 또한 조목조목 제시한다(섀플리 밸류 등). “내가 과거 데이터를 열심히 파 봤는데 말이야. 네가 지금 내린 결정은 영 옳지 않단 말이야. 난 나 자신에게 70%의 확신을 하고 있는데 말이야. 옳지 않다고 한 근거 중 가장 중요한 변수는 네 성급한 성미라고 생각한단 말이야”라는 식으로 말이다. 그래서인지 인간 꼰대의 말은 안 들어도 인공지능의 말은 어쩐지 귀담아듣게 된다.

이때 듣는 이를 사로잡는 것이 알고리즘의 정확도에 대한 것이다. 인공지능이 스스로 70%라고 답한 정확도는 경우에 따라 각기 다른 신뢰도를 지니게 된다. 로또 복권의 숫자를 알아맞힐 확률이 70%라면 비교적 알고리즘의 의견을 따를 것이다. 그러나 병원에서 쓰는 알고리즘이 환자의 암 양성 확률을 70%의 확신으로 말한다면 이는 곧장 쓰기에 어려울 것이다. 큰돈을 굴리는 자산 관리사들도 마찬가지다. 7할 남짓한 정확도에 함부로 베팅할 수 없다. 70은 누군가에겐 큰 수이고 누군가에겐 작은 수다.

“찍는 거라도, 그래도 75%는 넘어야 하지 않을까요?”

필자도 지난 겨울 이와 관련한 한 가지 모의 테스트를 진행한 적이 있다. AI에 대해 어렴풋이 아는 일반인을 대상으로 로또처럼 사실상 ‘찍는’ 이슈에 대해 실험 참가자에게 정답을 맞혀 보도록 했다. 이후 전혀 다른 답을 제시하는 알고리즘의 결정을 보여주고 그가 자신의 선택을 바꾸는지 아닌지를 확인하는 실험이다. 이때 사람에 따라 각기 다른 수치의 알고리즘 정확도(53%, 67%, 78%, 85%)가 제시됐다. 테스트 참여자 수가 스무 명에 불과해 통계적으로 아주 유의하다고 볼 수는 없지만 생각보다 사람들은 자신의 확신과 관계없이 알고리즘의 정확도의 수치에 꽤 의존적인 경향을 보였다. 자신의 확신 정도는 대략 100점 만점에 70점 정도로 평가하는 반면 알고리즘에 대해선 적어도 75%는 돼야 답변을 바꿀 수 있다고도 했다.

사람들이 숫자에 압도돼 자신의 결정을 의심한다는 코멘트들은 무척 흥미로웠다. 85% 정확도의 알고리즘 결정을 본 한 참가자는 “많은 고민 끝에 마지못해 바꾸었다. 정확도가 그 정도면 내가 놓친 정보를 더 잘 활용했을 것 같은 느낌이 든다”고 했다. 자신의 판단 근거가 예측 지표로는 적절치 않았던 것 같다며 답을 고친 실험 참가자도 있었다. 기껏 53%의 정확도에도 “(인공지능 결정의 배경이 된) 축적된 데이터의 힘을 믿는다”며 답을 고친 이도 있었다. 결정을 바꾸지 않은 사람들은 “인간의 감을 믿는다”라거나 “알고리즘의 정확도가 내 확신보다 낮다”고 했다. 인공지능에 대한 신뢰도 정도를 확인하는 데는 꽤 유효한 파일럿 테스트였으나 이 결과가 학술적으로 발행된 것은 아님을 밝힌다.

이처럼 알고리즘에 대한 사람의 믿음과 인식이 실제 쓰임에서 매우 중요한 역할을 하는 만큼 관련 연구 또한 활발하게 이뤄지고 있다. 그중 많은 연구자가 참조하는 미국 텍사스대학교 이민경 교수의 2018년 논문에서는 작업의 특성(인간이 잘하는 일과 기계가 잘하는 일)에 따라 알고리즘의 역할에 대한 사람의 지각에도 차이가 난다는 점이 제시됐다(Lee, 2018). 예를 들어 작업 분배나 일정 짜기처럼 기계적인 스킬이 필요한 경우에 대해선 사람이 선택하든 기계가 결정을 내리든 공정성과 믿음, 감정적 측면에서 비슷한 모습이 나타났다. 하지만 고용이나 성과 평가같이 사람의 기술이 필요한 일들에 대해선, 알고리즘의 결정에 대한 믿음이나 공정성이 사람의 결정에 비해 다소 떨어지는 것으로 나타났다고 한다. 사람의 직관 같은 걸 인공지능은 따라오기 힘들 것이란 결과였다.

‘롤모델’이 되면, 그의 말은 어쩐지 지혜로 들린다

알고리즘은 연구자들의 수많은 탐구를 기반으로 더 나은 맞춤형 신뢰도를 확보하게 될 것이다. 그리고 그것이 권위와 믿음을 지니는 순간 ‘꼰대’ 같던 알고리즘은 ‘롤모델’이 된다. 업계의 권위자들 말씀이 ‘라떼’에서 ‘지혜’로 진화하듯 말이다.

그런데 이렇게 믿음직한 알고리즘과 인간이 어우러지는 순간은 엄청난 격변을 일으키며 오지는 않는다. 넷플릭스 오리지널 다큐멘터리 〈소셜 딜레마〉에서 소셜 플랫폼의 습관화를 묘사했던 것처럼 말이다. 사람들 안에 깊숙이 스며들어 알게 모르게 점진적으로 사람의 의식을 바꿀 것이다. 갈수록 사람은 더 기계 결정에 맞게 생각하고, 그에 맞춰 결론을 내리게 될 것이다. 〈소셜 딜레마〉에서 경계하는 것이 이러한 지점이다. 사람이 사라지고 기계의 판단만 남는 것. 그리고 그 판단은 철저히 알고리즘의 주인인 다국적 기업의 이익과 연계되었다는 점이다.

희망이 있다면 사람들은 아무리 롤모델의 말씀이라 할지라도 한 번 더 내 입장에서 생각해보는 성찰적 존재라는 것이다. 알고리즘이 롤모델로 진화해도 그의 뜻을 지혜로 만드느냐 마느냐는 결국 받아들이는 사람의 몫이다. 사람에게는 알고리즘의 옳고 그름을 판단할 능력이 충분히 있다.

유재연 객원기자는 중앙일보와 JTBC 기자로 일했고, 이후 서울대 융합과학기술대학원에서 박사과정을 수료했다. 이미지 빅데이터분석, 로봇저널리즘, 감성 컴퓨팅을 활용한 미디어 분석에 관심이 많다. 현재 서울대 융합과학기술대학원 연구원으로 활동하고 있다.

관련기사

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT