ADVERTISEMENT

‘왓슨’ 폐암 진단 정확도 18%, 자율차 사고 속출…AI 거품?

중앙선데이

입력

지면보기

654호 13면

“첫째도 AI, 둘째도 AI, 셋째도 AI.” 손정의 소프트뱅크 회장은 지난 7월 4일 문재인 대통령을 만난 자리에서 앞으로 인공지능(AI) 개발에 집중해야 한다고 거듭 강조했다. AI가 미래로 가는 열쇠이며, 국가경쟁력을 좌우할 수 있다고 했다. 실제로 미국과 중국은 수조원 규모의 투자를 단행하며 AI 관련 특허 경쟁을 벌이고 있다. 정보통신기술(ICT) 기업을 중심으로 산업계에서도 AI 서비스가 빠르게 확산하고 있다. 사용자의 검색 수고를 덜어주는 추천 서비스가 대표적이다. 다만 현재 도입된 AI 서비스는 사용자의 의도 대로 정보를 제공하거나 판단 실수를 일으키는 오류와 한계를 드러내고 있다. 특히 AI 서비스의 의도가 사용자의 행동을 좌우하는 ‘디지털 넛지’ 현상을 야기할 수 있다는 우려도 제기된다. 넛지 효과란 남성 소변기 속 파리 그림처럼 자신이 원하는 방향으로 사람들을 유도하는 방법을 뜻한다.

인공지능 한계 드러나나 #유튜브 알고리즘 정치 편향성 심해 #AI 추천 서비스 조작할 가능성도 #아마존, AI 면접 여성 차별해 종료 #머신러닝 등으로 문제 해결 나서

8월 21일 서울 광화문 프레스센터에서 한국방송학회·한국심리학회 주최로 열린 ‘유튜브와 정치 편향성, 그리고 저널리즘의 위기’ 세미나에서는 유튜브 사용자의 확증편향 문제를 제기했다. 시청 이력을 통해 유사한 영상을 추천하는 유튜브 알고리즘이 사용자의 정치적 편향성과 고정관념을 강화한다는 것이다.

사용자 행동 좌우 ‘디지털 넛지’ 우려

최홍규 EBS 미래연구소 연구위원은 “유튜브 이용 시간이 길수록 정치 콘텐트가 편파적이지 않고 자기 의견과 유사하다고 느끼게 된다”고 설명했다. 유튜브 알고리즘이 가짜뉴스를 수용하거나, 사실을 부정하는 심리적 기제를 유발한 셈이다. 이런 추천 알고리즘은 구조적인 문제를 안고 있다. 개인의 신체적·정신적 변화를 제대로 반영하지 않는다는 점이다. 예컨대 한 사용자가 19세 때 설정한 대학입시·게임·연애 키워드는 그가 25세, 30세가 돼도 바뀌지 않는다.

그래픽=박춘환 기자 park.choonhwan@joongang.co.kr

그래픽=박춘환 기자 park.choonhwan@joongang.co.kr

현재 대다수 AI 알고리즘이 이런 문제를 내포하고 있으며, 사용자의 나이·성별 등을 고려한 그룹별 관심사를 개인에게 적용해 보완하고 있다. AI 추천 서비스는 ‘초개인화’를 지향하지만 ‘현재’ 밖에 반영하지 못하는데, 이를 해결하기 위해 인위적 간섭을 하고 있는 것이다. 페이스북의 초기 성장을 이끈 차마스 팔리하피티야 소셜캐피털 최고경영자(CEO)는 페이스북을 두고 “도파민이 움직이는 단기 피드백의 순환고리”라며 “지구적으로 사회적 담론과 협력은 사라지고 왜곡된 정보와 거짓만 남았다”고 혹평했다. 황보현우 하나벤처스 상무는 “국내의 경우 추천 시스템을 제대로 활용할 수 있는 업체가 없다”며 “온라인 쇼핑몰 판매자가 블로그 마케팅처럼 알고리즘을 역이용해 자기가 원하는 제품을 추천 서비스의 상위로 올리는 등 조작할 가능성도 있다”고 설명했다.

서비스 사용자들이 AI 알고리즘을 왜곡해 편향된 정보를 전파할 가능성도 있다. 선거철 댓글 부대나 SNS 바이럴 마케팅처럼 거대 플랫폼에서 다수 사용자가 특정 이벤트나 콘텐트를 생산하면 AI도 이에 반응하게 된다. 유효상 서울과학종합대학원 교수는 “인간의 선택은 자극적 시청각 신호에 민감하게 반응하며 일관성이 부족한데 AI는 이런 결과를 기초 데이터로 삼는다”며 “AI는 사용자의 특성과 무관하게 공급자가 원하는 결과를 노출하는 마케팅 용도로도 왜곡될 가능성이 크다”고 지적했다. AI의 데이터 신뢰성 확보도 논란거리다. 아마존은 2014년 도입한 채용 면접 AI를 지난해 조용히 종료했다. AI가 여성 취업자를 차별하는 판단을 내린 것으로 밝혀져서다. AI는 지난 10년간 데이터 패턴을 학습했는데, 기업들이 과거 여성보다 남성을 더욱 선호했다는 점이 이런 결과로 이어졌다. KB국민은행·LG유플러스 등 AI 채용을 도입한 국내 기업들이 눈여겨볼 대목이다.

상용화에 근접한 의료·모빌리티 분야에서도 AI의 한계가 드러나고 있다. 가장 뛰어난 의료 AI로 불리는 IBM ‘왓슨’은 인도 마니팔 병원에서 85%의 의사와의 일치율로 직장암 판단을 내렸다. 그러나 폐암은 17.8%에 불과했다. 유방암의 경우 비전이성은 80% 일치했지만, 전이성은 45% 일치하는 데 그쳤다. 이 수치도 인종별로 차이가 있어 왓슨의 신뢰성에 금이 갔다. IBM은 지난해 왓슨의 암 치료 프로젝트와 신약개발을 위한 AI 플랫폼을 중단하거나 축소했다. 우버·테슬라 등 자율주행차 개발사 역시 빈번하게 인명사고를 내고 있다. 자율주행차는 다수의 라이다(LIDAR)로 주변 사물과 도로 상황을 인식해 AI가 운전하는 방식이라 얼핏 개발이 용이해 보인다. 그러나 센서가 주변 사물을 오판하거나 움직임 예측에 한계를 드러내면서 사고가 나고 있다.

특히 사고 상황에서 운전자와 보행자 중 누구를 먼저 보호하느냐와 같은 딜레마가 발생한다. 판단에 따른 법적 책임을 누가 져야 하나 등의 비기술적 문제도 해결 과제다. 이에 AI 전문가들은 보상을 극대화하는 강화학습이나 인간의 집단지성을 발휘하듯 여러 AI 알고리즘이 공통의 결론을 찾아가는 ‘앙상블(ensemble) 기법’ 등을 활용해 문제 해결에 나서고 있다.

IBM, 인공지능 암 치료 프로젝트 축소

이런 대응이 가능한 것은 여러 논란 속에도 AI 열풍이 뜨겁고 투자도 끊이지 않기 때문이다. 미국의 시장조사 전문 기관 피치북에 따르면 AI 스타트업에 대한 투자는 지난해 310억 달러(약 37조원)에 이르렀다. 런던의 MMC벤처스가 글로벌 2830개 기술 스타트업을 분석한 결과 AI 기술이 있는 스타트업은 다른 곳보다 투자금을 15~50% 더 받았다. 김호민 스파크랩 대표는 “적정성 논란을 떠나 빅데이터의 보유 여부가 기업 가치를 좌우하는 요소가 되고 있다”며 “이를 어떻게 활용하느냐가 관건”이라고 설명했다.

물론 거품 논란도 있다. 일본에서 손꼽히는 AI 연구자 마쓰오 유타카(松尾豊) 도쿄대 교수는 닛케이비즈니스에서 “많은 기업이 마케팅 목적으로 도입한 ICT 서비스를 AI로 포장해 말할 뿐”이라며 “AI에 대한 논의가 무성하지만, 내용이 없는 거품에 지나지 않으며 (거품이) 언제 꺼져도 이상하지 않다”고 비판했다.

김유경·이창균·최윤신 기자 neo3@joongang.co.kr

ADVERTISEMENT
ADVERTISEMENT