[더오래]걸음마하는 아기에 윤리적 잣대…AI 챗봇 논란 유감

중앙일보

입력 2021.01.14 11:00

[더,오래] 김현호의 특허로 은퇴준비(29)

최근 인공 지능 챗봇에 대한 논란이 뜨겁다. 문제의 발단은 스무살 여대생 컨셉의 챗봇을 성희롱하는 듯한 일부 사용자의 대화 내용이었다. 이후 또 다른 대화 중 이 챗봇이 장애인이나 성 소수자를 혐오하는 발언을 내뱉으면서 문제는 더욱 불거지게 되었다.

논란이 심각해진 이유는 대중에게 아직 인공 지능에 대한 개념이 명확하지 않기 때문으로 보인다. 당연한 말이지만 이 챗봇은 스무살 여대생이 아니라 스무살 여대생의 대화를 흉내 내는 프로그램일 뿐이다.

인공 지능의 부적절한 이용은 사용자의 윤리적 문제일 뿐 인공 지능의 문제는 아니며, 인공 지능이 혐오 발언을 내뱉은 것은 데이터 학습의 의도치 않은 결과다. [사진 pixabay]

인공 지능의 부적절한 이용은 사용자의 윤리적 문제일 뿐 인공 지능의 문제는 아니며, 인공 지능이 혐오 발언을 내뱉은 것은 데이터 학습의 의도치 않은 결과다. [사진 pixabay]

일부 사용자는 스무살 여대생을 성희롱한 것이 아니라 스무살 여대생 컨셉의 ‘챗봇’에 문제 되는 텍스트를 입력한 것이고, 혐오 발언을 내뱉은 것은 스무살 여대생이 아니라 아직 미완성 상태의 자동 대화 프로그램이라고 옹호론을 폈다.

인공 지능의 부적절한 이용에 따른 문제는 사용자의 윤리적 문제일 뿐이지 인공 지능의 문제는 아니며, 인공 지능이 혐오 발언을 내뱉은 것은 데이터 학습의 의도치 않은 결과일 뿐이다.

한발 더 나아가 인공 지능의 학습 과정에 사용된 대화 데이터를 통한 개인 정보 유출의 문제도 제기되고 있다고 한다. 빅데이터 사용을 위해 데이터 생산자의 개별 동의가 필요하다면 그렇게 모여진 데이터가 과연 인공 지능의 학습에 충분한 정도의 ‘빅’ 데이터가 될 수 있을까?

사람이 아닌 인공 지능에 사람과 같은 윤리적 잣대를 들이밀어서는 안 된다. [사진 unsplash]

사람이 아닌 인공 지능에 사람과 같은 윤리적 잣대를 들이밀어서는 안 된다. [사진 unsplash]

인공 지능 챗봇이 불러온 이러한 다양한 문제점에 대해 현행 특허 제도는 어떠한 태도를 취하고 있을까? 기술 발전을 통한 산업 발전을 목적으로 하는 특허 제도는 발명에 수반되는 불이익을 기본적으로 문제 삼지 않는다. 즉, 발명에 수반되는 불이익이 있다고 하더라도 특허를 받을 수 있다.

신기술은 의도하는 작용에 수반되는 부작용을 태생적으로 갖기 마련이므로 그와 같은 부작용이 발명이 주는 이익을 압도하지 않는다면 특허로 보호함으로써 신기술 개발을 독려하고 있다. 그러니 이러한 특허 제도의 취지를 고려해서라도 사람이 아닌 인공 지능에 사람과 같은 윤리적 잣대를 들이밀어서는 안 된다.

설령 인공 지능이 사람이라 해도 이제 막 걸음마를 하는 단계에 있다. 걸음마를 하다가 넘어져 다치거나 주변에 피해를 준다고 해서 넘어지지 않을 때까지 걷지 못하게 하지는 않지 않는가? 불완전한 인공 지능이 불편하다면 보다 완전해질 때까지 사용하지 않으면 될 일이다.

국제특허 맥 대표 변리사 theore_creator@joongang.co.kr

관련기사

ADVERTISEMENT
ADVERTISEMENT
ADVERTISEMENT

Innovation Lab

ADVERTISEMENT