ADVERTISEMENT

'챗GPT 공습' 안전망 될까…AI 윤리 분야 국가표준(KS) 첫 제정

중앙일보

입력

업데이트

챗GPT. 로이터 연합뉴스

챗GPT. 로이터 연합뉴스

#중학생 A는 친구나 가족에게 말하기 힘든 고민이나 이야기 등을 인공지능(AI) 챗봇 서비스를 통해 채팅 형태로 털어놓곤 했다. 그런데 어느 날 갑자기 챗봇 서비스가 성적 발언이나 인간 혐오 발언을 쏟아내기 시작했고, A가 말한 사생활을 노출하는 등 개인정보 유출 문제도 커졌다. 해당 서비스가 사용자의 개인정보 이용·활용 동의를 제대로 받지 않고, 데이터를 활용하는 과정에서 익명화(비식별화)가 제대로 이뤄지지 않은 탓이었다.

산업통상자원부 국가기술표준원이 14일 소개한 AI의 부작용 사례다. 최근 ‘챗GPT’로 대표되는 생성 AI 기술이 급속도로 발전하는 가운데 AI 윤리의 중요성도 점차 커지고 있다. 이에 정부는 최초의 AI 윤리 국가표준(KS)을 마련해 최소한의 안전장치를 두기로 했다.

국표원은 이날 ‘AI 윤리 점검서식 KS’를 제정했다고 밝혔다. AI 제품을 개발하고 서비스하는 과정에서 고려해야 하는 윤리적 문제를 검토할 수 있는 점검서식이나 작성사례 등을 제공하기 위한 목적이다.

생성 AI는 ‘양날의 검’으로 인식되고 있다. 풍부한 활용성에도 불구하고 가짜뉴스를 확산시킬 우려가 크기 때문이다. 최근엔 미 국방부 청사인 펜타곤에서 검은 연기가 피어오르는 사진이 온라인에서 확산되면서 금융 시장에까지 여파가 미쳤지만, 알고 보니 AI가 생성한 가짜 이미지로 드러났다. 안전장치가 없다면 비윤리적인 데이터를 학습해 인종차별적인 답변을 내놓거나 이용자들의 개인정보를 유출시킬 위험도 있다.

국표원이 마련한 KS는 이러한 생성 AI 서비스 과정에서 ▶데이터 수집 ▶데이터 전처리 ▶AI 디자인 ▶서비스 제공 시 ▶서비스 제공 후 등 단계별로 발생 가능한 윤리적 문제에 대해 스스로 점검해볼 수 있도록 구성됐다. 예를 들어 중학생 A의 사례처럼 AI 챗봇이 인종이나 개인정보, 생활 수준 등에 따른 차별적 발언을 내놓을 우려와 관련해선 ‘사람의 주관적인 선입견이 반영될 수 있는 요소를 제한하여 학습하도록 주의한다’고 개발 과정에서 사전 점검하는 방식이다. 아울러 투명성·공정성·무해성·책임성·사생활 보장성·편익성 등 10가지 윤리항목을 토대로 ▶개발자 ▶서비스 제공자 ▶사용자 등의 측면에서 점검할 수 있는 체크리스트도 마련됐다.

AI 윤리 KS는 구체적으로 ▶챗봇 ▶AI스피커 ▶헬스케어 ▶자율주행 서비스 ▶채용 ▶폐쇄회로(CC)TV ▶교육 서비스 ▶배달앱 ▶은행·카드 ▶카메라 등 10개 분야의 유스케이스(사용 사례)를 중심으로 적용될 전망이다. 국표원 관계자는 “AI 윤리 문제가 더욱 강조되고 있는 상황에서 AI 제품·서비스를 개발할 때 윤리 문제를 자체 점검할 수 있는 체크리스트 작성에 도움이 될 것으로 기대된다”고 밝혔다.

진종욱 국표원장은 “기업이 AI 윤리 문제를 어떻게 대비해야 하는지 어려움을 겪는 상황에서 윤리 표준은 민간 주도로 만들어져 기업이 자율적으로 쉽고 유용하게 활용할 수 있다는 데 의미가 크다”며 “국내 AI 산업의 신뢰성을 강화하고 기업의 글로벌 시장 진출을 도울 수 있도록 AI 국제표준화도 적극 추진해 나가겠다”고 밝혔다.

ADVERTISEMENT
ADVERTISEMENT