ADVERTISEMENT
오피니언 리셋 코리아

AI의 안착, 투명한 운용에 달렸다

중앙일보

입력

지면보기

종합 29면

오혜연 카이스트 전산학부 교수·리셋 코리아 자문위원

오혜연 카이스트 전산학부 교수·리셋 코리아 자문위원

미국 기업 오픈AI가 지난해 11월 내놓은 챗GPT는 대화형 인터페이스를 통해 사용자의 질문에 답하거나, 문장을 생성하는 등 인간의 언어를 잘 구사하는 모습을 보여 출시 몇 달 만에 큰 관심을 받고 있다. 이와 유사한 수준의 혁신을 보여준 딥마인드의 알파폴드(AlphaFold), 오픈AI의 달리(DALL-E 2) 같은 인공지능(AI) 기술이 지난 몇 년간 꾸준히 공개되었지만 대부분 관련 분야 사람들만 관심을 가졌었다. 구글도 바드(Bard)를 선보이고, 국내 기업들도 출시를 예고하는 등 언어모델 기반 챗봇의 인기는 당분간 식지 않을 것 같다.

챗GPT 등 챗봇은 가끔 틀린 말이나 편향된 말을 할 때도 있어 가짜뉴스 확산, 소수자에 대한 혐오 발언 등 AI 윤리에 대한 염려를 야기한다. 예를 들어 45035이 홀수인지 짝수인지 물어보면 짝수라고 하고, 한국 대통령이 누군지 물어보면 문재인이라고 답한다. (답변할 때 학습 데이터가 2021년에 그치는 한계를 인정한다) 챗GPT나 유사한 언어모델 기술이 각종 시스템에 적용되어 더 널리 확산이 되면 더 많은 사용자에게 틀린 정보를 유포하게 될 위험이 크다.

챗봇 편리하나 오남용 우려 나와
AI 가이드라인·법안·교육 만들고
사회안전과 윤리 문제 숙고해야

일러스트= 김지윤 기자 kim.jeeyoon@joongang.co.kr

일러스트= 김지윤 기자 kim.jeeyoon@joongang.co.kr

2016년 마이크로소프트 테이(Tay)가 나치 옹호 발언을 한 이후 혐오 발언에 대한 연구는 꾸준히 되어 챗GPT는 노골적 혐오 발언은 하지 않는다. 마약·살인에 관한 질문은 정보를 줄 수 없다고 회피하고, 사형제도의 합당성과 같이 논란이 있는 이슈에 대해서는 간략히 답변하고 사회 안전에 대한 보편적인 문장을 덧붙이는 등 윤리적으로 문제가 되지 않을 정도의 소극적인 답변을 한다.

챗GPT의 이러한 방어적인 필터링은 정확히 어떻게 만들었는지 공개되지 않았고, 이러한 언어모델 기술에 내재되어 있는 것은 아니다. 따라서 언어모델을 윤리적 문제에 대한 이해나 고려 없이 사용하거나, 악의를 갖고 혐오 표현을 만들어내는 용도로 사용하면 사회적으로 큰 문제를 일으킬 수 있다.

MS가 오픈AI에 투자하고 빙 검색엔진과 팀즈·워드 등의 제품에 적용한다는 뉴스는 챗GPT가 단순히 사용자들의 인공지능에 대한 호기심을 유발하는 데 그치지 않고 우리 생활에 급속히 다가왔음을 뜻한다. 하지만 우리 사회는 이런 기술의 부정적 영향을 막을 준비가 되어있지 않다.

최근 AI의 윤리적 문제에 대해 유럽연합(EU)을 비롯해 많은 국가에서 방안을 마련하고, 우리 정부도 2022년 11월 인공지능 윤리 가이드라인을 발표했지만, 역부족이다. 가이드라인을 더 구체화하고, 급속히 발전하는 기술에 지속해서 발맞춰 가는 정부 노력도 필요하지만, AI를 개발하고 제품화하는 기업도 내부적인 검증 과정과 개발자 교육, 사용자와 사회 전체 안전을 우선시하는 문화와 철학이 필요하다. 또 대학을 중심으로 한 교육 기관은 데이터 기반 AI 시대에서의 윤리적 문제에 대한 교육을 강화해야 한다.

무엇보다 아직 정확한 정의도 부족한 AI 윤리의 투명성·신뢰성·책임성 등에 대해 인공지능·법·철학·교육 등 다양한 분야의 전문가와 관련 기업인과 정부 관련 부서가 모여 토론과 연구를 더 활발히, 신속히, 신중히 해야 한다. 연구자들은 AI의 투명성을 위해 데이터시트, 모델카드 등 어떤 학습 데이터로 어떻게 학습했는지, 어떤 한계가 있는지 공개하는 프레임워크를 제시했다. 챗GPT의 답을 신뢰할 수 있는지 언어모델의 답변에 대해 참조 문헌을 같이 보여주는 것을 요구한다. 금융·의료 등에 쓰이는 AI의 경우 예측에 대한 설명을 덧붙이는 것도 가능하다. AI의 학습데이터와 생성된 글·그림에 대한 저작권은 활발히 논의되고 있다. 다만 이런 연구와 논의는 아직 시작에 불과하고, 국내에서는 특히 미흡하다.

언어모델의 적절한 활용은 긍정적인 면이 많을 것이다. 챗봇 기술이 제대로 사용되면 우리 생활에 필요한 정보를 쉽게 알려주고, 보고서를 쓸 때 매끈한 글로 정리해 주며, 사람들의 소통을 번역이나 추가 설명으로 도와줄 수 있다. 이런 기술을 빨리 받아들여야 국가와 국민 경쟁력에 촉진제가 될 수 있다. 또 세계적 연구와 논의에 우리 정부·연구자·기업이 같이 참여하는 한편, 구체적 가이드라인·법안·교육체계 등을 갖추어야 한다.

오혜연 카이스트 전산학부 교수·리셋 코리아 자문위원