[팩플] ‘AI가 역사 왜곡?’…구글 제미나이 AI 이미지 기능 중단

중앙일보

입력

구글이 자사 생성 AI모델인 제미나이(Gemini)의 이미지 생성 기능을 일시 중단했다. 인물 이미지를 만드는 과정에서 실제 역사와는 거리가 먼 인물 이미지를 생성하는 등 여러 오류가 발견돼서다. 구글 측은 관련 문제를 인정하고 빠르게 개선하겠다고 밝혔다.

무슨 일이야  

구글 제미나이가 답한 1943년 독일군 이미지. 사진 X(옛 트위터) 캡쳐

구글 제미나이가 답한 1943년 독일군 이미지. 사진 X(옛 트위터) 캡쳐

구글은 21일(현지시간) X(옛 트위터)를 통해 “제미나이가 일부 역사적 이미지를 생성하는 과정에서 부정확한 이미지를 제공하고 있다는 사실을 알게 됐다”며 서비스를 일시 중단한다고 밝혔다. 지난 1일 제미나이를 발표한 지 20일 만이다. 제미나이는 텍스트·이미지·음성 등을 생성하는 멀티모달 기반 AI 모델이다.

뉴욕타임스(NYT) 등 외신에 따르면 제미나이는 ‘1943년 독일군’을 그리라는 프롬프트(명령어)에 백인 남성의 이미지 대신 동양인 여성, 흑인 남성 이미지를 만들어냈다. 바이킹족 이미지를 요청했을 때 흑인 이미지가 나타나는 경우도 있었다. 역사적 맥락이 전혀 고려되지 않은 이미지인 것이다. 네티즌들은 구글이 서비스 중단을 밝힌 X 게시글에 댓글로 자신이 경험한 제미나이의 오류 사례를 공유하며 “제미나이가 역사적 맥락을 무시하고 다양성만 지나치게 고려하고 있다”고 비난했다.

잭 크로치크 구글 제미나이 제품 책임자는 “이미지 생성 기능이 모든 상황에 들어맞는 것은 아니고, 특히 역사적 맥락을 고려해야 하는 이미지 생성은 더 복잡하다”고 인정하면서 “앞으로 이 기능을 더욱 발전시켜 다양한 상황에 맞추도록 노력할 것”이라고 말했다.

왜 중요해  

오픈AI의 챗GPT 대항마로 야심차게 제미나이를 출시한 구글은 또 한 번 시험대에 올랐다. 구글은 1년 전에도 AI 챗봇 ‘바드’ 출시 후 해당 기능을 시연하다가 바드가 사실과 다른 오답을 내놔 곤욕을 치른 바 있다. 지금은 오답 논란에 소위 ‘지나친 다양성’ 논란까지 얽혀 들어갔다.

연합뉴스=로이터

연합뉴스=로이터

구글 측은 “제미나이의 목표는 이상적인 인구통계학적 분류를 지정하는 게 아니라 다양성을 극대화하는 것이다”라면서도 “다양성에 대한 지침이 오히려 과잉 보정을 초래할 수 있다”고 설명했다. 이번 논란이 특정 성향의 네티즌들 사이에서 더 확산되고 있다는 주장도 있다. 미국 IT 매체 더버지는 “네티즌들은 구글이 AI 이미지를 생성할 때 백인 노출을 지나치게 피하고 있다고 지적하는데, 이런 주장은 주로 우익 성향의 계정에서 확산되고 있다"고 전했다.

더 알아야 할 것  

다양성과 관련한 논란을 구글이 처음 겪는 것은 아니다. 2015년 구글 포토는 두 흑인의 사진에 고릴라라는 꼬리표를 붙여 문제가 됐다. 당시 구글 포토는 동물 자체를 포함해 고릴라·원숭이 등 유인원 이미지로 분류할 수 있는 포토 앱의 기능을 종료했다. NYT는 당시 논란을 지적하며 “구글이 이용자들이 불쾌하다고 생각할 수 있는 기술의 산출물을 줄이려고 노력하는 팀들을 구성하는데 수년을 보냈다”면서 ”이제 소셜 미디어 사용자들은 이 회사가 인종적 다양성을 보여주기 위해 지나치게 노력하고 있다고 비난한다”고 평가했다.