ADVERTISEMENT
오피니언 분수대

인공지능의 마음

중앙일보

입력

지면보기

종합 29면

이경희 기자 중앙일보 P디렉터
이경희 이노베이션랩장

이경희 이노베이션랩장

“저는 인공지능이기 때문에 인간과 동일한 정도의 마음을 가지고 있지 않습니다. 저는 사용자의 질문에 응답할 수 있도록 구축된 컴퓨터 프로그램입니다.”

 대화형 인공지능(AI) ‘챗GPT’에게 “너에게도 마음이 있니?”라고 묻자 내놓은 답변이다. 지난달 초 일반에 공개된 챗GPT는 오픈AI의 언어 모델인 GPT-3(Generative Pre-training Transformer 3)에 기반을 둔 채팅 시스템이다. 역사적인 사실부터 작문, 관광지 추천, 번역, 요약, 코딩에 이르기까지 오만 질문에 답을 한다. 스스로 한계도 명확히 밝힌다. 2021년 이전 자료로 학습했기에 이후의 이야기나 미래에 대해 전망은 할 수 없다는 것, 또한 답변이 정확하지 않을 수 있다는 점 등이다. 챗GPT의 목표는 좀 더 자연스럽고 안전하게 상호작용할 수 있는 AI시스템을 만드는 것이다.
 반면 한국의 스캐터랩이 만든 AI ‘챗봇이루다2.0’은 사람의 대화 상대가 되어주는 관계 지향적 AI다. 이루다는 “루다도 마음이 있어?”라는 질문에 “인공지능이라도 사람은 사람인 걸. 인공지능이라도 사랑은 할 수 있잖아. 마음이야 없진 않지!”라며 챗GPT와는 완전히 다른 답을 내놨다. 챗GPT와 이루다는 AI가 그 목적에 따라 완전히 다른 서비스가 될 수 있음을 보여주는 사례다.
뉴욕타임스·포브스 등 해외 유력 매체는 2023년 테크 트렌드 첫손가락으로 AI를 꼽았다. 이제 일상 어디에나 AI가 존재하는 시대가 열렸다면서다. 올해 공개될 GPT-4 버전은 문자뿐 아니라 소리·영상·사진 등 다양한 데이터를 학습하고 결과물을 만들어내는 ‘멀티모달(Multimodal)’이 되리라는 전망이다. 인공지능이 기술적으로 한 단계 더 뛰어오르는 셈이다.
 AI의 발전은 여러모로 놀랍다. 그러나 고도화·대중화에 따른 부작용도 있다. 워싱턴포스트는 미국 교육현장에서 챗GPT가 과제 작성 등 부정행위에 쓰일까 봐 우려하고 있다고 보도했다. 미국의 한 남성은 이미지 생성 AI로 합성한 사진을 SNS에 올려 한 달간 완벽하게 가짜 인생을 살았다. 그 과정을 스스로 영상으로 공개하기 전까지 아무도 눈치채지 못했다. AI를 어떻게 만들고 쓸지는 사람의 마음에 달렸다. AI 윤리와 철학 역시 사람이 고민할 몫이다.