ADVERTISEMENT

[팩플] “글로벌 AI 규제” 또 주장하는 ‘챗GPT’ 올트먼…계산 복잡한 후발주자

중앙일보

입력

업데이트

챗GPT 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 “AI(인공지능) 규제에 국제 사회가 나서야 한다”고 밝혔다. 올트먼 CEO는 16일(현지시간) 미국 상원 법제사법위원회 개인정보·기술·법소위가 연 청문회에 나와 “우리는 AI의 규제가 필수적이라고 믿고 있다”면서 “더 강력해지는 AI의 위험을 줄이기 위해서는 정부의 개입이 중요할 것”이라고 말했다. 미국, 유럽 등에서 AI 규제 논의가 본격적으로 시작된 가운데 한국을 포함한 각국의 AI 규제 정책 마련에도 속도가 붙을 지 주목된다. 다만 AI 주도권을 이미 쥔 미국 기업들의 주장에 글로벌 사회가 얼마나 호응할 지가 관건이다.

AI 규제 강조한 알트먼  

16일(현지시간) 미 의회 청문회에 출석한 샘 알트먼. 로이터=연합뉴스

16일(현지시간) 미 의회 청문회에 출석한 샘 알트먼. 로이터=연합뉴스

이날 미 의회에 출석한 올트먼 CEO는 “정부는 AI 모델 개발에 있어 일정한 역량 이상의 허가와 시험 조건을 고려할 수 있다”면서 “나라면 일정 규모 이상의 (AI 개발) 활동에 대해 허가권을 가질 기관을 새로 설립하고, 위험 요소를 평가할 기준을 만들겠다”고 말했다. 정부가 AI를 효과적으로 규제하는 데 구체적으로 개입해야 한다는 것.

특히 그는 내년에 있을 미 대선에서 챗GPT 같은 생성 AI가 미칠 수 있는 악영향을 부인하지 않았다. 상원 의원들이 AI가 생성한 허위 정보가 유권자들의 선택에 영향을 줄 가능성을 의원들이 우려하자 나온 반응이다. 올트만 CEO는 이런 (AI 언어) 모델들이 정보를 조작하고, 사람들을 설득하며, 1대 1로 유포할 수 있다는 점이 가장 우려스럽다”고 말했다.

올트먼 CEO는 정부를 넘어 국제 사회의 규제가 필요하다고도 주장했다. 그는 “국제원자력기구(IAEA)와 같은 선례가 있다. 미국이 다른 국가들과 협력해 AI 국제 표준을 설정한다는 게 비현실적으로 들리지겠만, 그건 분명히 가능하고 전 세계에 도움이 될 것”이라고 덧붙였다. 하지만 이날 함께 출석한 크리스티나 몽고메리 IBM 부사장 겸 개인정보보호 최고책임자는 “기술 자체를 규제로 통제하는 것보다는, 개별 사례마다 현행 법에 따라 대응하는 편이 낫다”며 새로운 규제 도입에 반대하는 입장을 밝혔다.

올트먼은 그동안 꾸준히 AI와 공존하는 데 필요한 새로운 규칙의 필요성을 얘기했다. 지난 2월 포브스지와 인터뷰에서 “AI를 누가 통제할 수 있으며, 이를 소유한 회사는 어떤 지배구조여야 하는지 등에 대해 새로운 생각이 필요하다”고 말했다. 그러나 AI 개발을 일시 중단하자는 일각의 주장에는 반대한다. 같은 달 24일 오픈AI 홈페이지에 직접 남긴 글에서 그는 “AGI(범용인공지능)는 오용, 심각한 사고, 사회적 혼란을 초래할 수 있다”면서도 “AGI의 긍정적인 측면이 워낙 크기 때문에 사회가 개발을 영원히 중단한다는 건 가능하지도, 바람직하지도 않다”며 “대신 사회와 AGI 개발자들이 올바른 방법을 찾아야 한다”고 주장했다.

16일(현지시간) 미 의회 청문회에 출석한 샘 알트먼. EPA=연합뉴스

16일(현지시간) 미 의회 청문회에 출석한 샘 알트먼. EPA=연합뉴스

글로벌 AI 규제 논의는 

◦ 규제에 앞장서는 유럽: 2021년 4월 AI 법안 초안을 내놓은 EU(유럽연합)은 지난달 의회 산하 담당위원회가 법안 추진 찬성 입장을 밝히면서 세계 최초 AI 규제 법 마련에 속도를 내고 있다. 다음 달 본회의에서 의회 차원 공식 입장을 채택한 후, EU 의회·집행위·이사회 간 3자 협의가 타결되면 시행이 확정된다. EU 집행위가 발표한 이 법안은 위험 기반 접근 방식을 채택해 AI 시스템의 위험을 최소, 제한, 높음, 수용불가 4등급으로 분류했다. 잘못된 정보 유포, 차별적 언어 사용, AI의 생체 감시 등이 고려된다. 수용불가 수준의 AI를 활용하는 기업에 대해서는 연간 총매출의 최대 6%를 벌금으로 부과할 수 있다. 또 EU는 AI 훈련에 사용하는 데이터의 출처를 기업이 공개하도록 하는 내용도 법안에 추가할 가능성이 크다. 다만, EU 경제권역 내 일부 IT 기업들은 이같은 강력한 규제가 중국·미국 기업들과의 AI 경쟁에서 EU 기업들의 경쟁력을 떨어뜨릴 수 있다며 우려를 표하고 있다.

◦ 상황 보는 미국: 미국은 여론과 기업의 의견을 수렴해 규제 수준을 정할 것으로 보인다. 지난해 10월 백악관 과학기술정책실(OSTP)은 ‘AI 권리장전 청사진’을 발표했다. 기업과 정부기관에 대한 권고안으로 법적 구속력은 없지만 안전하고 효과적인 시스템, 알고리즘 차별 보호, 데이터 프라이버시, 공지 및 설명 의무 등을 핵심 원칙으로 삼았다. 연방 정부 차원에서는 공무원의 AI 이해를 높이고, AI의 윤리적이고 안전한 사용을 목표로 하는 AI 훈련법도 만들었다. 미 의회도 이용자 보호를 위해 편향·차별 위험이 있는 AI 알고리즘 개발 기업의 책임을 강화하는 알고리즘 책임법안을 지난해 발의했다. 백악관은 지난 4일 샘 올트먼 CEO를 포함해 순다 피차이 구글 CEO, 사티아 나델라 마이크로소프트 CEO 등을 부른 자리에서 “AI가 개인과 사회, 국가 안보에 미치는 위험을 완화해야 한다”면서 AI 기업의 책임 있는 혁신과 안전장치 확보를 주문했다.

한국은 어때   

로이터=연합뉴스

로이터=연합뉴스

국내에서는 AI 관련 7개 법안을 통합한 ‘인공지능법 제정안’이 지난 2월 국회 과학기술정보방송통신위원회의 법안심사소위를 통과했다. 정부가 3년마다 AI 기본 계획을 수립하고, 국무총리 산하에 인공지능위원회를 두는 내용이다. AI 기술발전을 위한 대원칙으로 ‘선 허용, 사후 규제’ 원칙을 명문화했다.

이성엽 고려대 기술경영전문대학원 교수는 “AI 규제에 있어 중요한 것은 사업의 혁신과 규제의 조화다. 미국은 AI 기술과 산업이 앞서 나가 규제 논의가 주목 받지만, 국내에서는 AI 기술 발전 수준을 고려한 규제 논의가 이루어져야한다”면서 “국내 법안은 이를 조화시키려고 노력한 측면이 있다”고 말했다.

정부는 초거대 AI 위험성과 성능 등에 대해 제3기관이 평가하게 하는 방안도 추진하고 있다. 과학기술정보통신부는 지난 11일 “AI 제품 서비스의 위험 요인을 분석하고 신뢰성을 검·인증하는 체계를 마련해 올해 하반기부터 시범 인증을 시작할 계획”이라고 밝혔다. 정부는 인공지능 윤리영향 평가를 도입하고, 신뢰할 수 있는 AI의 기술 기반을 마련하기 위한 과제에 2026년까지 650억원을 투입한다.

ADVERTISEMENT
ADVERTISEMENT