EU, 세계 첫 AI규제법 승인…의료·교육 사용땐 사람감독 의무

중앙일보

입력

업데이트

지면보기

종합 08면

오픈AI의 챗GPT, 구글의 제미나이 등 생성형 인공지능(AI)의 부작용에 대한 우려가 높아지는 가운데 지난 21일(현지시간) 유럽연합(EU)이 AI 규제법의 시행을 최종 확정했다. 선거·사법·금융·의료·교육 등 각 분야에서 AI 기술 허용 범위와 규제 대상 등을 규정한 세계 최초의 법으로, 미국·일본 등 관련 입법을 서두르는 세계 각국에 가이드라인 역할을 할 것이란 관측이 나온다.

김경진 기자

김경진 기자

이날 EU 교통·통신·에너지이사회 27개 회원국은 벨기에 브뤼셀에서 열린 회의에서 AI법을 최종 승인했다. 다음 달 발효되는 EU의 AI법은 발효 6개월 뒤부터 금지 대상 AI 규정을 우선 시행하고, 1년 뒤엔 범용 AI(AGI·사람과 유사한 수준이나 사람 이상의 지능을 갖춘 AI)에 대한 규제에 들어간다. 전면 시행은 2026년 중반부터다. 다만 챗GPT와 제미나이, 마이크로소프트(MS)의 코파일럿 등 이미 출시된 생성형 AI에는 3년의 ‘전환 기간’을 주고, 2027년부터 규제를 적용한다.

마티유 미셸 벨기에 디지털화 장관은 성명을 통해 “AI법의 채택은 EU의 중요한 이정표”라며 “이 법을 통해 유럽은 신기술을 다룰 때 신뢰·투명성·책임을 강조하는 동시에 빠르게 변화하는 기술이 더욱 발전하고 유럽의 혁신을 촉진할 수 있도록 보장할 것”이라고 말했다.

이 법은 AI 활용 위험도를 ▶수용 불가능한 위험 ▶고위험 ▶제한된 위험 ▶최소 위험 등 네 단계로 차등 규제한다. 경찰 등 법 집행기관이 실시간 원격 생체인식 시스템을 사용하는 행위는 ‘수용 불가능한 위험’ 등급에 해당해 원칙적으로는 규제 대상이다. 다만 테러나 납치·강간 등 심각하고 긴급한 범죄는 예외적으로 허용된다.

관련기사

개인의 특성·행동과 관련된 데이터로 점수를 매기는 ‘소셜 스코어링(social scoring)’, 인터넷이나 폐쇄회로(CC)TV로 얼굴 이미지를 무작위로 수집해 데이터베이스를 구축하는 행위 등도 EU 역내에서 AI 활용이 원천적으로 금지된다.

의료, 교육, 시험 채점, 채용, 선거, 핵심 인프라, 이민, 자율주행에 사용되는 AI는 ‘고위험 등급’으로 분류됐다. 이 분야에서 AI 기술을 활용하려면 반드시 사람이 감독해야 하는 동시에 위험관리 시스템을 구축해야 한다. ‘제한된 위험’과 ‘최소 위험’의 경우 개발 기업에 ‘투명성 의무’를 부여했다. EU 저작권법을 준수해야 하며, AI 학습에 투입된 데이터에 대한 출처를 명시해야 한다. 아울러 딥페이크 기술 등을 활용해 생성형 AI가 산출해낸 영상·이미지·소리에 대해서는 AI가 만든 것임을 밝혀야 한다. 만약 시스템적으로 위험이 있다고 분류된 범용 AI에 대해선 위험 평가·완화, 사고 보고 등의 의무를 추가로 부여한다.

EU 집행위는 AI법을 위반하는 기업에 최대 3500만 유로(약 518억원) 또는 글로벌 매출의 7%에 해당하는 금액 중 큰 액수를 벌금으로 부과할 수 있다. EU는 집행위 연결총국 산하에 ‘AI 사무소’를 신설해 AI법 집행을 총괄하도록 한다는 계획이다,

구글과 메타, MS 등 미국 빅테크 기업은 EU의 AI법 시행에 촉각을 곤두세우고 있다. 이 법이 AI에 대한 세계 최초의 포괄적 규제란 점에서 다른 나라의 AI 규제 모델 구축에 가이드라인으로 작용하는 등 사실상 국제 표준이 될 수 있어서다. EU의 AI법이 생성형 AI에 강세를 보이는 미국 빅테크 기업을 정조준했다는 분석도 나온다.

ADVERTISEMENT
ADVERTISEMENT