- 글로벌 R&D EU, 세계 최초 AI 법 시행
‘채용시장 AI 도입’, ‘원격 생체인식 시스템 AI 헬스케어 서비스’ 등 AI에 대한 관심이 높아지면서 이를 활용한 다양한 서비스가 제공되고 있다. 유럽연합(European Union, EU) 인공지능 법(Artificial Intelligence Act, 이하 AI 법)에 따르면, 앞서 제시한 AI 시스템(이하 AI)은 ‘고위험 AI’로 분류된다.
2024년 8월 1일, 최초의 인공 지능 규제법으로 일컬어지는 EU의 AI 법이 공식적으로 발효되었다.⁰¹ 향후 2년간 단계적으로 시행되어 2026년 8월 2일부터는 일부 조항을 제외하고 전면 시행된다.⁰² 전 세계 주요국은 AI 촉진 정책의 추진과 동시에 인공 지능(AI)이 지닌 위험성을 인식하고 안전·신뢰 AI 생태계 조성을 위한 정책을 추진하고 있으나, 법제화한 것은 EU가 최초다.⁰³
EU가 제시하는 AI 법의 목표는 다음과 같다. AI가 제공하는 것을 인간이 신뢰할 수 있도록 보장하는 것과, 인간의 기본적인 권리와 안전 및 윤리적 원칙을 존중하고 AI의 위험을 해결하는 것이다. EU에서 사용되는 AI의 위험등급을 마련하고 위험도에 따라 규제의 강도를 달리하는 것이 AI 법의 주요 골자다.⁰⁴
AI 법: 위험 기반 접근 방식
EU의 AI 법은 AI의 위험등급을 AI가 사회에 초래하는 위험 수준에 따라 4단계로 분류하였다. 우리가 일상에서 자주 사용하는 AI 기반의 비디오 게임, 스팸 필터 등 대부분의 AI는 ‘최소한의 위험(Minimal risk)’으로 분류된다. 이는 규제 대상에서 제외된다. 유럽 집행위원회(European Commission, EC)에 따르면 AI 기업의 85% 정도가 ‘최소한의 위험’ 등급에 해당한다.
소비자와 상호작용하는 AI와 텍스트·이미지를 생성하는 챗봇(Chatbot)은 ‘제한된 위험(Limited risk)’ 으로 분류된다. 이 등급의 AI를 사용할 경우 AI 기업은 소비자에게 기계와 상호작용을 하고 있다는 사실을 알려야 하며, 콘텐츠가 AI로 제작되었다는 표시를 해야 한다.
한편 ‘허용할 수 없는 위험(Unacceptable Risk)’ 등급은 말 그대로 위험도가 가장 높은 AI로 범죄 및 테러리즘 수사 등 예외적인 상황을 제외하고 활용이 금지된다. 개인의 특성·행동 정보를 수집하여 사람을 평가(Social scoring)하는 AI, 인터넷 혹은 CCTV 영상에서 안면인식 정보를 생성하고 확장하는 AI 서비스의 출시·제공·사용, 공권력이 실시간으로 생체 정보를 수집하여 식별하는 AI 시스템 등이 이에 해당한다.
그림 1 AI 위험 수준 분류
<European Council, “Artificial Intelligence” https://www.consilium.europa.eu/en/policies/artificial-intelligence/#0)>
AI 법은 ‘고위험(High risk)’ 단계의 AI를 엄격하게 관리하는 데 중점을 두고 있다. ‘고위험(High risk)’ AI는 사람의 건강, 안전 또는 기본권에 위험을 초래하는지를 기준으로 판단한다. 또한 개인을 평가하기 위해 개인 데이터(업무성과, 건강, 경제 상황, 관심사 등)를 자동으로 처리하는 경우에도 고위험 AI로 간주한다. 교통수단 중 자율주행(생명·건강을 위험에 빠뜨릴 수 있는 중요 인프라), 의료기기(안전 위험이 있는 제품의 구성요소), 채용을 위한 이력서 검토(개인을 평가), 증거의 신뢰성 평가(기본권을 침해할 수 있는 법 집행) 등에 활용되는 AI가 고위험에 해당한다. ‘고위험’ 등급의 AI는 사전에 적합성 평가 절차를 거쳐야 하며, 위험관리 시스템을 구축하고 ‘인간 관리자’ 의 감독을 받는 등의 규제가 적용된다. 또한 AI 기업은 규정을 준수했는지를 평가받기 위해 AI 모델에 대한 데이터를 규제당국과 의무적으로 공유해야 한다.
EU의 AI 법은 범용 AI(General purpose AI)도 다루고 있다. Chat GPT와 같은 생성형 AI가 범용 AI의 한 예이다. 학습에 사용되는 데이터는 EU의 저작권법을 준수해야 하고, AI가 어떻게 훈련되는지에 대한 기술문서를 공개하는 등의 엄격한 요구사항이 부여된다.
EU의 AI 법을 위반할 경우, 대상 및 경우에 따라최소 750만 유로(혹은 직전 회계연도 전 세계 연간 매출액의 1.5% 중 큰 금액)에서 최대 3,500만 유로(혹은 직전 회계연도 전 세계 연간 매출액의 7% 중 큰 금액)의 과징금이 부과된다.
신뢰할 수 있는 AI 도입 촉진, 혁신 지원
유럽의회(European Parliament, EP)의 의장 로베르타 메솔라(Roberta Metsola)는 “기본권을 보호하는 동시에 혁신을 가능하게 할 선구적 법안”이라고 AI 법을 소개했다. EU의 AI 법은 AI의 규제와 동시에 AI 규제 샌드박스(Sandbox) 도입을 EU 회원국에 의무화하고 있다. EU 회원국은 규제당국의 감독 아래, 통제된 환경에서 혁신적인 AI의 시스템 개발, 교육, 테스트 및 검증을 수행할 수 있다.
세계 최초의 AI 규제법을 도입한 EU는 미국과 중국의 기술 선점에 대응하여 세계적인 규범 개발에 앞장서는 모습이다. 지난 2024년 6월 발표된 ‘EU 과학연구혁신 성과보고서 2024’에 따르면 EU는 청정기술 관련 분야에서는 경쟁국인 미국과 중국 대비 우위에 있으나, 사물인터넷부터 양자컴퓨터 등 디지털·AI 분야 산업에서는 열위에 놓인 상황이다.
그림 2 복합 기술 분야에서 중국과 미국, EU의 입지(2019~2022년)
<European Commission(2024), “Science, Research and Innovation performance of the EU 2024”>
참고 : 버블의 크기는 기술별 국가의 전문화 정도를 의미
EU는 AI 법을 통해 안전하고 신뢰할 수 있는 AI시스템을 구축하는 법적 틀을 마련하였다. 이제는 AI 혁신 주도국으로 도약하기 위해 노력할 것으로 보인다. EU의 정부 격인 EC의 현 집행위원장이자 차기(2025~2029년) 집행위원장으로 연임하게 된 우르술라 폰데어라이엔(Ursula von der Leyen)의 정책안(Political Guidelines)을 살펴보면, 그는 차기 집행위원회 출범 후 100일 이내에 AI 공장 이니셔티브(AI Factories Initiative)를 추진하여 AI 스타트업 및 산업계를 위한 슈퍼 컴퓨팅 접근성을 확보하는 방안을 제시하였다. 또한 응용 AI 전략(Apply AI Strategy)을 마련하여 27개 EU 회원국과 시민단체 및 산업계의 AI의 산업 활용을 장려할 계획이다.⁰⁵
결국 EU의 AI 법은 기술력 열위를 극복하기 위한 EU 차원의 대응으로 평가된다. 앞서 EU에서 제정한 일반정보보호 규정(General Data Protection Regulation, GDPR; 2018년 발효), 디지털 시장법(Digital Markets Act, DMA; 2024년 발효) 등도 이러한 맥락에서 도입되었다. 전례와 같이 EU 차원의 규제는 전 세계 규범으로 확대될 가능성이 높아 이러한 움직임을 주의 깊게 살펴볼 필요가 있다.
01 본 법률은 EU 법률체계 중 ‘규정(Regulation)’으로, 모든 내용이 구속력을 가지며 모든 EU 회원국에 직접적인 효력이 적용됨
02 발효 후 6개월 뒤부터(2025년 2월) ‘허용할 수 없는 위험’ AI 금지, 12개월 뒤(2025년 8월)에는 범용 AI 공급자에 투명성 조치 적용, 2026년 8월에는 예외 조항을 제외하고 전면 시행
03 미국은 2023년 10월 안전하고 신뢰할 수 있는 AI에 관한 행정명령을 공표했으며, 영국 정부는 구속력 없는 원칙선언을 발표
04 European Commission, “AI Act”, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
05 European Commission, “Europe’s Choice: Political Guideline for the next european commission 2024-2029- Ursula von der Leyen”
- Vol.467
24년 09/10월호