![[EU AI법으로 보는 K-AI법①] AI 혁신 vs 규제, 균형점을 찾아야](http://pimg3.daara.co.kr/kidd/photo/2024/07/30/thumbs/thumb_520390_1722307676_82.jpg)
[산업일보]
세계 최초의 포괄적 AI(인공지능) 규제법이라고 평가받는 유럽연합의 AI법(EU AI Act)이 7월 12일 EU 관보(Offical Journal)에 게재됐다. 8월에는 이 법이 발효되고, 2026년에는 전면 적용될 예정이다.
이에, 우리 일상에 녹아들고 있는 AI는 글로벌 속성이 강한 만큼 세계적인 표준과 국제적인 논의 동향을 살펴봐야 한다는 목소리가 나온다. 현재 제22대 국회에는 AI 법안 6개가 제출돼 있는데, EU AI Act를 들여다보고 입법과정에서 참고해야 할 필요성이 있다는 것이다.
이러한 가운데, 한국지능정보사회진흥원(NIA)은 ‘2024 NIA 지능정보사회 법제도 포럼’의 상반기 공개 세미나를 29일 중구 포스트타워에서 진행했다.
이번 세미나는 ‘EU AI Act, 미리 보는 K-인공지능 법’을 주제로 삼아, EU의 AI법이 전하는 시사점을 공유하고 한국 환경에 맞는 규제체계와 산업 진흥 지원 제도를 마련해야 한다고 제언했다.
![[EU AI법으로 보는 K-AI법①] AI 혁신 vs 규제, 균형점을 찾아야](http://pimg3.daara.co.kr/kidd/photo/2024/07/30/thumbs/thumb_520390_1722307680_33.jpg)
“EU의 AI법, 속내는 해외 기업 견제하고 EU 기업 보호하는 것”
인하대학교 손영화 교수는 “EU AI Act는 겉으로 이야기하는 법 제정 배경과 속내가 차이가 있다”라고 단언했다.
이 법은 AI 기술 발전과 인권 보호의 균형을 추구한다고 밝히며, EU의 AI 소비자를 보호하고 AI 기업의 경쟁력을 강화하는 것을 배경으로 하고 있다. 이중, ‘유럽연합의 AI 기업 경쟁력 강화·보호’에 가장 큰 중점을 두고 있다는 것이 손 교수의 주장이다.
그는 EU가 2018년 시행한 개인정보보호규정 ‘GDPR'을 사례로 들었다.
“EU는 자동차 회사들을 중심으로 세계적인 기업들이 많았는데, 데이터 중심의 4차 산업혁명에서 미국이나 한국, 중국 소재 기업보다 부각 되는 기업들이 적었다”라며 “여기서 비롯된 위기감으로 차세대 먹거리인 데이터를 일방적으로 뺏기지 않겠다고 해서 GDPR을 만들었는데, 이 법이 전 세계 법에 영향을 미치게 됐다”라고 말한 것이다.
그러면서, “이 때문에 AI법을 제정해 유럽연합의 기업들이 경쟁력을 갖도록 하겠다는 것”이라고 해설했다.
손영화 교수는 이어 EU AI Act의 제정 흐름을 살폈다. EU는 2018년 AI에 관한 시책을 검토하기 시작해 같은 해 4월 EU 집행위원회에서 ‘유럽의 AI’ 정책 지침을 발표했다. 2019년 4월에는 AI 윤리지침을 만들어 ▲인간 대행과 감독 ▲기술적 견고성과 안전성 ▲사생활과 데이터 거버넌스 ▲투명성 ▲다양성 ▲비차별성 및 공정성 ▲사회적·환경적 복지·책임성 등 7가지 핵심 요건을 제시했다.
2020년 2월에는 ‘AI 백서’를 공개했다. 백서에는 AI의 위험성을 ‘금지된 위험‧고위험‧저위험‧최소한의 위험’ 등 4가지로 나눠 규제 강도를 조정하겠다는 ‘위험기반 접근법(risk-based approach)’이 등장했다. 이를 기반으로 2021년 4월 ‘AI 규칙안’을 마련했고, ‘AI 법’의 탄생으로 이어졌다.
AI 법은 2022년 12월 EU 이사회가 마련한 수정안을 2023년 5월 EU 의회가 채택했고 6월 유럽의회를 통과해, 올해 6월 AI 법 의회 및 이사회가 공동서명함으로써 성립했다. 이후 단계별 적용을 통해 2026년 이후에는 일부 규정을 예외로 두고 전면 적용될 예정이다.
손 교수는 “이 법은 AI를 제조한 회사가 어디에 법인격을 두고 있느냐가 아니라 AI가 창출한 결과물이 EU 내에서 어떻게 사용됐었는지 여부에 따라 적용된다”라며 “우리나라 기업들도 앞으로 6개월, 또 2년 뒤 최종 적용되는 때에 맞춰 대응해야 한다”라고 언급했다.
그는 “EU AI Act는 위험 기반 접근법에 따른 규제 체계를 가지고 있다”라며 “AI를 금지된·고위험·중위험·범용으로 분류해 의무 및 요구사항을 부여하는 것”이라고 했다.
EU AI Act의 도입철학도 소개했다. 4단계 위험 분류에 따라 규제를 차별함으로써 혁신 저해와 진정성 확보의 균형을 맞췄고, ‘인간의 통제’를 핵심에 둬 AI가 사람을 위해 작동하게 함으로써 사람이 AI 기술을 신뢰할 수 있도록 했다는 것이다.
AI 시스템의 편견과 차별을 방지하고자 알고리즘·학습데이터·집단 속성에서 기인한 차별과 인간에 의한 책임 전가를 차별의 주요 요인으로 규정하기도 했다. 위험도에 따라 AI의 공정성 검증과 모니터링을 요구하며 위반 시에는 제재금이나 업무 정지명령도 가능하게 규정했다.
그러면서도 연구 개발과 창업을 장려하고 AI기술 발전을 지원하는 AI 혁신 패키지를 도입함으로써 혁신을 촉진했다는 것이다.
손영화 교수는 “EU 시장 진출을 염두에 둔 국내 AI 기업은 리스크 관리 체제의 정비의무 이해 가능성을 사전에 점검해야 한다”라고 조언했다.
아울러, 국내 입법 관계자에게 “합리적인 범위에서 EU AI Act의 규제 내용을 검토해 최소한의 입법으로 규제체계를 완비해야 한다”라며 “국내 상황에 맞는 한국형 AI 규제 프레임 워크 개발을 검토해야 할 것”이라고 제언했다.
→[EU AI법으로 보는 K-AI법②] 기사로 이어집니다.