인공지능(AI) 기술은 의료, 교육, 유통 등 다양한 분야에서 서비스를 고도화하고 있다. 하지만 AI 기술 고도화의 기반이 되는 데이터 활용과 관련해 개인정보 침해 등에 대한 우려도 이어지고 있다.
개인정보보호위원회(이하 개인정보위)는 “개인정보 침해 등 부작용은 최소화하면서 AI 혁신 생태계 발전에 꼭 필요한 데이터는 안전하게 활용하기 위한 제도 마련이 필요하다”라며 '인공지능 시대 안전한 개인정보 활용 정책방향'을 3일 발표했다.
개인정보위가 중점적으로 추진하겠다 밝힌 주요 내용은 ▲원칙 기반 규율 체계 정립을 통한 법적 불확실성 해소 ▲AI 개발·서비스 단계별 개인정보 처리기준 구체화 ▲민·관 협력을 통해 구체화된 분야별 가이드라인 마련 ▲국제적 공조체계 강화 등 네 가지다.
원칙 기반 규율체계 정립 및 법적 불확실성 해소
국내 AI 산업의 매출 규모는 3년간 평균 40% 이상 증가할 정도로 급성장하고 있고 앞으로 이 같은 성장세는 더욱 가파를 것으로 보인다. 하지만 AI 개발을 위해 데이터를 수집·횔용하는 데 있어 개인정보보호법 등 관계법령 저촉 여부에 대해 불확실성을 호소하고 있다.
개인정보위는 데이터의 활용 범위, 방식이 복잡하고 변화 속도가 빠른 AI의 특성을 고려해 규정 중심이 아닌 원칙 중심의 규율제계로 전환해 나가겠다는 방침이다. 이를 위해 AI 관련 사항을 전담하는 원스톱 창구로 ‘AI 프라이버시팀(가칭)’을 오는 10월 중 신설할 계획이다.
또한, ‘사전적정성 검토제도(가칭)’도 올해 중 도입 예정이다. 이는 사업자 요청 시 비즈니스 환경을 분석해 법을 준수할 수 있도록 적용방안을 함께 마련하고, 이에 따른 사업자의 이행결과를 개인정보위가 적정하다고 판단한 사안에 대해서는 행정처분을 하지 않는 제도다. 특히, 사업자가 신청서를 제출한 시점부터 적용방안 통보까지 원칙적으로 60일 이내에 이뤄지도록 해 민간이 느끼는 법적 리스크를 신속하고 확실하게 줄일 계획이다.
AI 단계별 개인정보 처리 기준 구체화
그동안 AI 개발과 서비스를 위해 데이터를 수집·이용할 때 개인정보 처리 방법에 대한 명확한 기준이 없었다. 이번 정책방향에서는 현행 개인정보보호법 체계 하에서 법령·해석례·의결례·법원 판례 등을 종합해 AI 개발·서비스 기획-데이터 수집-AI 학습-서비스 제공 등 단계별 적용 원칙과 기준을 구체화했다.
‘기획’단계에서는 개인정보 보호 중심 설계 원칙을 반영해 모델링·학습·운영 과정에서 개인정보 침해 위험을 최소화할 수 있는 방안 등을 안내한다. ‘데이터 수집’ 단계에서는 일반 개인정보, 공개 개인정보, 영상정보, 생체인식 정보 등 영역별 개인정보 처리 원칙을 제시한다. ‘AI 학습’ 단계에서는 개인정보를 가명 처리해 별도 동의 없이 AI 연구개발이 가능토록 했다. ‘AI 서비스’ 단계에서는 투명성 확보 및 정보주체 권리보장의 필요성을 강조했다.
민·관 협력을 통한 구체적 가이드라인 제시
비정형 데이터의 가명 처리 기준, 공개된 정보를 활용하는 방법, 이동형 영상기기 촬영 정보의 활용, 투명성 확보 방안 등 세부 과제에 대해 ‘AI 프라이버시 민관 정책협의회’를 구성해 구체화할 예정이다. AI 리스크 수준에 따른 차등적인 규제 설계가 가능하도록 AI 리스크 평가모델도 마련한다. 이를 위해 규제 샌드박스 등 여러 경로로 사례를 축적해 2025년까지 위험평가체계를 단계적으로 구축하겠다는 방침이다.
AI 글로벌 협력체계 강화
개인정보위는 지난 6월 새로운 차원의 디지털 질서 수립을 선언한 ‘파리 이니셔티브’에 입각해 AI 개인정보 분야 국제규범 마련을 위한 협력체계를 강화해 나가겠다고 밝혔다.