[산업일보]
방송통신위원회(이하 방통위)가 생성형 인공지능(AI) 서비스 과정에서 이용자 피해를 방지할 수 있는 가이드라인을 발표했다.
방통위는 지난달 28일 생성형AI 개발사·서비스제공자를 대상으로 ‘생성형 인공지능 서비스 이용자 보호 가이드라인’을 공개했다. 가이드라인에는 서비스 전반에 걸쳐 추구해야할 4가지 기본 원칙과 6가지 실행 방식을 담고 있다.
이번 가이드라인은 생성형AI 기술의 급격한 발전이 일상생활의 혁신적 변화를 불러옴과 동시에 딥페이크 성범죄물을 비롯한 부작용도 심각하게 대두돼, 이용자의 안전과 권리를 보호할 제도적 기반 마련이 필요성이 지속적으로 제기됨에 따라 마련됐다.
기본 원칙에서는 생성형 AI가 통제 가능한 방식으로 제공돼야 하며, AI 시스템의 작동 원리·결과·영향을 사용자가 알기 쉽게 설명하고, 서비스의 안전한 작동, 차별 또는 불공정한 결과를 방지해야 한다고 명시하고 있다.
실행 방식으로는 ▲이용자 인격권 보호 ▲결과 과정을 알리려는 노력 ▲다양성 존중 ▲입력 데이터 수집․활용 과정에서의 관리 ▲문제 해결을 위한 책임과 참여 ▲건전한 유통·배포 노력이 제시됐다.
방통위는 보도자료에서 ‘이번 가이드라인을 통해 생성형 AI 사업자가 바람직한 이용자 보호 방안을 마련할 수 있게 될 것으로 기대한다’라고 밝혔다.
이번 가이드라인은 이달 28일부터 시행되며, 방통위는 2년마다 가이드라인의 타당성 검토 및 개선을 이어갈 계획이다.