[산업일보]
인공지능(AI) 기술의 발전과 함께 점점 더 인간화되는 AI 챗봇 등의 개발시 개인정보를 침해 하지 않으면서 실제 현장을 반영할 수 있는 규범의 필요성이 제기됐다.
ETRI에서 최근 내놓은 ‘AI 챗봇 ‘이루다’ 논란의 이슈 변화와 시사점’ 보고서에 따르면, ‘AI 윤리와 개인정보보호 강화는 최근 IT 업계가 가장 고민하는 화두 중 하나이다. 문제는 이러한 접근이 다분히 추상적이고 선언적 수준에 그치고 있어, 실제 현장에선 적용할 내용이 부족하다는 점이었다.’고 지적했다.
이 보고서는 분석을 위한 데이터를 얻기 위해 지난해 6월 15일부터 올해 2월 9일까지의 네이버 뉴스로 검색(검색 키워드: 이루다+챗봇)된 기사 1천553건을 자체 작성한 파이썬 크롤러를 통해 수집한 결과를 통해 분석했다고 밝혔다.
‘이루다’는 스캐터랩이 출시한 AI 챗봇으로 20대 여대생을 의인화해 일상대화를 통해 감정적 충족감을 제공하는 것을 목표로 삼았으나 혐오, 편향, 개인정보보호 등의 문제가 불거지면서 출시 20여 일 만에 서비스를 중단했다.
이 보고서는 분석 결과를 통해 ‘AI 서비스가 편향성 및 윤리 이슈의 제기뿐만 아니라, 개인정보보호 문제로 확대되고 젠더 갈등과 같이 예상치 못한 방향으로도 전개될 수 있음을 보여준다.’고 분석했다.
또한, ‘현재의 AI 서비스가 채택하고 있는 딥러닝 방식이 갖는 데이터 의존성의 문제는 학습데이터 확보와 개인정보보호가 끊임없이 상충하게 되는 문제임을 상기시킨다.’며 AI의 대중화를 피할 수 없다면, 이번 이루다 사태를 계기로 어떻게 AI와 공존해야 하는가에 대해 더욱 심도 있는 논의가 필요하다고 강조했다.
한편, 과학기술정보통신부는 지난 3월 19일 ‘제2기 인공지능 법제도정비단(이하 정비단)’을 발족했다. 이 정비단은 AI의 활용 확산을 위한 현행 규제와 신기술 사이의 간극을 극복하는 합리적인 규율방안에 대한 연구를 위해 지난해부터 운영되고 있다.
2기 정비단은 지난해 마련된 로드맵에 따른 관계부처의 법제 정비를 중점 지원하고, AI 기술발전, 현장 수요 등을 고려한 신규 법제 이슈를 발굴해나간다는 방침이다.
이번 정비단 발족을 통해 규제와 신기술 사이의 간극을 극복하고 이루다사태와 같은 또다른 AI 관련 이슈를 막아낼 수 있을지 기대를 모은다.