본문 바로가기
AI 기술 발전속도 고려…균형잡힌 AI 윤리 정책 마련돼야
김원정 기자|sanup20@kidd.co.kr
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드

AI 기술 발전속도 고려…균형잡힌 AI 윤리 정책 마련돼야

자율적인 AI 윤리 및 신뢰성 확보 환경의 조성 필요

기사입력 2022-12-08 16:39:08
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드
[산업일보]
인공지능(AI) 기술의 발전으로 다양한 분야에 AI 도입이 확대되고 있다. 이 같은 순기능과 함께 윤리적인 부분 등의 역기능도 불거지고 있다.

관련 사례도 많아지는 추세다. 2016년 미국 법정에서 피의자의 재범 가능성을 분석 및 예측하는 AI 알고리즘 콤파스(COMPAS)의 흑인편향성을 들어냈던 사례나 2018년 아마존의 AI 채용시스템의 여성지원자 차별, 한국에서는 2020년 12월 출시한 AI 챗봇 ‘이루다’의 성소수자에 대한 혐오·차별 발언 등이 대표적이다.

이처럼 채용시스템, 안면 인식, 챗봇, 표적 광고 추천 서비스 등 AI를 활용한 분야에서 역기능 및 윤리적 이슈가 발생할 가능성이 커지고 있다. 이에 따라 OECD, EU(유럽연합), UNESCO(유네스코) 등의 국제기구와 한국을 비롯한 영국, 미국 등의 정부와 민간에서는 관련 AI 윤리 및 신뢰성 확보를 위한 규제 및 가이드라인 등을 마련하고 있다.

AI 기술 발전속도 고려…균형잡힌 AI 윤리 정책 마련돼야
본 이미지는 기사와 직접적인 관련이 없음을 밝힙니다. (사진=123RF)

제6회 AI Security Day 세미나에서도 AI 윤리와 관련한 국내외 동향과 관련 기술 개발 추이 등에 대해 들어볼 수 있었다. 행사는 8일 페어몬트 앰배서더 서울 그랜드볼룸과 온라인에서 동시 개최했다.

한국인공지능학회 유창동 학회장겸 카이스트 인공지능 공정성 연구센터장은 ‘AI의 혁신적 발전과 공정한 판단’을 주제로 발표했다. 그는 과기정통부의 지원을 받아 AI 공정성 진단시스템 MSIT AI FAIR 2022(MAF 2022, 마프)를 개발한 바 있다.

유 학회장은 AI의 학습 분야에 따라 차별 성향이 나타날 수 있다며, 혐오적인 표현을 학습하면 혐오적인 대화를 할 수 있고, 성별이나 연령, 학벌 등에 대해서도 편향적인 성향을 보일 수 있다며 개발자의 주관에 따라 영향을 미칠 수 있음을 시사했다.

이에 학계에서는 AI의 공정성을 위해 ‘보호 변수’라는 것을 설정한다고 했다. 이 보호변수는 성별, 나이, 종교 등을 설정해 놓고 공정성의 기준을 마련한다는 것. 세부적으로는 개별 공정성, 그룹 공정성, 반사실 공정성으로 나눌 수 있다.

하지만 이 역시 완벽한 기준으로 삼기에는 해결해야 할 점들이 남았다.

유 학회장은 “개별 공정성을 따질 때 사람의 능력을 어떻게 평가할지. 사람의 어떠한 능력을 보고 판단할 것인지. 그룹공정성에서도 여러 가지 척도가 있겠지만 그 척도 간에 상충되는 점도 있다. 반사실 공정성에서는 인과관계를 따져야 하는데 인과관계를 추론하는 것이 쉽지 않다”라며 이러한 것을 극복하기 위한 연구를 지속하고 있다고 밝혔다.

AI 기술 발전속도 고려…균형잡힌 AI 윤리 정책 마련돼야
본 이미지는 기사와 직접적인 관련이 없음을 밝힙니다. (사진=123RF)

정보통신정책연구원(KISDI) 지능정보사회정책센터 문정욱 센터장은 ‘인공지능 윤리 정책 동향과 향후 과제’를 발제로, AI 활용 확산과 관련한 윤리 이슈와 국내외 정책 동향 등에 대해 발표했다.

과기부와 KISDI는 지난 2020년 12월 23일 ‘인공지능(AI) 윤리기준’을 발표했다. 이후 이를 실천할 수 있는 전략이 필요하다는 측면에서 지난해 5월에는 ‘신뢰할 수 있는 AI 실현 전략’을 발표한 바 있다.

문 센터장은 “AI 윤리기준 발표 이후 기업들과 대화해보면, 가장 많은 의견이 윤리기준의 방향성에 대해서는 공감하지만 현장에서 이를 준수하기 위해 참고할 수 있는 구체적인 내용 보완의 촉구”라고 했다.

이에 기업들의 의견을 반영해 AI 자율점검표, AI 자율점검체크리스트 등을 개발했다며, 2022에는 좀 더 나아가 세분화, 영역별, 분야별로 좀 더 구체적인 자율점검을 만드는 연구개발 작업을 진행하고 있다고 소개했다.

문 센터장은 미국, 영국, 일본 등의 국가에서의 AI 윤리 및 공정성, 신뢰성과 관련한 정책들을 소개하며, AI의 윤리 원칙 내지 기준 가이드라인 정도를 만드는 것을 1단계라고 본다면, 현재 세계의 다양한 기구나 주요 국가들은 1단계 수준이 많은 상황이라고 분석했다.

그는 규제를 통한 강압적인 기준 적용보다는 자율적으로 AI 윤리 및 신뢰성을 확보할 수 있는 환경 마련을 위한 정책의 필요성을 피력했다.

이를 위해 정책적인 인센티브제 도입이나 정부 사업 참여시 윤리기준 준수 기업에 대한 가점 부여 등을 제언했다.

또한 AI 윤리와 관련한 정책은 지능과 규제의 이분법적인 접근이 아닌 AI 기술발전 및 확산의 속도를 충분히 감안해서 균형잡힌 AI 윤리 정책 마련이 필요하다는데 방점을 찍었다.

제조기업 강국이 되는 그날까지, 공장자동화 스마트팩토리에 대한 뉴스를 기획·심층 보도하겠습니다.


0 / 1000
주제와 무관한 악의적인 댓글은 삭제될 수 있습니다.
0 / 1000




추천제품