“50년 후 우리 후손들이 공정한 사회에서 살 수 있을까? 답은 인공지능(AI)에 달려있다”
26일 과학기술정보통신부(이하 과기정통부)와 한국지능정보사회진흥원이 ‘인공지능의 위험성 판단과 법적 과제’를 주제로 개최한 ‘제4차 인공지능 법제정비단 공개발표회’에서 카이스트(KAIST) 기술경영전문대학원 김병필 교수가 이같이 말했다.

‘인공지능 기술의 위험 동향’으로 발표한 김병필 교수는 사회 많은 영역에서 널리 활용되고 있는 인공지능이 기회 균등의 문제, 소수 집단에 대한 편향적 사고 등을 심화할 수 있다고 지적했다.
그는 “일부 공학자들은 인공지능을 ‘우리 사회를 비추는 거울’이라고 보기도 한다”며 “현실의 불공정한 측면을 인공지능이 학습데이터로 계속 활용한다면, 공정한 사회를 만드는 것이 오히려 더 어려운 방향으로 나아갈 수 있다”고 주장했다.

대표적으로, 빅테크 기업인 아마존에서 개발했던 채용 인공지능이 여성 지원자들에 대해 부정적인 영향을 끼치도록 편향적으로 동작한다는 사실이 밝혀져 해당 프로젝트가 폐기된 사례가 있다.
그 외 재범 위험도를 예측하는 인공지능이 인종별로 차별을 두는 등 불공정에 대한 문제 제기가 이뤄지고 있다는 것이 김 교수의 설명이다.
김 교수는 “공정한 인공지능을 만들어야 공정한 사회로 나아갈 수 있다”며 “인공지능이 제기하는 위험성에 더 관심을 가져야 한다”고 강조했다.
한편, 과기정통부 주관으로 구성한 인공지능 법제정비단은 인공지능에 관련한 법·제도·규제 이슈를 연구하는 전문가 협의체다.