[산업일보]
인공지능(AI)을 향한 사회의 기대치는 날로 높아져 가고 있지만, 이와 동시에 AI에 대한 불안도 함께 증폭하고 있다. AI가 인류의 ‘믿을 수 있는 도구’로 자리하기 위한 핵심이 ‘설명가능성 확보’에 놓여있다는 주장이 제기됐다.
17일 여의도 중소기업중앙회관에서는 한국미래기술교육원(KECFT)주최의 ‘2020 AI 레볼루션 컨퍼런스’가 진행됐다.
설명가능한 AI는 XAI(eXplainable AI)로 일컬어진다. AI가 내린 결정에 있어, 그 근거를 파악할 수 없다면 AI는 위험한 시한폭탄에 불과하다. 한국과학기술원의 유보선 박사는 달파(DARPA)의 자율주행 기술 개발 과정을 언급하며 XAI의 필요성을 강조했다.
유 박사는 2005년과 2017년의 달파 자율주행 기술 관련 영상을 제시했다.
유 박사가 제시한 영상 속 2005년 달파의 자율주행 운송장치는 “민망할 정도”라는 평을 받을 만큼 장애물을 거의 인식하지 못하는 수준에 해당했다. 2017년, 해당 기술은 상당히 발전한 모습으로 우리 곁에 다시 다가왔다. 자율주행 시대가 눈앞에 도래한 듯 보였다.
하지만 불행하게도 2018년, 우버(UBER) 자율주행차로 인한 사망 사고가 발생했다. 유 박사는 “그 누구도 이 사고의 원인을 파악할 수 없었다”라고 말했다. AI가 설명 가능성을 확보해야만 하는 이유다.
‘Semantic Segmentation’은 자율주행 분야에서 필수적이자 핵심적인 기술이다. 인식한 이미지로부터 도로와 나무, 장애물 등을 파악해 구별하는(Segmentation, 분할) 작업을 뜻한다. 이 과정에서 AI의 비주얼 메이킹에 대한 판단 근거를 정확히 안다는 것은 AI의 신뢰도를 확보한다는 점에서 절대적이다.
“AI의 개발 방향은 향후 Semantic Segmentation 기술을 수행할 때 설명 가능한, 판단의 근거를 찾을 수 있는 XAI를 향해 나아가야 한다”라고 주장한 유 박사는 “XAI의 기본 기술인 LRP(Layer-wise Relevance Pr LRP의 단점을 개선한 RAP(Relative Attribution Propagation)에 중점을 둔 연구를 진행 중에 있다”라고 말했다.
최수린 기자 sr.choi@kidd.co.kr