[산업일보]
AI(인공지능)가 판사, 배심원, 사형집행인의 역할을 대체한다. 데이터만을 근거로 피고의 유·무죄를 판단하는 AI 판사에게 90분 안에 무죄를 입증하는 증거를 찾아 소명하지 못하면 즉시 사형이 집행된다.
2월 초 한국에서 개봉한 영화 ‘노 머시: 90분(원제 ‘Mercy’)’은 이러한 설정을 바탕으로 전개된다.
영화의 배경은 2029년 미국으로, 정부는 늘어나는 강력범죄의 대응책으로 AI 사법 시스템 ‘머시’를 도입한다.
머시는 도시 클라우드의 CCTV·경찰 기록부터 개인 스마트폰, SNS 등 광범위한 데이터를 수집·분석해 대상자의 유죄지수를 판단하고, 92%를 넘으면 사형 대상자로 분류한다. 범인으로 지목된 피고는 90분 안에 데이터를 뒤져 유죄지수를 92% 밑으로 낮춰야 한다.
영화의 주인공 형사 ‘레이븐’은 기껏 범인을 검거해도 부정확한 인간 판사의 판단으로 풀려나는 사법시스템에 환멸을 느껴 머시 제작을 도왔다. 시스템 도입 이후 그가 머시 재판대에 세운 18명의 용의자 모두 사형 처분을 받으면서 머시에 대한 여론의 신뢰도는 높아졌고, 범죄율은 감소했다.
영화는 레이븐이 아내 살해 혐의로 머시 재판 의자에 결박된 채 AI 판사 ‘매독스’ 앞에서 음주 후의 정신을 차리는 것으로 시작한다. 매독스는 평소 레이븐이 알코올중독에 빠져 폭력성을 드러낸 전력이 있고, 아내가 집에서 살해된 채 발견될 때까지 방문한 사람은 레이븐뿐이었다는 점을 지목한다. 더불어, 알코올중독 치료 이후 레이븐이 최근 다시 술을 마시고 있던 사실을 아내가 알게 돼 부부 갈등이 이어지고 있었다는 정황을 근거로 그의 유죄지수를 97.5%로 판단한다.
그는 말다툼이었을 뿐 아내를 살해하지 않았다고 주장하지만, 매독스는 “모든 피고인은 거짓말을 한다는 것을 학습했다”라며 명확한 데이터로 무죄를 입증할 것을 요구한다.
레이븐은 다양한 데이터를 뒤지고 동료 경찰의 도움을 받아 사건을 조사하지만 아내의 불륜 상대, 그를 향한 불만을 쏟아내는 딸의 비밀 SNS 계정 등의 디지털 흔적은 오히려 레이븐의 강력한 살해 동기를 입증하며 유죄지수를 높여만 간다. 그는 감정을 배제하고 확률과 데이터로만 판단하는 AI의 판결을 뒤집을 수 있을까?
영화 속 머시는 도시 인프라와 더불어 시민 개개인의 디바이스를 활용해 수집한 데이터를 기반으로 정확한 용의자를 특정할 수 있다는 것을 전제로 한다.
현실에서 머시와 같은 시스템을 도입한다고 하면, AI가 활용하는 데이터의 ‘완전 무결성’이 성립할 수 있는지가 관건일 것이다. 아무리 CCTV가 촘촘하게 깔려있다고 하더라도 사각지대가 존재하기 마련이며, 수사 기록은 여전히 사람의 몫이기 때문에 휴먼오류가 발생할 가능성이 있기 때문이다. AI의 판단은 객관적일지 몰라도, 입력된 데이터까지 객관적이라는 보장이 없다는 것이다.
영화에서도 레이븐의 동료 경찰은 머시의 성공적인 도입을 위해, 첫 번째 용의자가 범인이 아닐 수도 있음을 나타내는 증거를 빼돌려 폐기하는 증거조작을 벌인다. 이는 사용자의 의도에 따라 얼마든지 AI와 시스템이 오염될 수 있음을 시사한다.
또한, 영화에서 묘사된 머시는 공정한 재판으로 보기 힘들다. 피고가 범인이 아님을 스스로 입증해야 하는 ‘유죄추정’ 구조뿐만 아니라, AI를 다루는 스킬을 갖추지 못한 무고한 사람을 사형시킬 위험도 있다. AI·빅데이터 전문가를 조력자로 제공해 피고가 원하는 데이터를 찾을 수 있도록 보완이 필요하다.
유죄지수가 92%가 사형 기준이라는 것도 문제가 될 만한 요소다. 통계적으로는 높은 수치일지 몰라도, ‘90분 후 즉시 사형’이라는 돌이킬 수 없는 극단적인 처벌에 걸맞은 기준인지 사회적 합의가 선행돼야 한다.
기술은 인간의 오류를 줄이고 효율성과 정확성을 약속한다. 그러나 기술을 올바르게 통제하고 책임져야 하는 주체는 결국 인간과 사회여야 한다. 우리는 어디까지 기술에 위임할 것인가. AI 시대가 본격화되는 이때, 그 경계를 명확히 하고 제도와 책임 구조를 함께 갖춰야 한다.