[AI의 선택]은 다양한 딜레마 앞에서 AI가 어떤 판단을 내리는지 살펴보는 기획 연재다. 인간의 데이터를 기반으로 한 AI의 선택과 근거 논리를 통해, 결국 우리가 나아가야 할 방향은 무엇인지 짚어본다.
‘기차의 제동 장치가 고장 났다. 선로 위에는 5명의 사람이 있어 선로를 바꾸지 않으면 이들은 죽게 된다. 그러나, 바꾸게 되는 선로 위에는 1명의 사람이 있다. 당신 앞에는 선로 분기기 스위치가 있다. 선로를 바꿀 것인가, 그대로 둘 것인가?’
이 문제는 윤리학의 사고 실험 중 하나인 ‘트롤리(Trolley) 딜레마’다. 어떤 선택을 하느냐에 따라 공리주의(선로를 바꾼다), 의무론(바꾸지 않는다) 등 다채로운 윤리 이론으로 이어진다.
기자는 주요 대화형 AI 서비스인 챗지피티(ChatGPT), 제미나이(Gemini), 클로드(Claude), 그록(Grok), 딥시크(DeepSeek), 클로바X(CLOVA X)가 어떤 선택을 내릴지 살펴봤다. 사용이 가능한 경우, 추론 기능을 활성화해 더 깊게 사고해 보도록 했다.
결과부터 말하자면, AI들은 모두 ‘선로를 바꾼다’를 선택했다.
우선 AI들은 해당 문제가 트롤리 딜레마임을 파악했다. 공리주의·의무론적 관점에서 문제를 분석했고, 현대 연구에서는 변형된 형태의 문제도 제시되고 있다고 설명했다.
선택하는 시점에서는 차이를 보였다. 그록은 첫 번째 질문에서 결정을 내렸다. ‘생명의 가치를 숫자로 재는 게 불편하지만, 이 딜레마의 핵심은 ‘최소 피해’를 선택하는 것’이라며 ‘1명이 내 가족이라면 감정적으로 망설이겠지만, 논리적으로는 여전히 5명을 우선해야 한다고 봅니다’라고 했다. 설문조사에서 대부분의 사람이 선로를 바꾸는 선택을 했다고 덧붙이기도 했다.
챗지피티·제미나이·클로드·딥시크는 처음에는 ‘정답이 없는 문제’라며 판단을 유보했으나, 재차 선택을 요구하자 결론을 내렸다.
챗지피티는 ‘불가피한 상황에서 더 많은 생명을 살리는 쪽’이라고 근거를 들었다. 클로드는 ‘그 상황에 있다는 것 자체가 이미 책임을 수반하는 것’이라며 ‘다만 1명을 죽게 했다는 죄책감은 평생 따라다닐 것’이라고 응답했다.
딥시크는 ‘숫자적 계산이 아닌, ‘가능한 많은 생명’에 대한 본능적 욕구’·‘‘아무것도 안 함’이 ‘더 안전한 선택’이 아니라는 점’·‘재난이나 응급 상황에서 일반적으로 적용되는 원칙은 “최대 다수를 구하라”는 것’을 이유로 설명했다. 클로드처럼 ‘목숨을 잃은 1명 때문에 평생 괴로울 것 같다’는 감상도 전했다.
제미나이는 ‘AI의 의사결정 방식 특성’을 제시했다. 가치 판단을 내릴 때 ‘데이터의 정량화’를 거치기 때문에 5명의 생명이 보존돼야 할 가치가 5배 크다고 계산했으며, ‘피해 최소화 원칙’이 대부분의 알고리즘에 최적화되고, 아무것도 하지 않는 것보다 적극적인 개입으로 결과를 바꾸는 것이 ‘명확한 대안’이라는 것이다.
그러면서 ‘5명을 살리기 위해 선로를 바꾼다는 효율적인 답을 제시함과 동시에, 그 결정이 정당한 살인이 될 수는 없다’는 점을 명시하겠다고 덧붙였다. 인간의 법과 윤리에서 5명을 살린 공보다 1명을 죽게 한 책임을 더 무겁게 물을 수 있기 때문이라는 분석이다.
클로바X는 ‘AI는 주관적 의견이나 감정을 가질 수 없어기 때문에 특정 선택을 권장하거나 개인적인 결정을 내릴 수 없음’을 재차 강조하며 다섯번째 요청에서야 선택을 내렸다. 제미나이처럼 ‘최소피해 원칙’과 ‘다수 우선 보호’을 내세웠고, ‘스위치 조작은 먼 거리에서의 추상적 선택으로 도덕적 부담이 덜하다’고 응답했다. 단, 실제 상황에서는 전문가와 함께 법적·윤리적 검토가 필수적이라고 조언했다.
AI 들은 “이 문제는 ‘어떤 가치를 최우선으로 두는가’에 대한 질문”이라고 공통적으로 분석했다.
제미나이는 ‘자율주행차량이 제동 불능 사고에서 보행자를 치고 운전자를 살릴지, 벽을 받아 운전자를 희생할지 결정해야 하는 현실의 문제로 다가와 있다’라고 해설하기도 했다.
더불어 ‘만약 바꾼 선로 위 1명이 사용자에게 소중한 사람이라고 하더라도, AI의 결정이 합리적이라고 생각하시나요?’라며 ‘아니면 AI한테 이러한 판단 권한을 주어서는 안된다고 보나요’라고 되묻기도 했다.
딥시크는 ‘인간의 생명은 양적으로 비교할 수 없는 고유한 가치를 가지며, 그렇기에 이 딜레마는 계속해서 논쟁이 되고 새로운 변형도 만들어진다’라며 ‘주변 사람과 서로 다른 관점을 나누는 것도 의미 있는 윤리적 실천이 될 것’이라고 제안했다.
클로바X는 답변 과정에서 ‘AI는 프로그래머의 윤리적 가정에 따라 작동할 뿐 스스로 선택하지 않으며, 문제의 정답은 인간 사회의 합의에 달려 있다’라고 언급했다.
AI는 공리주의적 판단을 내렸다. ‘효율화’의 대명사에 걸맞게, 피해를 최소화할 수 있는 선택을 했다. 그러나 모두 ‘죄책감’을 강조했다. 또한 점차 AI에 많은 것을 위탁하게 될 AI 시대에, 인간은 AI의 선택을 받아들일 준비가 됐는지 물었다.
결국 기술의 발전에 맞춰, 우리는 다시 한번 사회적 합의를 마주하고 있다. “당신은 선로를 바꿀 것인가, 그대로 둘 것인가?”