[산업일보]
인공지능에 대해 학계에서는 2000년대 초반부터 인공지능의 의사결정권 등에 대한 논의가 시작됐고 최근 들어서는 미국 등 선진국을 중심으로 인공지능과 로봇의 상용화에 대비한 법·제도를 마련하는 움직임이 늘고 있다.
LG 경제연구원에 따르면 2007년 10월 13일, 남아공에서는 로봇 방공포가 갑자기 작동해 수십여 명의 사상자를 발생키긴 사고가 있었다. 인명 손실을 줄이고 정확성을 높이고자 도입된 로봇이 오히려 인명피해를 일으킨 주범이 돼버린 것이다.
최근 사고를 통해 드러난 심각한 문제는 각종 전자장비에 의한 전자기 신호 간섭, 소프트웨어 오류 등 익히 알려진 비정상적 원인으로 인한 오작동뿐만 아니라 제대로 만들어져서 정상적으로 작동하는 인공지능들조차도 사고를 일으킬 수 있다는 것이다. 이는 인공지능 또는 로봇이 스스로 결정할 수 있는 능력인 자율성을 갖추고 있기 때문이다.
이제는 인공지능의 적용 분야가 전문적인 영역에서 스포츠, 교통 등 일상적인 영역으로도 서서히 확대되고 있다. 과거에 비해 높은 수준의 자율성을 가지고 있으며 많은 정보를 인간보다 훨씬 빠르게 처리할 수 있기에 의사결정 과정에 인간이 개입할 여지가 줄고 있는 것이다.
현재 많은 전문가들은 자율적인 인공지능의 활동이 인간과 갈등을 빚는 공간이나 영역이 점차 늘어날 가능성이 있다고 본다. 인간과 인공지능뿐만 아니라 인공지능 간의 경쟁이나 충돌도 중요한 문제가 될 것으로 보는 전문가들도 많다.
이에 독자적으로 판단하고 행동하는 활동 범위를 확장해 나가는 인공지능을 어떻게, 그리고 얼마나 인간 사회의 각종 가치와 법칙을 존중하도록 설계할 것인가라는 문제도 점점 현안으로 부각되고 있다.
결국 관건은 자율성의 수준이다. 인간이 인공지능에게 자율적 의사결정권을 얼마나 부여해야 하는가라는 점이 핵심이 될 것이다.
자율성을 갖춘 인공지능에 대한 윤리적 논란은 과거에는 호기심과 논리적, 개념적, 학문적 차원에서 간헐적으로 다뤄졌지만 이제는 기업, 정부 등에 의해서도 활발하게 다뤄지고 있고, 법·제도 등 보다 구체적인 사안에 대한 논의로까지 확산되고 있다.
인공지능은 국가 경쟁력 측면뿐만 아니라 일자리 문제, 법·제도 관련 이슈, 윤리적 과제 등 다양한 숙제를 우리에게 동시에 던져주고 있다. 이러한 과제와 고민들은 결코 다른 나라의 문제나 호기심과 지적 사고의 유희적 문제가 아니라 현실 문제로 빠르게 다가오고 있다.