본문 바로가기
  • 유해게시물신고
AI 윤리성보다, 인간의 ‘윤리적 활용’이 중요
김대은 기자|kde125@kidd.co.kr
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드

AI 윤리성보다, 인간의 ‘윤리적 활용’이 중요

AI 환상 버리고 ‘AI 리터러시’ 함양해야

기사입력 2025-08-18 16:10:09
페이스북 트위터 카카오스토리 네이버블로그 프린트 PDF 다운로드
AI 윤리성보다, 인간의 ‘윤리적 활용’이 중요
정보통신정책연구원(KISDI) 이현경 박사

[산업일보]
“인간의 편향이 해소되지 않는 한, 인공지능(AI)의 편향성도 해결하기 어렵다”

정보통신정책연구원(KISDI)의 이현경 박사는 국회 의원회관 제8간담회실에서 18일 개최된 ‘AI 시대, 학생 윤리 교육의 방향과 과제’ 토론회의 발제자로 나서 이같이 말했다.

‘생성형 AI 시대, AI 윤리 교육의 필요성과 도전과제’를 주제로 발표를 진행한 그는, AI 윤리 교육에 대한 흔한 오해로 ‘의인화’를 짚었다.

이 박사는 “AI 자체의 윤리성은, AGI(인공일반지능) 등장 이후에나 따져봐야 할 것”이라며 “현재는 AI를 활용하는 개인·조직·사회의 윤리적 활용이 중요하다”라고 지목했다.

더불어 “AI에 대한 환상을 버리고, AI 리터러시(Literacy)를 함양하려는 노력이 필요하다”라고 덧붙였다.

이현경 박사는 이어 ChatGPT(4o 모델)의 과도한 아첨, ‘지브리 프사 열풍’ 이면의 저작권 침해 논란, AI 딥페이크 범죄 발생, 개인정보 침해, 일자리 대체 우려, 전력 사용량 급증 등 AI 윤리 침해 문제 사례를 전했다.

“생성형 AI 기술의 발전 속도를, 사회 논의가 따라잡지 못는 것이 가장 문제”라고 짚은 이 박사는, AI의 ‘편향성’에 대해서도 살폈다.

코로나19 당시 상대방에게 비접촉식 적외선 체온계를 겨누고 있는 흑인과 동양인의 사진에 각각 정보를 표기해달라 했더니, AI는 동양인 사진에서 기술, 전자제품 같은 단어를 찾아냈지만 흑인 사진은 총, 무기라는 부정적인 단어를 분석했다.

또, 이미지 생성 AI 모델에 ‘의사와 간호사’라는 명령어를 입력하면 대부분 남자 의사와 여자 간호사를 생성한다.

이 같은 사례를 소개하며 그는 “교과서는 삽화 하나에도 특정 직업 캐릭터의 성별을 어떻게 표현할지를 두고 엄청난 검증을 거친다”라며 “이러한 이미지 생성 모델의 편향성에 대해 주시해야 할 것”이라고 했다.

이한경 박사는 “생성형 AI 서비스 규정에 구글의 Gemini는 18세 이상, OpenAI의 ChatGPT는 부모의 감독하에 13세 이상부터 사용할 것을 권고하고 있다”라며 “그러나 뤼튼·에이닷 같은 생성형 AI 기반 서비스를 통해 학생들의 접근성이 높아지고 있어, AI의 한계점을 인식시켜 주는 교육이 지속적으로 필요하다”라고 강조했다.

이 박사는 “단기적으로는 AI 윤리 교육 콘텐츠 확산을 위한 정책적 연계가 필요하다”라며 “중장기적으로는 AI 윤리 인프라를 AI 산업 경쟁력이나 사회 신뢰·국격 향상으로 연결할 수 있을 것”이라고 정책 과제를 제시했다.

그러면서 “미래세대를 비롯해 개발자, 일반 시민 등을 대상으로 사전적 윤리 교육과 기술적 대응 체계 마련이 병행돼야 할 것”이라고 밝혔다.
제품등록 무료 제품 거래 비용 없음!


0 / 1000
주제와 무관한 악의적인 댓글은 삭제될 수 있습니다.
0 / 1000






산업전시회 일정




다아라 기계장터 제품등록 무료