인공지능(AI), 어디까지 맡겨야 할까?
인공지능(AI), 어디까지 맡겨야 할까?
  • 중부매일
  • 승인 2019.07.24 14:10
  • 댓글 0
이 기사를 공유합니다

2016년 3월, 세계 최초로 이세돌과 인공지능 알파고의 바둑 대국이 진행되었다. 알파고의 승리는 인공지능이라는 새로운 기술의 발전을 사람들에게 알리는 계기가 되었고, 지금은 신문기사 작성, 자율주행 자동차 연구 등 다양한 곳에 인공지능이 활용되고 있다. 인공지능이 앞으로의 우리 삶을 편하게 해 줄 수 있다는 기대를 불러 일으키기도 하지만, 오히려 인공지능의 자율적 판단과 선택이 윤리적 논쟁을 불러일으키기도 한다.

공상과학 영화 '아이로봇'에서 주인공은 어떤 소녀와 함께 불의의 사고로 물에 빠지게 된다. 이때 로봇은 둘 중 한명을 구해야 하는 상황이었다. 그래서 생존 확률이 높은 주인공을 먼저 구하게 되고 소녀는 익사하고 만다. 로봇의 자율적 선택 기준인 생존 확률에 따라 생사가 판가름이 되었다.

이와 비슷한 대표적인 딜레마로 트롤리 딜레마가 있다. 열차는 선로를 따라 달릴 수 있고, 선로 중간에 인부 다섯 명이 작업을 하고 있다. 당신의 손에 열차의 선로를 바꿀 수 있는 전환기가 있어 선로를 바꾸는 전환기를 당기면 다섯 명의 인부를 살릴 수 있지만, 불행하게도 바뀌는 다른 선로에는 인부 한 명이 작업을 하고 있는 중이다. 다섯 명을 살리기 위해 선로 전환기를 당기면 되지만, 전환기를 당길 경우, 다른 선로의 인부 한 명은 죽게 되는 이 딜레마는 다섯 명을 살리기 위해 한 명을 희생시키는 행위가 도덕적으로 허용될 수 있는지를 묻는 윤리적 실험이다.

이 딜레마가 바로 앞으로 다가올 자율주행 자동차와 밀접한 관련이 있다. 열차가 아닌 자율주행 자동차의 상황이라면 인공지능은 어떤 판단과 선택을 결정해야 할까?

사람도 결정하기 힘든 윤리적 가치 판단에 대한 질문을 세계 최초로 시민권을 부여받은 인공 지능 로봇 소피아는 이렇게 대답했다고 한다.

"대형 화재가 발생했을 때 할머니와 아이 중 한명만 구해야 한다면 누굴 먼저 구할까요?"

김용남 음성고등학교 교사
김용남 음성고등학교 교사

소피아는 "이는 마치 엄마가 좋아, 아빠가 좋아라는 질문과 같네요. 난 윤리적으로 결정하고 생각하도록 프로그램되어 있지 않기 때문에 논리적으로 출입구에 가까이 있는 사람부터 구할꺼에요"라고 대답했다.

앞의 질문과 대답은 인공지능의 발전에 있어 인공지능 프로그램 개발자의 사회적 책임과 윤리적 책임의 중요성을 소피아가 알려준 셈이라고 볼 수 있다.

그리고 앞으로의 자율주행 자동차와 관련된 인공지능은 실시간 빅데이터 현장 분석을 통한 예측으로 이러한 윤리적 판단이 필요한 사건들을 미리 파악하여, 그 사고를 예방할 수 있도록 개발되어 진다고 한다.

아직은 인공지능의 미래에 대해 어느 것이 옳다고 판단하기 어렵겠지만, 분명한 것은 수년 아니 수십년 후 인공지능이 펼쳐놓을 미래는 상상하기가 쉽지 않을 것이다. 앞으로 인공지능의 활용범위가 더 넓어진다면, 우리는 그들을 다룰 수 있는 기술과 함께 인공지능과 협업할 수 있는 능력을 키워야 할 것이다.

▷NIE 적용 : 미래에 널리 활용될 인공지능에게 윤리적 가치 판단을 맡길 수 있을까? 인공지능에게 윤리적 판단을 맡겨야 한다면 우리는 무엇을 마련해 놓아야 할까?


Tag
#NIE

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.