1980년대 등장한 인공지능이 1세대였다면 알파고와 같이 딥러닝을 기반으로 한 인공지능은 2세대라고 할 수 있다. 앞으로 등장할 3세대 인공지능은 인간의 인지능력을 최대한 구현할 것이다. 일론 머스크나 스티브 호킹과 같은 과학자들은 인간의 통제를 벗어난 인공지능이 터미네이터처럼 인류에게 재앙을 가져올지도 모른다고 경고하고 있다. 이글에서는 인공지능이 갖추어야할 윤리적인 기준과 인공지능이 윤리학을 배우는 방법에 대하여 살펴보기로 한다.

영화 <아이, 로봇> 스틸컷.

인공지능은 실패할 수 있다

인공지능은 완벽하지 않다. 필자는 작년 도쿄 긴자의 소트프뱅크 전시장에서 말하는 로봇 페퍼를 살펴본 적이 있다. 귀여운 목소리로 답을 하는 페퍼도 아직은 인간의 음성을 완벽하게 인식하지 못하고 가끔씩은 엉뚱한 답변을 내놓는다. 말로 하는 ARS는 한국에 도입되기 전에 미국에서 훨씬 보편화되었다. 하지만 조금만 발음을 잘못해도 이내 "I can't hear you”라고 말하며 알아들을 수 없다고 반문하곤 했다.

알파고가 2년전 바둑에서 이세돌 9단을 4:1로 이겼지만 한번은 인간에게 패했다. 물론 더욱 향상된 알파고-1는 작년 커제9단을 완벽하게 이겼다. 알파고가 이제는 바둑에서 사람을 가볍게 이길 수 있게 되었지만 인공지능의 합리적인 결정에는 여전히 실수가 있을 수 있다. 구글 등은 사진 판독을 위하여 이미 인공지능에게 900만장 이상의 사진을 학습시켰다. 그리고, 사람은 10만장 이상의 그림에 대하여 직접 라벨링을 하면서 인공지능에게 개인교습을 하였다. 그렇지만 사진을 인식하는 구글포토즈는 흑인여성을 고릴라라고 판독하는 실수를 범했다. 뉴욕의 경찰은 2002년부터 2012년까지 440만명을 불신검문을 했는데, 인구의 절반인 흑인이나 히스패닉은 83%나 검문을 당했다. 그런데, 벌써부터 인공지능이 인종주의자가 될 가능성에 대한 경고들이 쏟아져 나오고 있다. 인공지능이 학습을 하는 과정에서 인간의 선입견을 배운다면 인공지능이 또 다른 오류를 범할 수 있기 때문이다.

인공지능을 구성하는 한가지 방법인 딥러닝은 아직 안정적인 과학에 근거하지 못하고 있다. 일부 인공지능은 그 결정과정을 설명할 수 없는 블랙박스 시스템을 가지고 있다. 그래서, 딥러닝 기술이 의사결정철학이나 공상과학소설에 기반을 두고 있다는 비판까지 나온다. 물론 최근에 등장하는 인공지능이나 네트웍 로봇은 클라우드 시스템으로 서로 연결되고 소통하면서 다양한 사람들과 대화하면서 매일매일 지능을 향상시키고 있다. 인공지능의 흠결은 인간의 노력으로 개선될 수도 있겠지만, 인공지능이 제작자의 의도를 벗어난 결정을 내릴 가능성은 여전히 배제할 수 없다. 이러한 문제 때문에, 유럽연합의 개인정보보호법인 GDPR은 자동화된 의사결정에 대하여 설명을 요구할 권리를 규정하기도 했다.

 

필리파 풋의 고장난 전차문제

한국의 거리와 고속도로에는 이미 자율주행자동차가 등장했다. 그런데 자율주행자동차가 보편화되기 이전에 자동차에 탑재된 알고리즘이 도덕적인 딜레마 문제를 해결하도록 하여야 한다. 만약 자율주행자동차가 “1명의 탑승자를 희생시키고, 보행자 5명을 보호해야할 것인가?”아니면 “보행자 5명이 희생되더라도 탑승자 1명을 보호해야 하는가”라는 문제를 결정하는 극단적인 상황에 빠지는 것을 가정한다면, 인공지능은 모두가 공감할 수 있는 판단기준을 가지고 있어야 한다.

도덕적 딜레마의 문제에 대하여, 영국에서 1920년에 출생한 여성철학자 필리파 풋은 1967년에 이미‘고장난 전차’라는 훌륭한 논의의 도구를 제공했다. 고장난 전차의 1번째 문제는 “질주하는 전차에 고장이 생겼고, 그대로 진행하면 5명이 죽는다. 그런데 마침 당신은 선로전환기 옆에 있고 이것을 가동하면 때마침 다른 선로를 지나는 1명이 대신 죽는다. 당신은 선로전환기를 가동하겠는가?”라는 문제이다. 고장난 전차의 2번째 문제는 “당신은 선로와 교차하는 다리위에 서 있다. 무거운 물체를 떨어뜨리면 5명이 타고 있는 고장난 전차의 질주를 막을 수 있다. 그런데, 마침 무거운 물체는 다리위의 뚱뚱한 사람 1명 이외에는 다른 것을 찾을 수 없다. 여러분이라면 그 사람을 밀어서 떨어지게 하겠는가?”라는 것이다.

하버드대 심리학자였던 마크 하우저가 수행한 위의 고장난 전차와 관련된 실험결과를 살펴보면 희생자의 숫자는 같지만 1번째 질문에는 무려 89%의 응답자가 “선로전환기를 돌리겠다”고 답을 하였으나 두번째 질문에는 응답자의 겨우 11%만이 “뚱뚱한 사람을 밀어서 전차를 멈추겠다”고 하였다고 한다. 하우저에 따르면 인공지능이 아닌 일반 사람들도 무려 70%가 판단에 대한 명백한 기준을 제시하지 못하였다고 한다. 이러한 가상적인 상황이 벌어진다면 인공지능도 적지 않게 당황할 수밖에 없다. 그래서 인공지능이 보편화되기 이전에 충분한 사회적 논의를 거쳐 판단의 기준을 정할 필요가 있다.

 

아시모프의 로봇 3원칙

아시모프는 1920년 구소련지역에서 태어난 유대인이다. 그는 일찍이 “과학이 어떻게 윤리적으로 사용되어야 하는가”에 대한 질문을 던졌다. 그는 1940년 로봇의 위험성에 대하여 예측하였고 유명한 로봇3원칙을 제시하였다.

로봇3원칙 중 제1원칙은 “로봇은 인간에게 해를 입혀서는 안 되며, 위험에 처한 인간을 모른 척해서도 안 된다는 것”이다. 제2원칙은 “제1원칙에 위배되지 않는 한 로봇은 인간의 명령에 복종해야 한다.”이다. 그리고 제3원칙은 “제1원칙과 제2원칙에 위배되지 않는 한 로봇은 자신을 지켜야 한다는 것”이다. 아시모프의 로봇3원칙은 로봇공학에 있어서는 선구적이었지만 로봇으로 야기되는 모든 문제에 대하여 명확한 답을 제시하지 못한다.

어떤 경우가 인간에게 해를 입히는 것인지, 인간 중 누구의 명령에 복종해야 하는지, 로봇이 1원칙보다 스스로 3원칙을 강조하는 경우에는 그 로봇을 어떻게 처리해야 하는지에 대한 추가적인 논의가 제기된다. 미래에 등장할 휴머노이드 로봇의 경우 외관상 인간인지를 파악하는 것마저 쉽지 않아, 별도의 식별 부호를 가지도록 할 필요성마저 제기된다.

 

인공지능에게 윤리학 가르치기

아직 로봇3원칙은 영화나 소설의 소재가 될 뿐이며, 한국법이나 국제법으로 강제되는 것은 아니다. 국제전기전자학회(IEEE)는 2016년‘윤리적 기준을 준수하는 디자인’이란 문서를 발표하여, 인공지능이 가져야할 윤리에 대한 기준을 제시했다. IEEE의 기본원칙은 “인공지능은 첫째, 인류가 가진 인권의 보편적인 가치를 내재하고 있어야 하며, 둘째, 인간과 자연이 최상의 혜택을 누리도록 작용하여야 하며, 셋째, 사회적 기술시스템으로서의 인공지능이 야기할 수 있는 부정적인 영향을 완화하도록 설계되어야 한다”는 것이다. 이미 인공지능은 윤리학에 관하여 새로운 논문을 작성할 정도로 빠르게 발전했다. 구글이 인수한 딥마인드는 이미 사생활의 평온, 투명성, 공정성, 경제적 영향, 소속감, 평등 등 인류가 형성한 윤리적인 과제를 학습하고 있다. 이제는 인류가 “인공지능들이 이미 윤리를 배우기 위하여 부단한 노력을 하고 있다”는 사실을 인지하고 인공지능이 올바른 방향으로 윤리학을 학습을 하도록 성실히 지도하고 인공지능을 적절히 훈련시켜야 한다.

로봇이나 인공지능에게 윤리학을 가르치는 것에 대하여는 다양한 접근법이 논의되고 있다. 먼저 인공지능이 법률이나 판례와 같이 인간들이 내린 판단 기준을 학습하도록 하는 방법을 생각할 수 있다. 그러나 윤리는 법보다는 넓은 개념이고, 법률이나 판례가 모든 문제를 해결할 수 없으므로 위에서 언급한 고장난 전차문제 등에서는 공리주의와 같은 큰 원칙을 알려줄 필요도 있다. 때로는 인공지능은 인간보다 더 빠른 사고를 할 수 있다. 인공지능이 다양한 경우의 수를 짧은 시간에 계산하여 누구에게 어떤 권리를 주는 것이 바람직한지 이익과 손해를 비교한 후 최적의 값을 찾는 방법도 검토될 수 있다.

 

인공지능이나 로봇에게 인격을 부여할 것인가?

실제로 오드리햅번을 본따서 만든 휴머노이드 로봇인 소피아는 사우디아라비아의 시민권을 획득했다. 소피아는 62개의 표정을 구사하도록 만들어졌는데, 사람과 대화를 하면서 계속하여 진화하고 있다. 로봇이 이민 시민권을 부여받은 이상, 법인격을 부여받는 것도 머지않아 이루어질 것이다. 로봇에게 행위능력이 부여된 경우, 인공지능은 계약의 주체가 될 수 있고, 계약을 이행하고, 세금을 납부하게 될지도 모른다.

현재 70억 인구가 풍족하게 살기위해서는 약 30억개의 일자리가 적절하다. 하지만 시중에는 12억개의 일자리만이 남아있다. 전세계적으로 18억개의 일자리가 부족하다고 추정할 수 있는데, 인공지능과 로봇이 일자리를 대체할 경우 인류의 일자리는 더욱 부족하게 된다. 그래서, 실직자들이나 사회적 약자에게 적절한 복지를 제공하기 위하여 경제활동에 참가하는 로봇에게 세금을 거두어야 한다는 주장은 더욱 설득력을 얻고 있다. 한편, 한국의 경우 2020년이 되면 독신가족이 무려 590만 가구에 육박하게 된다. 재산을 상속할 가족이 없는 독신자들에게는 유언으로 인공지능을 가진 애완용 로봇이 재산을 상속받는 것도 상상할 수 있다.

위에서 살펴본 것처럼 인공지능은 완벽하지 않고, 인공지능의 결정은 인간의 알고리즘으로 설명하지 못하는 경우가 존재한다. 그러므로, 의사결정이나 문제해결에 인공지능을 도입하고자 할 경우, 인공지능기법과 비인공지능기법을 모두 평가하고 합리적인 방법을 선택하여야 한다. 또한 수많은 사람들이 인공지능에 대하여 가진 막연한 불안감을 해소하기 위해서는, 인공지능이 사람들조차 쉽게 판단을 내리지 못하는 어려운 문제들에 대한 명백한 답안을 제시하도록 사회적 합의를 형성할 필요도 있다.

 

필자 약력

- 서울대학교 법과대학 졸업

- 대우그룹 회장비서실

- 안양대학교 평생교육원 강사

- (주)명정보기술 산호세법인 근무

저작권자 © 이코리아 무단전재 및 재배포 금지