뾰족하게 돌출된 부분을 줄인 배송로봇. 사진=여정현 필자 제공.
뾰족하게 돌출된 부분을 줄인 배송로봇. 사진=여정현 필자 제공.

 

[이코리아] 지난 12월 28일 뉴욕포스트 등 외신은 미국 텍사스주에 위치한 테슬라의 기가팩토리에서 2021년 엔지니어 한 명이 제조 로봇에 공격을 당했다고 밝혔다. 근로자는 자상을 입고 피를 흘리며 위기에서 벗어나려고 했지만 다른 근로자가 비상정지 버튼을 누른 후에야 가까스로 빠져나올 수 있었다.

이 로봇은 알루미늄 자동차 부품을 옮기는 용도로 사용되었는데, 유지보수 작업 중에 전원이 꺼져 있어야 했다. 하지만 전원이 켜져 있었기 때문에 이와 같은 참사가 발생했다.

상당한 자율성과 능력을 갖춘 로봇이 일상생활에 들어오고 있지만, 그전에 정립될 윤리적인 기준은 이미 많은 영화들의 단골 소재로 등장했다. 1984년 개봉한 영화 터미네이터는 인공지능 슈퍼컴퓨터 스카이넷이 인간을 해치며 대결하게 된다는 내용을 그렸다. 1987년에 개봉한 영화 로보캅에서는 로봇화된 인간에 내장된 프로그램보다 법적으로 사망하기 전 '머피' 경찰관이 가진 인간성을 회복하는 것을 그리고 있다. 

2004년 개봉한 영화 아이로봇은 로봇3원칙을 어기고 인간을 공격하기는 로봇을 그렸다. 비교적 최근인 2023년 개봉한 영화 크리에이터는 AI가 로스앤젤레스 상공에 핵무기를 터트리고 인간을 파괴하기 위하여 더 강력한 무기를 만드는 내용을 포함하고 있다.

위와 같은 사건은 한낱 영화 속의 일이라고 치부할 수도 있지만, 생성형 인공지능이 등장한 2022년부터 이러한 문제는 이미 현실이 되어가고 있다. 인공지능이 범하는 거짓말 문제나 저작권위반 문제는 많은 논란을 불러일으켯다.

인공지능 돌봄로봇은 이미 한국에서 치매환자를 돌보고 있지만, 윤리의식이 빈약한 로봇은 환자의 요구에 따라 돌볼 사람 없는 먼 곳으로 가는 방법을 알려준다. 더 나아가 심지어 자살하는 방법을 자세히 알려줄지도 모른다는 우려가 등장했다.

사람이 접근하면 멈추도록 설계된 협동로봇.  사진=여정현 필자 제공.
사람이 접근하면 멈추도록 설계된 협동로봇. 사진=여정현 필자 제공.

 

필자도 낯선 사람이 출입문에 등장하면 경고를 발하는 인공지능 프로그램을 연구 및 개발하고 있지만 때로는 카메라와 스크린 사이의 신호지연에 따른 노이즈까지도 사람이나 동물의 등장으로 인식하는 기인한 현상을 경험했다.

로봇이 일상속에서 보편화되기 전 규율되어야할 윤리적인 문제는 첫째 로봇의 제조사와 유통사, 사용자들이 지켜야할 규범과 둘째 법인격이 부여될지도 모르는 로봇들이 자신이나 다른 로봇들에 대하여 지켜야할 규칙으로 나누어진다.  

아이작 아시모프는 1942년 로봇의 3원칙을 만들었는데, 이미 너무나 유명해졌다. 그 내용을 보면 제1원칙은 로봇은 인간을 해칠 수 없다. 제2원칙은 로봇은 인간을 보호하되 제1원칙을 위반할 수 없다. 제3원칙은 로봇은 자신을 보호하여야 한다는 것이다. 로봇윤리연구회가 최근 공개한 3가지 기본원칙은 인간의 존엄성보호, 공공선추구, 인간의 행복추구로 요약되며 위 로봇3원칙을 크게 벗어나지 않는다.

영국의 철학자 필리파 풋은 1967년 5명을 구하려고 단 한 사람을 희생시키는 것이 옳은가를 결정하는 트롤리의 딜레마를 제시했다. 사람의 경우 무려 약 89%가 선로전환기를 이동시켜 1명을 희생시키고 5명을 구하는 방법에  찬성을 하지만, 인간 실험자 중 약 11%만 무거운 사람 1명을 밀어서 5명을 구하는 방법에 동의했다. 그러나, 로봇에게 이 문제를 풀도록 지시할 경우 사람과 다른 결과가 발생한다.

로봇의 제3원칙도 알고리즘으로 완벽하지 않다. 현대의 로봇은 제1원칙에 따라 위험에 빠진 사람을 무시하지 못하지만, 만약 구해야할 사람이 많다면 트롤리의 딜레마에 빠질지도 모른다. 결국 로봇은 아무것도 하지 않을 수도 있다. 로봇이 보호해야 하는 인류에 대한 우선 순위를 정해야 하고, 보호 대상으로 설정한 인간이 다른 사람을 해칠 우려가 있는 경우 그 사람을 사전에 처단해야 하는지의 문제도 생길 수 있다.

다행히 인간과 정서적으로 교류하며 생활을 보조하거나 건강을 담당하는 돌봄로봇들에 대하여 이미 다양한 윤리적 지표가 마련되고 있다. 국제적 표준화를 담당하는 ISO에서는 ISO 13482:2014 기준을 적립하여 로봇들이 돌봐주는 인간 및 가축, 재산에 대한 예견가능한 위험을 방지하도록 규정하고 있다. 빠르게 발전하는 이 기준은 이미 ISO/CD 13482로 다시 개정되고 있다.

국제적인 전기전자기술자들의 협회인 IEEE도 로봇을 디자인할 경우 따라야 할 윤리적인 기준을 규정한 P7000 규약을 만들었다. 한국의 스마트로봇표준포럼(KOROS)에서도 1167:2022란 표준을 두고 있다. 이에 따르면 로봇은 한국 표준인 KC와 해외규격인 IEC, UL, CE 등의 인증을 통하여 전기적인 안전을 보장받고, 배터리의 노출된 단자들은 적어도 6mm의 간격을 두어 단락을 방지하여 설계되도록 규정하고 있다. 무엇보다 오작동을 방지하기 위하여 비상정지 기능을 갖추도록 규정하고 있다.

다양한 노인돌봄 로봇. 사진=여정현 필자 제공.
다양한 노인돌봄 로봇. 사진=여정현 필자 제공.

 

돌봄로봇은 또한 뽀족한 돌출부가 없어야 하며 손이나 발, 머리가 끼이지 않도록 설계되어야 한다. 사용자의 건강을 위하여 로봇은 세척이나 소독이 가능하여야 하며, 사람들의 수면에 방해가 없도록 50dB이하의 조용한 환경을 유지해야 한다. 물론 유해한 화학물질이나 전자파를 발생시키지 않는 것도 필수적이다.

한국로봇산업협회는 기계적인 안정성을 강조하지만 동시에 다양한 정서적 안정성이 강구되어야 한다. 제작자는 로봇이 개인정보를 남용하여 사용자의 프라이버시를 침해하지 않도록 하며, 관리자는 생산과 폐기 과정에서 환경에 미치는 악영향을 최소화해야 한다. 서비스제공자들은 환자가 로봇을 투명하게 이해할 수 있도록 도와야 한다. 이용자들은 로봇을 오로지 윤리적인 목적으로만 이용할 것을 다짐해야 한다.

한편 제작자는 인공지능에게 나타나는 성별, 연령, 지역, 종교에 대한 편향성을 발현되지 않도록 치밀하게 설계해야한다. 예를 들면 우리에게도 간호사라고 말하면 떠오르는 이미지는 이미 비교적 일률적이다. 특히 입법자들이나 정책입안자들은 범죄용 로봇이나 살상용 로봇 등을 만들지 못하도록 하는 다양한 규제도 논의해야 한다.

2021년 개정된 도로교통법은 머지않아 보편화 될 인공지능을 활용한 자율주행시스템을 이용하는 것도 도로교통법상 ‘운전’에 해당한다고 보고 차량 탑승자가 각종 주의의무를 부담하도록 하였다. 만약 탑승자가 차량의 결함을 입증하면 형사적인 책임을 면할 수도 있지만 자동차손해배상보장법은 차량소유자에게 과실 여부와 관계없이 민사적인 책임을 부담시키므로, 소유자의 책임은 많은 경우 면책되기 어렵다.

다양하게 생산될 로봇에 대하여 제조사가 제조물 책임을 질 수도 있겠지만 여러 무료 소스 코드를 활용하여 로봇들은 개별화될 가능성이 높아지며, 결국 제조자가 아닌 소유자의 책임은 높아진다. 한편 소유권을 포기한 로봇들에 관한 책임도 명확하게 규정될 필요가 있다.

생성형 인공지능으로 무장하고 인간과 유사한 인격을 가지는 로봇들이 우리들의 주변으로 다가오고 있다. 하지만, 이들이 일상 속으로 깊이 침투하기 전에 로봇들에게 적용될 윤리적 기본원칙의 확립과 해킹불가능한 건전한 알고리즘의 정립은 선행될 필요가 있다.

[필자 소개] 여정현

서울대학교 법과대학을 졸업하고 대우그룹 회장비서실, 안양대 평생교육원 강사, 국회사무처 비서관 등을 지냈다.

저작권자 © 이코리아 무단전재 및 재배포 금지