머지않아 인공지능은 주식회사와 같은 법인격을 가지게 되고, 다른 인공지능과 사람들까지 고용하여 독자적으로 사업을 확대할 것이다. 많은 사람들이 기계는 인간과 달라 편견을 가지고 않고 엄정하고 냉정한 판단을 내릴 것이라고 기대한다. 하지만, 인간이 입력하는 데이터의 편향성과 범람하는 가짜뉴스로 인하여 인공지능이 인간의 편향성을 답습할 위험은 증가하고 있다. 인간과 같은 지성을 가지고 활동할 인공지성이 민주사회의 일원으로 활동하기 위해서는 자칫 위험할 수도 있는 편향성을 사전에 적절히 제거할 필요가 있다.

사진 출처 = 픽사베이

플랫폼이 바꿀 수 있는 여론의 편향

과거의 민주주의는 권력분립과 표현의 자유를 중시하며 발전했다. 이제 인공지능이나 알고리즘이 여론을 조성함에 크게 기여하므로 인공지능 알고리즘의 투명성을 보장하는 것은 민주국가의 또 다른 책무가 되었다. 하지만 그 과정은 결코 간단하지 않다. 사람들이 펼치는 집회나 시위와 달리, 자동화된 온라인 시스템은 생각보다 복잡하고 다양하다. 운영의 주체는 정부가 아니라 상업적인 기업이므로 접근이나 통제마저 쉽지 않다.

온라인에 구축된 정보세계에서 특정 세력이 플랫폼을 여론몰이에 활용될 가능성은 언제나 존재한다. 페이스북은 지난 2012년 68만명에 대하여 1주일간 실험을 실시했다. 그 결과 뉴스피드에서 긍정적인 더 많이 본 사람은 긍정적인 포스트를 생산하고 부정적인 포스트를 접한 사람은 부정적인 포스트를 생산한다는 사실을 알게 되었다.

이미 온라인 네트웍은 미국 오바마 대통령 선거에서 큰 역할을 하였다. 지난 3월 트럼프 대통령이 당선된 최근 미국대선 전후 5천만명의 페이스북 사용자들의 정보가 노출되었다는 보도가 있었다. 이 소식으로 페이스북의 주가가 한때 큰 폭으로 떨어졌다. 이 수치는 미국유권자의 4분의 1에 달하는 방대한 수치이다. 러시아 출신의 한 앱개발 전문가가 성격검사 명목의 앱을 배포했고, 정치적 목적으로 개인성향 자료를 축적하여 선거에 활용했다는 주장이 제기되었다. 이러한 문제에 직면했던 페이스북은 최근 시스템을 악용하는 사람들을 배제하기 위한 작업을 강화했다. 페이스북은 올해 4월부터 9월까지 가짜 계정 15억개를 삭제했고, 테러 선동콘텐츠 1억개, 음란물 6천만개도 제거했다고 밝혔다.

캘리포니아에 있는 행동기술연구소의 로버트 엡스타인은 2016년 연구에서 검색엔진의 알고리즘 조작만으로도 부동층 중 20%는 표심을 바꿀 수 있다고 주장했다. 최근에는 한국에서도 매크로 등의 프로그램을 이용하여 정치적인 기사의 우선 순위를 조작한 것이 사회적 문제가 되었다. 2017년 한국대통령 선거를 전후하여 일부 조직은 매크로 프로그램을 이용하여 뉴스기사의 노출 정도를 조절했다. 그들은 대략 기사 8만개에 달린 댓글 149만개를 조작했다고 알려졌다. 이들이 조작한 공감이나 비공감 클릭은 약 9,970만회에 달한다. 한국인 인구의 2배에 달하는 방대한 수치이다. 만약 인공지능이 자체적으로 진행하는 뉴스추천이 비정상적인 입력에 노출되면 우리는 가치있는 뉴스보다는 단순한 정보의 거품을 수령하게 된다. 이에 일부 포털은 관련 조작이 여론을 왜곡할 우려가 있음을 파악하고 하루에 댓글로 표현 가능한 기사의 숫자를 20개로 제한하거나, 댓글 관련 기능을 없애기도 하였다.

일부 검색엔진은 현재 유사한 뉴스기사를 묶어서 정리하고 있지만, 이제는 유사성이란 기준에 묶여서 가치 있는 정보가 사라질 위험도 검토할 필요가 있다. 일부 광고업체들은 검색엔진의 연관검색어 마저 조작하기 시작했다. 이에 검색엔진 운영업체들은 자동적으로 대량 입력되는 연관검색어에 대한 모니터링을 한층 강화하고 있다.

 

입력된 데이터로부터 발생하는 편향

인공지능은 수백만장의 학습데이터를 통하여 귀납적으로 사물을 인식한다. 그렇지만 학습용 데이터는 사람이 제공하기 때문에 개발진이 사전에 가진 편견은 인공지능에게도 그대로 전수된다. 개발진들은 주변에서 접할 수 있는 가능한 많은 데이터를 입력하지만, 인공지능은 개발자가 사용한 언어, 데이터 입력장소, 사용한 OS, 사람들의 검색습관 등 다양한 내용에 직접적인 영향을 받게 된다.

사용자들이 의식적으로 무의식적으로 입력하는 데이터는 벌써부터 인공지성이 인종주의자가 될지도 모른다는 경고로 이어지고 있다. 실리콘밸리 인근의 오클랜드에서는 2010년 흑인청년을 살해한 경찰이 무죄를 선고받자 1,000명이 넘는 시위대가 인종주의에 항의하는 격렬한 시위를 벌였다. 인공지능의 개량을 위하여 구글 등 900만장 이상의 사진을 학습시켰다. 그리고, 인류는 10만장 이상의 그림에 대하여 직접 라벨링을 하면서 인공지능에게 개인교습까지 하였다. 2015년 소프트웨어 엔지니어인 재키 알시네는 구글포토즈가 흑인을 고릴라라고 판독하는 실수를 범했다고 문제를 제기했다. 구글포토즈는 대신 바분, 마모셋 원숭이는 모두 정상적으로 인식했다고 한다. 한편 특정회사가 시도한 인공지능 프로젝트는 지속적으로 잘못된 반응을 심어준 사용자들로 인하여, 24시간 내에 페미니즘과 유대인을 미워하는 잘못된 반응을 보였다. 이러한 결과는 공공데이터를 이용하여 인공지능을 학습시킬 경우 나타날 수 있는 위험을 잘 보여준다.

인터넷의 세계에서는 정보 접근성이 약한 노인층이나 특정 국가 국민의 의사가 반영되지 못하는 위험도 있다. 이에 프랑스 등의 일부 국가에서는 빈곤한 사람들과 노인의 정보접근권을 개선하여 이러한 문제를 해결하고자 한다. 아프리카에 헬륨풍선이나 태양광무인기를 띄워서 정보접근성을 개선하려는 움직임도 인공지성의 편견을 개선하려는 움직임에 도움이 된다. 올해 아프리카의 콩고민주공화국에서는 보급된 한국산 전자투표기가 아프리카에서 사회적 이슈가 되었다. 콩고민주공화국의 경우 인구의 90%는 인터넷 정보접근은 고사하고 아직도 글자로 읽지 못한다. 그런데, 전자적인 투표는 선거의 결과에 크게 영향을 미칠 수 있다는 우려가 제기되었기 때문이다.

 

제작자의 의도를 벗어날 수 있는 인공지능

일부 인공지능은 그 결정과정을 설명할 수 없는 블랙박스 시스템을 가지고 있다. 그 결과 인공지능이 제작자의 의도를 벗어난 결정을 내릴 가능성이 존재하는 것이다. 최근에는 이러한 문제가 널리 인식되자, 유럽연합은 개인정보보호법이라고 할 수 있는 GDPR에서 자동화된 의사결정 시스템에 대하여 의사결정과정에 대한 설명을 요구할 권리를 규정하기도 했다. 구글 등 다수의 검색 알고리즘은 하나의 알고리즘에 의하여 움직이는 것이 아니라 수천개의 추천 알고리즘이 조합하여 작동한다. 그렇기 때문에 알고리즘이 편향성을 가지고 있는지를 파악하는 것은 쉽지 않다.

2016년 탐사보도 전문 언론 프로퍼블리카는 미국의 사법당국이 이용하는 범죄위험예측 프로그램이 흑인을 더욱 차별할 수 있음을 보도했다. 아마존의 경우는 2014년부터 500대의 컴퓨터가 5만개의 키워드를 분석하여 구직자들을 평가하였으나 인공지능이 남성 구직자를 우선적으로 추천하자 사용을 중단했다. 인공지능이 어느새 인간이 가졌던 편견마저 학습했던 것이다. 최근에는 일부 플랫폼에서 운전자의 구인광고가 남성에게 더욱 집중적으로 노출되었다는 보도도 있었다. 최근에는 특송업체가 이용하는 사전예측 배송프로그램은 백인거주지에 더 우선하여 물품을 공급할 가능성이 높다는 연구도 나오고 있다.

위와 같은 우려가 증폭되자 IBM은 ‘AI공정성 360’이란 소프트웨어를 만들었다. 이 프로그램은 검색 엔진 등의 공정성을 평가하는 도구로 IBM은 이를 오픈소스로 공개했다. 이 도구를 사용하면 특정 서비스가 이용자들에게 균등한 기회를 제공했는지에 대한 판단을 제공한다. 다양한 검색엔진은 성적인 또는 인종적인 편향성을 가질 수 있기 때문에 애드피셔(Adfisher) 등은 이러한 편견성을 찾아내는 도구로 활용된다. 애드피셔는 브라우즈에 임의로 남성과 여성 등의 다양한 설정을 입력하고, 제시되는 검색결과를 분석하여 알고리즘이 편향성을 가지고 있는지를 알아낸다.

최근 관심을 끌고 있는 자율주행시스템에는 탑승자를 보호하도록 하는 알고리즘이 탑재되어 있다. 그런데, 탑승자를 무조건 보호하는 프로그램은 선량한 보행자의 사망과 부상을 증가시킬 수 있다. 탑승자는 이미 안전벨트와 에어백으로 무장하고 있으며 사고 두꺼운 차체가 일차적인 충격을 흡수하는 우월적 지위에 있다. 하지만 보행자는 무방비로 자율주행차량으로부터의 위험에 노출되어 있다. 비록 자동차 구매자에게는 반갑지 않겠지만, 자율주행 알고리즘은 탑승자보다 보행자의 희생을 최소화하도록 설계되어야지만 전체적인 인류의 피해를 감소시킬 수 있다.

제4차 산업혁명 시대의 기반기술로 꼽히는 인공지능은 사람이 제작하기 때문에 인간이 가졌던 편견으로부터 완전히 자유로울 수는 없다. 하지만 인공지능이 편견을 가질 수 있음을 인정하고, 스스로 편견을 알아차리는 것은 문제해결의 시작이다. 인류는 인공지능에게 실정법과 윤리를 학습시키는 것을 넘어서, 인간만이 가지는 보편적인 인류애와 합리성을 가르칠 필요도 있음을 유념해야 한다.

 

<필자 약력>

- 서울대학교 법과대학 졸업

- 대우그룹 회장비서실

- 안양대학교 평생교육원 강사

- (주)명정보기술 산호세법인 근무

저작권자 © 이코리아 무단전재 및 재배포 금지