<사진=랜드코퍼레이션 홈페이지 캡처>

[이코리아] 인공지능(AI)이 핵전쟁 위기를 증폭시킬 수 있다는 연구결과가 나왔다. 미국의 비영리 싱크탱크 랜드코퍼레이션은 24일(현지시간) “인공지능은 핵전쟁 위험에 어떻게 영향을 미치는가”라는 제목의 보고서를 발표하고, 인공지능의 군사적 활용이 핵안보에 심각한 위협이 될 수 있다고 지적했다.

보고서에 따르면, 인류가 원자력 시대에 들어선 이후 핵전쟁 위험을 억제한 것은 ‘상호확증파괴’에 대한 공포 때문이다. 랜드코퍼레이션은 “서로 한 대씩 주고받는 게임을 핵무기로 한다면 모든 도시가 쓸려나갈 것”이라며 “양 측 모두 이런 손실은 짊어지고 싶지 않을 것”이라고 설명했다. 핵공격을 감행할 경우 적국의 보복 공격에 의해 공멸할 수 있다는 확신이 냉전시대의 평화를 담보했다는 것.

하지만 보고서는 인공지능이 군사적으로 활용될 경우 이러한 안정은 깨지기 쉽다고 지적했다. 인공지능이 가진 ‘합리성’이 인간과 다른 판단을 내릴 수 있기 때문. 예를 들어 적국의 잠수함이나 이동식 발사대 등 보복공격용 무기를 쉽게 파괴할 수 있다면, 인공지능은 핵보복의 위험성을 낮게 판단하고 선제타격을 결정할 수 있다. 반대로 자국과 적국의 군사력을 비교해 선제타격을 방어하거나 보복공격을 하기 어렵다는 결론이 나올 경우에도 인공지능은 상황 타개를 위해 선제공격을 결정할 가능성이 높다.

보고서의 공저자 에드워드 가이스트는 “새로운 인공지능은 사람들에게 ‘망설이면 모든 것을 잃는다’고 믿게 만들 수 있다. 방아쇠에 걸린 손가락도 더 예민해질 것”이라며 “이런 점에서 인공지능은 사람들의 통제를 받더라도 전쟁위험을 증가시킬 수 있다”고 말했다. 실제로 과거 냉전시절 소련군의 조기경보시설이 오작동을 일으켜 핵전쟁이 벌어질 뻔 했으나, 당시 근무 중이던 스타니슬라프 페트로프 중령의 침착한 대응으로 사태가 무마된 바 있다. 이 사건처럼 인간이 최종 결정을 하더라도 인공지능이 판단을 흐릴 수 있는 자료나 의견을 제시할 가능성은 얼마든지 있다.

보고서는 이미 인공지능이 가진 군사력 잠재력이 위험 수준을 넘어섰다고 지적하고 있다. 랜드코퍼레이션은 24일 홈페이지에 올린 글에서 “컴퓨터는 이미 세계최고의 바둑기사를 외계인같은 행마로 물리친 바 있다”며 “주요 핵보유국들은 이미 초인공지능의 군사적 잠재력을 인지하고 있다”고 지적했다. 랜드코퍼레이션에 따르면, 미국은 이미 적국 잠수함을 수천 킬로미터나 추적할 수 있는 인공지능 선박을 실험했으며, 중국도 전투용 드론부대를 위한 인공지능 알고리즘을 시연한 바 있다. 러시아 또한 최근 핵탄두 운반용 잠수드론 개발계획을 발표했다.

이러한 문제 때문에 IT업계에서는 이미 인공지능의 군사적 활용을 반대하는 목소리가 꾸준히 제기돼왔다. 스페이스X와 테슬라의 최고경영자 일론 머스크, 구글의 인공지능 ‘딥마인드’ 개발자 무스타파 술래이만 등 IT업계 관계자 116명은 지난해 8월 살인로봇 개발 금지 성명서를 유엔에 제출한 바 있다. 이들은 성명서에서 “자율살인무기가 전쟁에 3차 혁명을 일으킬 것”이라며 인공지능의 위험성을 경고했다.

저자들 또한 이번 보고서를 통해 같은 목소리를 내고 있다. 보고서는 인공지능이 원자력시대 이후 인류가 경험하지 못했던 완전한 평화를 구축할 수도 있지만 그것은 아직 먼 미래의 이야기라며, 인공지능의 군사적 잠재력이 핵안보의 토대를 침식할 것이라고 내다봤다. 공동저자 앤드류 론은 “이것은 영화 시나리오가 아니다”라며 새로운 국제기구와 합의, 군사외교적 보호장치가 필요하다고 주장했다.

저작권자 © 이코리아 무단전재 및 재배포 금지