= AI 안전 센터 누리집
= AI 안전 센터 누리집

[이코리아] AI 업계 전문가들이 30일 'AI 위험에 대한 성명'이라는 성명서를 내놓았다. 비영리 단체인 AI 안전 센터(CAIS)가 발표한 해당 서한에는 제프리 힌튼 교수, 요슈아 벤지오 교수 등 AI 분야 연구자 350여 명이 이름을 올렸으며 샘 알트만 오픈 AI CEO, 데미스 하사비스 구글 딥마인드 CEO, 다리오 아모데이 앤트로픽 CEO 등 3명의 AI 제조사 수장이 참여했다.

이들은 성명을 통해 “AI로 인한 멸종 위험을 완화하는 것은 전염병이나 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 전 세계적인 우선 순위가 되어야 한다.”라고 주장했다. 인류가 현재 AI로 인해 멸종의 위기에 처했으며, 이에 높은 우선순위로 대응해야 한다는 주장이다.

다만 이를 실행할 구체적인 조치에 대해서는 언급하지 않았는데, 이는 강력한 인공지능 시스템에 대한 일반적인 우려를 공유하는 인공지능 전문가들을 하나로 묶기 위한 것이라고 밝혔다.

성명을 발표한 AI 안전 센터는 AI의 안전한 개발과 배포를 보장하기 위한 비영리 단체이다. 센터는 AI가 가져올 수 있는 8가지 위협으로 △자동화된 사이버 공격, 화학 무기 합성 등 AI의 무기화 △AI로 생성된 잘못된 정보, 가짜뉴스의 확산과 범람 △AI가 목표 달성을 위해 개인 및 사회적 가치를 희생하게 되는 ‘프록시 게임’ 현상 △AI 의존으로 인한 인간의 능력 약화 △AI가 소규모의 사람들에게만 권한을 부여하게 되는 권력 집중 △인간의 고급 AI에 대한 통제력 상실 △AI가 무엇을 하고 있는지 인간들에게 숨기는 기만 △AI가 권력을 추구하는 행위 등을 꼽고 있다.

제프리 힌튼 교수 = 토론토대학교 누리집
제프리 힌튼 교수 = 토론토대학교 누리집

서한에 서명한 ‘딥러닝의 대부’ 제프리 힌튼 교수는 이전부터 AI의 위험성을 강하게 주장해왔다. AI의 위험성에 대해 자유롭게 발언할 수 있도록 지난달 구글을 퇴사한 그는 현재 빅테크들이 멈출 수 없는 AI 경쟁에 갇혀 있으며, 이는 글로벌 경쟁으로 확대될 수 있다고 경고해왔다. 

이에 따라 세계의 과학자들이 기술을 통제할 방법을 찾기 위해 협력해야 하며, AI를 완전히 통제할 수 있게 될 때까지는 더이상 기술을 확장해서는 안된다고 주장했다. 심지어 그는 자신이 AI에 대해 연구해온 일을 후회한다고 밝히기도 했다.

힌튼 교수는 지난 5일에는 “기후변화에 대해 조언하는 것은 간단하다. 탄소 배출을 줄이면 된다. 하지만 AI에 대해 어떻게 해야 할지는 명확하지 않다.”라고 말하며 AI의 부작용이 기후변화보다 인류에게 더 시급한 위협이 될 수 있다고 주장했다.

서명에 참여한 전문가 중에는 '인공지능의 대부'로 불리는 요슈아 벤지오 교수도 있다. 그는 서한이 공개된 뒤 BBC와의 인터뷰에서 "AI의 발전 속도를 미리 알았다면 유용성보다 안전성을 우선시했을 것이다." "평생의 업적에 대해 길을 잃었다."라고 소감을 밝혔다. 그는 지난 3월에 발표된 AI의 개발 중지를 촉구하는 서한에 참여하기도 했다.

= 미국 상원 사법위원회 누리집
= 미국 상원 사법위원회 누리집

챗 GPT를 개발한 샘 알트만 오픈 AI CEO 역시 이번 성명에 참여했다. 알트만은 이전부터 AI의 위험성을 강조하며 규제의 필요성을 주장해왔다. 그는 16일 미국 상원에서 진행된 AI 청문회에 출석해 AI가 세상에 큰 해를 끼칠 수 있으며, 그렇게 되기 전에 정부의 규제가 필요하다고 말했다. 또 특정 능력 이상을 지닌 AI를 규제할 수 있는 독립된 기관을 설립할 것을 제안했다.

오픈 AI는 더 나아가 국제원자력기구(IAEA)와 유사한 국제 AI 규제기관을 만들어야 한다고 주장하기도 했다. 오픈 AI는 지난 22일 자사 누리집에 올린 글을 통해 “잠재적인 장점과 단점을 모두 고려할 때, 초지능은 인류가 과거에 맞서 싸워야 했던 다른 기술보다 더 강력할 것이다. 우리는 극적으로 더 풍요로운 미래를 맞이할 수 있지만, 그러기 위해서는 위험을 관리해야 한다.”라고 주장했다.

= 얀 르쿤 트위터 갈무리
= 얀 르쿤 트위터 갈무리

반면 이런 종말론적인 우려는 과장되었다는 반박도 나오고 있다. 얀 르쿤 뉴욕대 교수는 AI가 인류 문명을 종식시킬 수 있다는 우려에 대해 “이러한 파멸의 예언에 대한 AI 연구자들의 가장 일반적인 반응은 손바닥으로 얼굴을 가리는 것이다.”라고 비판했다. 또 “초인공지능은 실존하는 위험 목록에서 가장 높은 순위에 있지 않다. 아직 존재하지 않기 때문이다.” “인간 수준은 말할 것도 없고, 개 수준의 AI에 대한 기본 설계가 이루어지기 전까지는 이를 안전하게 만드는 방법을 논의하는 것은 시기상조이다.”라고 주장했다.

아빈드 나라야난 프린스턴대 교수 역시 이와 유사한 주장을 하고 있다. 그는 BBC와의 인터뷰에서 “현재의 AI는 이러한 위험을 현실화할 수 있을 만큼 충분한 능력을 갖추지 못했다. 이런 전문가들의 주장은 AI의 단기적인 피해로부터 사람들의 주의를 분산시킬 뿐이다.”라고 비판했다.

엘리자베스 레니에리스 옥스퍼드 인공지능윤리연구소 선임 연구원은 AI가 인간을 멸종시킬 우려보다 현재 닥쳐온 위험에 대해 더 걱정해야 한다고 강조했다. 레니에리스는 “AI의 발전은 편향적이고 차별적이며 배타적이거나 불공정한 자동화된 의사결정의 규모를 확대하는 동시에 이해하기 어렵고 이의를 제기할 수 없게 만들 것이다.” “잘못된 정보의 확산이 기하급수적으로 증가해 현실을 분열시키고 대중의 신뢰를 약화시키며, 특히 디지털 격차의 반대편에 있는 사람들에게 더 큰 불평등을 초래할 것이다.”라고 경고했다.

AI 전문가들이 AI의 위험성에 대해 집단 성명을 낸 것은 이번이 처음이 아니다. 지난 3월에는 미국의 비영리 단체 퓨처 오브 라이프 인스티튜트(Future of Life Institute)가 '거대 AI 실험 일시중지 공개서한 (Pause Giant AI Experiments: An Open Letter)'이라는 제목의 서한을 공개해 AI 개발을 일시적으로 중지해야 한다고 강조하기도 했다. 

서명에는 일론 머스크 테슬라 CEO, 스티브 워즈니악 애플 창업자 등 IT업계 경영자들과 유발 하라리 등의 연구자들이 참여했다. 당시 이들은 모든 인공지능 연구소가 GPT-4보다 더 강력한 인공지능 시스템의 학습을 최소 6개월 동안 즉시 중단해야 한다고 촉구했다.

저작권자 © 이코리아 무단전재 및 재배포 금지