[pixabay]
[pixabay]

[이코리아] 챗GPT와 같이 인공지능(AI)을 사용하는 사람이 많아지면서 악용에 대한 우려도 커지고 있다. 이를 해결하기 위해 내달 1일 영국에서 사상 첫 ‘AI 정상회의’가 개최된다.

국제사회는 AI의 무분별한 사용이 허위정보 생성, 차별·혐오 발언 사용, 딥보이스·딥페이크 기능을 활용한 피싱 사기 등의 위험을 가지고 올 것이라고 지적한다. 이에 주요 국가들은 AI의 위험을 관리하는 기준점을 마련하고자 한다.

영국 정부가 주도해 열리는 첫 ‘AI 안보 정상회의(AI Security Summit)’에선 G7을 비롯한 주요 국가 정부 고위 관계자와 테크 기업 임원, AI 전문가 등이 참석한다. 카멀라 해리스 미국 부통령, 사티아 나델라 마이크로소프트(MS) 최고경영자, 샘 올트먼 오픈AI 최고경영자 등이 참석하는 것으로 알려졌다. 

한국에선 네이버와 삼성전자가 초청받았다. 네이버에서는 하정우 네이버클라우드 AI이노베이션 센터장이, 삼성전자에선 전경훈 DX부문 최고기술책임자 겸 삼성리서치장이 참석한다.

하정우 센터장은 29일 페이스북을 통해 “안전한 인공지능을 위한 국제 논의에서, 부족하지만 국가대표로서 우리 의견을 잘 대변하고 오겠다”며 “일본은 (초청 대상이) 정부와 기업 1곳 뿐”이라고 밝혔다.

회의 참석자들은 AI의 위험성을 공유하고 공동 대책을 논의할 예정이다. AI가 사이버 보안이나 선거 등에 미칠 영향을 검토하고 AI가 어떻게 규제되는 것이 적절할지에 대해 의견을 나눌 것으로 보인다. 

외신들은 G7이 첨단 AI 시스템 개발 기업을 위한 국제행동강령에 합의할 것으로 예상하고 있다. 블룸버그 통신에 따르면 행동 강령에는 AI 시스템 개발 업체가 AI로 인해 발생할 수 있는 위험을 사전에 식별하고 평가해 이를 완화하기 위한 조치를 취하고 출시 이후 발생하는 사고 등을 처리하도록 하는 내용이 포함된다. 또 AI 시스템의 기능이나 한계, 오사용 등과 관련한 공개 보고서를 내놓고 보안 시스템 관련해 투자하라는 내용이 담길 예정이다.

합의된 행동강령은 생성형 AI 관련 개인정보보호 문제와 보안 위험 등이 커지는 상황에서 주요국이 AI를 관리하는 기준점이 될 것으로 보고 있다. 다만, 이번에 합의한 내용은 자발적인 행동 강령으로 구속력은 없을 것으로 보인다. 

회의에 앞서 조 바이든 미국 대통령은 30일 AI의 안전성을 확보하고 기술혁신을 도모하기 위한 행정명령을 공개했다.

CNBC 등 외신에 따르면 이번 행정명령은 ▲AI용 안전 및 보안 기준 마련 ▲개인정보 보호 ▲형평성과 시민권 증진 ▲소비자 보호 ▲노동자 지원 ▲혁신과 경쟁 촉진 ▲국제 파트너와의 협력 ▲연방 정부의 사용과 조달을 위한 지침 개발 등 크게 8개 부분으로 나뉘었다.

이번 행정명령은 앞서 백악관 요청에 따라 마이크로소프트(MS)와 구글, 오픈AI 등 주요 15개 회사가 자발적으로 참여한 AI의 안전한 개발과 사용을 위한 약속에 기반한 것으로, 행정명령의 주 내용은  AI 기술 공개 전 관련 당국이 국가 혹은 경제적 안보에 위험이 되는지 심사하도록 한 것이다. 

이에 따라 기업들은 AI 시스템을 출시하기 전 상무부 산하 국립표준기술연구소(NIST)의 안전성 평가를 의무적으로 거쳐야 한다. 아울러 가짜 정보 확산을 막기 위해 AI가 생성한 콘텐츠에 대해선 워터마크를 표시할 수 있도록 인프라를 구축하도록 했다.

그 밖에도 AI가 노동시장에 미치는 잠재적 영향을 살펴보고 영향을 받는 근로자를 지원할 수 있는 방법을 마련하도록 했다. 스타트업들의 시장 진입을 돕고 고숙련 전문 인력을 유치할 수 있도록 비자 발급 요건 완화 등 관련 규정을 정비한다는 내용 등도 포함됐다.

국제기구 뿐 아니라 각 나라와 기업들 차원의 노력도 이어지고 있다. 지난 7월엔 유엔에서 AI가 미칠 영향을 인권 보호라는 관점으로 조명하고 AI 시대를 살아갈 국제사회가 지킬 약속과 원칙을 정해놓은 첫 결의안인 ‘AI 시대 인권규범’이 우리나라 주도로 채택되었다.

EU는 지난 6월 챗GPT 같은 생성형 AI를 만드는 기업은 머신러닝에 사용한 자료의 출처·저작권을 밝히고, 서비스 출시 전 EU의 승인을 먼저 받도록 하겠다는 계획을 발표했다. 개최국인 영국은 발 빠르게 런던에 세계 최초 ‘AI 안전 연구소’를 설립하겠다고 밝혔다.

구글·MS·오픈AI 등 AI를 개발·운영하는 빅테크 기업들은 규제에 대응하기 위해 준비 중 이다.  챗GPT의 개발사 오픈AI는 ‘AI 리크스’에 대비하기 위한 조직을 신설했다.

[출처-오픈AI 블로그]
[출처-오픈AI 블로그]

오픈AI는 지난 26일 AI의 ‘재앙적 위험성’을 분석하고 이를 방지하기 위해 자체 대비팀을 구축할 예정이라고 밝혔다. 오픈AI는 대비팀을 통해 사이버 보안 문제부터 화학, 핵, 생물학적 위협에 이르기까지 AI 시스템의 위험을 분석하고 방지하고 노력하겠다고 말했다.

다른 AI 빅테크 기업들도 AI 위험 방지책 마련에 나섰다. 구글, 마이크로소프트, 오픈AI, 앤트로픽은 지난 26일 1000만 달러 규모의 ‘AI 세이프티 펀드’를 출범시켰다. 이들 빅테크 기업은 지난 7월에도 ‘프론티어 모델 포럼’을 출범시키고 정책입안자, 학자들과 협업해 AI 모델 개발과 관련된 정보를 공유하겠다고 밝혔다.

저작권자 © 이코리아 무단전재 및 재배포 금지