[이코리아] 국내에서도 AI 개발 시 지켜야 할 가이드라인이 마련됐다. <이코리아>가  내용을 확인해보니 대체로 국제적 규범처럼 통용되는 유럽의 가이드라인과 비슷했다.

국가인권위원회는 ‘인공지능 개발과 활용에 관한 인권 가이드라인’을 18일 발표했다. 인공지능 개발 및 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위해 마련했다.

인권위는 국무총리와 과학기술정보통신부·개인정보보호위원회 등 정부부처 수장들에게 가이드라인에 기초해 정책을 수립할 것을 권고했다. 또한 다른 공공기관과 민간기업이 가이드라인을 준수하도록 관리감독하는 역할도 촉구했다.

인권위는 “인공지능 기술이 사회 전반에 걸쳐 인권에 영향을 미치고 있다”며 “그러나 영향을 받는 당사자들은 인공지능 운영 과정에 의견을 제시할 기회를 보장받지 못하고, 인권침해나 차별이 발생해도 구제받을 수 있는 절차가 미흡한 상황”이라고 지적했다.

가이드라인은 6대 원칙으로 구성했다. ▲인간의 존엄성 및 개인의 자율성과 다양성 보장 ▲투명성과 설명 의무 ▲개인정보 자기결정권 보장 ▲차별 금지 ▲인공지능 인권영향평가 시행 ▲위험도 등급 및 관련 법 제도 마련 등이다.

인권위가 가이드라인을 만든 까닭은 국제사회의 동향과 관련이 있다. 2018년 유엔 특별보고관은 인공지능이 인권에 미칠 영향에 대한 보고서를 작성한 바 있다. 2019년에는 유럽연합 집행위원회가 ‘신뢰 가능한 인공지능 윤리 가이드라인’을, 2021년 유럽의회는 ‘인공지능법 초안’을 제시했다.

이 같은 안내서나 규제들의 핵심은 인공지능의 위험을 경고하는 것이다. 구체적으로는 안면인식 인공지능 시스템 활용을 금지하거나, 인공지능 면접 시스템에 고위험 등급을 부과하는 등의 조항도 있다.

인권위가 마련한 가이드라인은 특히 유럽연합 집행위원회의 가이드라인과 중복되는 부분이 많다. 유럽연합 집행위원회 가이드라인에는 ▲인간의 관리감독 ▲기술적 견고성과 안전 ▲개인정보 보호 ▲투명성 ▲차별 금지 ▲환경 친화 ▲책무성 등 7대 원칙이 있다.

두 가이드라인에서 공통적으로 공공과 민간에 보내는 ‘개인정보 보호’ ‘투명성’ ‘차별 금지’ 등 메시지에 주목할 필요가 있다. 개인정보 보호 항목에서는 공공기관 및 기업들이 개인정보를 목적 달성에 필요한 최소한의 범위와 기간 내에서만 처리해야 한다고 강조한다.

투명성은 최근 정치권의 관심이 쏠리는 요소 중 하나다. 인공지능 결정을 내린 과정에 대해 이용자들이 납득할 수 있도록 설명해야 한다는 것이다.

차별 금지는 투명성이 보장돼야 이뤄질 수 있다. 개발자들은 특정 집단이나 일부 계층에 차별적이거나 부당한 영향을 주도록 인공지능 알고리즘을 설계해서는 안된다.

인권위는 “인공지능 기술의 개발과 활용 전 과정에서 인권적 가치가 보호되는 계기가 마련되기를 기대한다”고 밝혔다.

저작권자 © 이코리아 무단전재 및 재배포 금지