8일 열린 ‘인공지능 윤리 법안 관련 전문가 간담회에서 카이스트 유창동 교수(한국인공지능학회 회장)가 발제하는 모습. 사진 출처=유튜브 이원욱TV
8일 열린 ‘인공지능 윤리 법안 관련 전문가 간담회에서 카이스트 유창동 교수(한국인공지능학회 회장)가 발제하는 모습. 사진 출처=유튜브 이원욱TV

[이코리아] 전문가들이 국내 인공지능 법안 추진 방향성에 대해 논의했다. 이들은 강도 높은 규제를 시행하는 유럽, 비교적 느슨한 미국의 방향성을 참고해 국내 사정에 적절한 법안을 마련해야 한다는 의견을 나눴다.

더불어민주당 이원욱 의원은 8일 ‘인공지능 윤리 법안 관련 전문가 간담회’를 개최했다. 인공지능 윤리 법안 마련을 위한 의견을 수렴하고, 해외 입법 상황 등을 공유하기 위한 자리다. 토론에는 당국과 학계, 업계 관계자들이 참여했다.

이 의원은 “인간을 위해 사용할 수 있도록 인공지능을 제어하는 것이 과제”라며 “인간이 알고리즘에 의한 소비 대상으로 전락하지 않도록, 사람 중심의 윤리적 인공지능 정책을 추진해 부작용을 최소화하고 사회적 안전망을 구축해야 한다”고 밝혔다.

인공지능 관련 법안은 현재 국회에 8건이 계류 중이다. 이 가운데 6건은 산업 육성과 윤리 문제를 포함한 기본법 성격을 띈다.

이날 카이스트 유창동 교수(한국인공지능학회 회장)는 ‘인공지능이 이룬 혁신과 인간을 위한 사용’이라는 주제를 제시했다. 그는 “데이터는 쉬지 않고 생성되고, 인공지능은 정보화 경험을 빠른속도로 학습하며 우리 삶에 큰 변화를 주고 있다”며 말문을 열었다.

유 교수는 가상비서·무인자동차·정밀의료·번역 등 산업에 활용하는 인공지능이 우리 삶에 큰 영향을 미칠 것이라고 내다봤다. 특히 정밀의료계에서는 DNA를 분석해 상태를 진단하고 병을 예측하는 개인 맞춤형 서비스 시대가 도래할 것이라고 봤다.

차후 인공지능 혁신 가능성을 기대하는 이유로는 4가지를 들었다. ▲데이터에서 습득한 지식 기반으로 생성한 사람 얼굴 등이 정교해짐 ▲성능은 데이터 양에 비례하기 때문에 앞으로 사람을 능가할 수 있음 ▲다량의 데이터에서 필요한 부분에 집중해 학습하는 일이 가능해짐 ▲사람 뇌를 능가하는 계산능력이 있지만 효율은 아직 부족함 등이 있다.

인공지능 혁신은 마이크로소프트·구글·메타 등 인공지능을 연구하는 기업들이 늘면서 속도가 붙고 있다. 현재는 다른 두 얼굴 사진을 합성하거나, 사진을 주면 설명을 달고, 글을 주면 그림을 그리기도 한다.

자연어 처리 기술의 혁신에 관한 의견도 보였다. ‘소설 쓰기’ ‘이메일 답장’ ‘프로그램 개발’ ‘가계부 완성’ 등이 있고, 비디오를 본 뒤 내용을 이해하고 질문에 대답하는 인공지능도 가능하다는 것이다.

인공지능은 챗봇·콘텐츠추천시스템·채용·금융·법률·의료 등 다양한 분야에서 활용하고 있다. 이 과정에서 발생하는 혐오·성희롱·편향 등 윤리 문제가 학계와 업계가 풀어야 할 숙제다.

이를 해결하기 위해 인공지능의 공정성을 분석하는 소프트웨어도 등장하고 있다. 마이크로소프트·IBM 등이 고도화를 진행 중이고, 국내에서는 스마일게이트AI가 최근 인공지능 언어 모델의 ‘인간다움’을 평가하는 플랫폼도 공개했다.

정보통신정책연구원, 과학기술정보통신부, 카이스트, 네이버AI연구소 관계자들이 토론하는 모습. 사진 출처=유튜브 이원욱TV
정보통신정책연구원, 과학기술정보통신부, 카이스트, 네이버AI연구소 관계자들이 토론하는 모습. 사진 출처=유튜브 이원욱TV

정보통신정책연구원 지능정보사회정책센터 문광진 부연구위원은 이해관계자 및 사회적 합의를 바탕으로 인공지능 상업을 규제해야 한다는 견해를 보였다.

문 위원에 따르면 미국은 비윤리적인 인공지능을 금지하기 보다는 기업에 책임을 부과하고 정부가 협력을 통해 규제하는 방향성을 확립했다. 위반사항을 법적 제재하므로 빅테크에 굉장히 부담이 될 것이라는 지적이 있지만, 일각에서는 강화해야 한다는 목소리도 나온다.

유럽의 경우 GDPR(General Data Protection Regulation, 개인정보 보호 규정)에 인공지능 윤리에 대한 조항이 있다. 지난해에는 인공지능을 위험수준별로 나눠 규제해야 한다는 내용을 담은 법안도 발의했다.

해당 인공지능 법안에서는 인공지능의 위험수준을 수용불가·고위험·저위험·최소위험 등 4단계로 구분한다. 수용불가 수준의 인공지능은 특수한 경우를 제외하고는 금지한다. 고위험은 생명·안전·기본권에 영향을 주는 수준이다.

문 위원은 “고위험 여부를 가리는 데 이해관계자들간 대립이 있을 것”이라며 “사회적 합의 이끌어내는 것 중요하고, 규제 부분은 신중하게 접근해야 한다”고 강조했다.

우리 정부에서는 인공지능 윤리 기준을 마련한 상황이다. 이를 확산하기 위한 자율점검표도 개발 중이다. 시민 대상으로 인공지능 윤리 정책 교육도 한다.

네이버AI연구소 하정우 소장은 고강도 규제를 도입할 경우 발생할 국가경쟁력 저하를 경계해야 한다는 의견을 제시했다.

하 소장은 “딥러닝 기술 특성상 언어장벽이 낮은데, 국내 기업들이 성장하지 못하는 상황에서 해외 빅테크들의 기술들의 진출은 큰 위협”이라며 “국경이 없기 때문에 인공지능 기술은 세계적으로 경쟁할 수밖에 없다”고 말했다.

그러면서 “인공지능 윤리 이슈는 현재 시의적절하고 고민할 필요는 있지만 과도한 규제는 반대한다”며 “대기업들은 어떻게든 대처하겠지만 스타트업들은 어려운 실정”이라고 덧붙였다.

인공지능 규제 주요 방안으로 꼽히는 ‘설명가능성’과 ‘알고리즘 공개’ 등을 현실적으로 고려해야 한다는 지적이다. 설명가능성이란 인공지능이 내린 결정에 대해 사람이 납득할 수 있도록 설명하는 것이다.

하 소장은 “설명가능성을 높이려면 정확도를 희생해야 하는데 어느정도 설명해야 이용자가 납득할 수 있을지 알기 어렵고, 불가능한 기술을 만들라는 것일 수도 있다”며 “기업들은 최선을 다해 설명할 수 있게 개발하려 도력하겠지만, 현실적으로 불가능한 일도 있음을 입법 시 고려했으면 한다”고 촉구했다.

그는 설명가능성도 위험수준처럼 단계를 나눌 필요가 있다고도 했다. 또 인공지능 알고리즘 공개보다는 기업이 편향성을 어떻게 없애려 노력하는지를 반영하는 것으로 완화하는 방안도 제시했다.

하 소장은 끝으로 “유럽은 역내에 빅테크가 없어 규제 강도가 높고, 미국의 경우 빅테크들에게 자율적으로 맡긴다”며 “우리는 어떤 쪽을 따라야 할지 고민이 필요하다”고 말했다.

저작권자 © 이코리아 무단전재 및 재배포 금지