ㅈ= 픽사베이
ㅈ= 픽사베이

[이코리아] 전 세계적으로 인공지능 윤리와 신뢰성에 대한 논의가 이루어지고 있다. AI가 부정확한 대답을 내놓는 환각현상, 생성 AI로 인한 저작권 문제 등 AI를 둘러싼 논란이 계속해서 벌어지고 있기 때문이다. 스티브 워즈니악, 제프리 힌튼 등 전문가들 역시 AI의 위험성을 강조하며 규제를 촉구하고 있다.

잇따른 인공지능에 대한 우려에 정부도 나서고 있다. 과기정통부는 11일 디지털 기업 및 학계 전문가들과 함께 챗GPT 등 초거대·생성형 인공지능 확산에 대응해 인공지능 윤리와 신뢰성을 확보하기 위하여 서울 제네시스 랩에서 현장간담회를 개최했다고 밝혔다. 

이번 현장간담회는 윤리기준 제시에서 더 나아가 윤리규범 실천을 위한 구체적 방안을 논의하는 자리로, 정부와 민간에서 윤리원칙을 적용한 사례와 인공지능 윤리·신뢰성 확산을 위한 향후 계획을 공유하였다.

박윤규 과기정통부 2차관은 “챗GPT의 등장 이후 초거대·생성형 인공지능이 산업과 일상 속으로 빠르게 확산되는 과정에서 인공지능 윤리·신뢰성 쟁점이 새로운 국면에 접어들고 있다. 기술의 개발부터 활용의 전 단계에서 인공지능 윤리·신뢰성을 확보하는 것이 기업의 생존과 직결된 만큼 간담회에서 논의된 사항을 바탕으로 인공지능 윤리·신뢰성 확보와 관련하여 더 많은 노력을 기울일 것이다.”라고 밝혔다.

또 “악의적 의도자가 AI를 악용하면 인류에 큰 피해를 미칠 수 있다. 그래서 세계적으로도 AI를 윤리적으로 다뤄야 한다는 논의가 한창이다.” “정부는 AI가 민간에서 활성화될 수 있도록 제도를 비롯해 기술분야까지 종합적으로 지원을 하고자 한다.”라고 말했다.

방송통신위원회도 생성 AI 서비스 이용자 보호를 위해 나섰다. 방송통신위원회는 정보통신정책연구원(KISDI)과 제2기 '지능정보사회 이용자 보호 민관협의회'의 7차 전체회의를 개최했다고 12일 밝혔다. 

이날 회의에서는 AI 스타트업 '스캐터랩'의 하주영 변호사가 '이루다의 사례로 본 생성형 AI 서비스와 이용자 보호'를 주제로 발표했으며 생성형 AI 기반 챗봇 서비스의 진화 방향과 이를 윤리적으로 활용하기 위한 사업자의 노력 등에 대해 논의했다.

방통위는 "민관협의회에서 생성형 인공지능 챗봇과 관련한 이용자 보호 이슈에 대해 다양한 분야 전문가들의 폭넓은 제언들을 기대한다"며 "제시된 의견들을 향후 정책으로 반영해 나가겠다"고 말했다.

= 인공지능 윤리 교재 갈무리
= 인공지능 윤리 교재 갈무리

인공지능 윤리의 중요성이 커지며 AI 네이티브로 자라나는 현 세대에 이를 교육하기 위한 교과서도 발간되었다. 지난 2월 과학기술정보통신부와 정보통신정책연구원은 인공지능 윤리기준의 주요 가치를 확산하고 초, 중, 고등학생의 인공지능 역량을 강화하고자 인공지능 윤리교육 교재를 발간했다. 

인공지능 윤리교육 교재는 인공지능 기술이 야기할 수 있는 위험과 이슈에 유연하고 바람직하게 대처할 수 있도록 ‘인공지능(AI) 윤리기준’의 3대 원칙과 10대 요건을 통해 인공지능 시대에 살아가는 시민으로서 갖추어야 하는 인공지능 윤리역량을 함양하는 것을 목표로 하고 있다.

집필진은 “본 교재는 인공지능이 사회에 가져올 수 있는 긍정적인 모습과 부정적인 모습을 균형 있게 제공함으로써 학생들이 생각을 확장 시키는 데 도움이 되고자 한다.”라고 밝혔다.

기업들도 AI 윤리에 주목하고 있다. 네이버는 지난 2021년 AI 윤리준칙을 공개했다. 네이버가 서울대와 협력해 만든 네이버 AI 윤리 준칙은 사람을 위한 AI개발, 다양성 존중, 합리적인 설명과 편리성의 조화, 안전을 고려한 서비스 설계, 프라이버시 보호와 정보 보안 등 5개 조항으로 구성되어 있다. 네이버는 학계외 지속적으로 협력해 향후 AI 윤리 준칙의 실천과 사례 발굴, 개선에 나서겠다고 밝혔다.

카카오는 2022년 기술윤리위원회를 출범해 알고리즘 투명성을 강화하겠다고 밝혔다. 또 전 직원을 대상으로 AI 윤리 교육을 실시하고, 카카오 알고리즘 윤리 헌장을 발표했다.

= 픽사베이
= 픽사베이

해외에서는 AI의 신뢰성에 대한 논의가 어떻게 이루어지고 있을까. 유럽연합은 인공지능법 제정의 준비가 한창이다. 

테크크런치 등 해외 IT 매체에 따르면 유럽의회에는 현지시각 11일 인공지능법 초안을 개정하는 투표를 통해 AI의 투명성 및 안전 규칙에 대한 지지를 확인했다. 

일련의 표결에서 유럽의회 의원들은 AI 제조사가 제품을 출시하기 전에 건강, 안전, 기본권, 환경, 민주주의 및 법치에 대한 예측 가능한 위험 등의 사항을 고려해야 한다는 의무를 부과하는 내용을 인공지능법 초안에 포함시켰다. 또 AI 모델 제조업체가 에너지 소비와 자원 사용을 줄이도록 하고, 인공지능법에 근거해 설립될 EU 데이터베이스에 이를 등록하도록 했다.

생성 AI의 투명성을 위한 조항도 포함되었다. 생성 AI 서비스 업체는 사용자에게 콘텐츠가 AI를 통해 생성되었다는 사실을 알려야 한다. 또 시스템이 생성하는 콘텐츠와 관련해 "적절한 안전장치"를 적용하고, AI를 학습시키는 데 사용된 저작권이 있는 자료의 요약을 제공할 의무를 지게 된다. 그 밖에 원격 생체 인식을 금지하는 등의 내용이 표결을 통해 인공지능법에 포함되었다.

미국 역시 AI로 인한 폐해에 주목하고 있다. 지난 10월에는 백악관이 AI가 발생시키는 위협으로부터 모든 사람을 보호하고, 가치를 강화하는 방식으로 기술을 사용하는 사회를 위한 지침인 ‘AI 권리장전’을 공개했다.

지난달에는 법무부, 소비자금융보호국(CFPB), FTC(연방거래위원회), 평등고용기회위원회(EEOC) 등 연방 규제기관들이 공동성명을 통해 AI가 지닌 위험성으로부터 미국의 핵심 원칙을 지키기 위해 법과 규정을 집행하겠다는 의지를 밝혔다.

또 지난 4일에는 카멜라 해리스 부통령과 백악관 관계자들이 순다 피차이 구글 CEO, 사티아 나델라 마이크로소프트 CEO, 샘 알트만 오픈 AI CEO 등 주요 AI 제조사 관계자들을 만나 AI와 관련된 우려에 대해 논의하기도 했다. 이 자리에는 바이든 대통령도 방문해 AI 제품을 공개하기 전에 안전성과 안정성을 분명히 해야 한다고 강조했다.

저작권자 © 이코리아 무단전재 및 재배포 금지