미국 대법원 = 픽사베이
미국 대법원 = 픽사베이

[이코리아] 미국 대법원이 통신품위법 230조를 들여다보기 시작하면서 인터넷 세계에 큰 변화가 예고되고 있다. 최근 연달아 벌어진 법적 분쟁으로 인해 빅테크의 면책 특권으로 여겨지던 통신품위법 230조가 도마 위에 오른 것이다.

통신품위법(CDA)은 인터넷이 등장한 초창기인 1996년에 제정된 법으로 인터넷의 유해한 콘텐츠로부터 이용자를 보호하기 위해 만들어진 법안이다. 플랫폼이 외설, 폭력 등 불법적인 정보를 송신할 경우 2년 이하 징역과 25만 달러 이하 벌금을 부과하도록 했다. 하지만 이런 처벌은 과잉 규제이며 표현의 자유를 침해한다는 논란이 일었고, 결국 민주당의 론 와이든 상원의원의 주도하에 면책조항인 230조가 추가되었다. 온라인 플랫폼의 이용자들이 플랫폼에 올리는 불법적인 콘텐츠에 대한 법적 책임을 운영자가 면책받는 조항이다. 

통신품위법 230조는 표현의 자유를 보장하며 플랫폼 기업이 성장하는 발판이 되었다. 하지만 이런 면책조항이 플랫폼 기업들이 증오, 극단주의 콘텐츠를 방치할 수 있도록 만들어 증오 확산에 일조하고 있다고 비판받고 있기도 하다.

조 바이든 미국 대통령은 통신품위법 230조가 빅테크의 추천 알고리즘에 대한 책임을 면제해서는 안 된다고 개정을 촉구했으며, 미 의회에서도 230조의 개정이 초당적인 지지를 받고있는 상황이다.

21일 미국 대법원은 통신품위법 230조의 위헌 여부 심리를 시작했다. 2015년 발생한 파리 테러의 피해자 ‘노헤미 곤살레스’의 유족들이 구글, 페이스북, 트위터가 극단주의 콘텐츠를 퍼뜨리고 있다고 고소한 ‘곤살레스 대 구글’ 사건이 계기가 되었다. 곤살레스 유족 측은 테러를 단행한 이슬람국가(IS)가 테러를 준비하는데 구글의 유튜브가 핵심적인 역할을 했으며, 구글이 이에 대한 책임을 져야 한다고 주장하고 있다. 이에 구글 측은 통신품위법 230조에 따라 구글은 콘텐츠에 대한 책임 소재가 없다고 맞서고 있다. 외신들은 곤살레스 대 구글 사건의 판결이 6월 이후 이뤄질 것으로 관측하고 있다.

22일부터는 또 다른 사건에서 통신품위법 230조가 다뤄지고 있다. 2017년 튀르키에 이스탄불에서 벌어진 IS의 총기 난사 사건 피해자들이 트위터를 고발한 것이다. 해당 사건에서도 사건 피해자의 유족들은 트위터가 테러 집단의 콘텐츠를 방조하고 있다고 고발했으며, 트위터 측은 통신품위법 230조를 근거로 자신들의 책임이 없다고 주장하고 있다. 

외신들은 일련의 두 사건이 인터넷 전체에 큰 영향을 미칠 수 있는 사건이라고 평가하고 있다. 대법원이 알고리즘에 대한 기업의 책임을 인정할 경우, 유튜브, SNS 등 빅테크 인터넷 플랫폼의 알고리즘 운용 전략에 변화가 오는 것은 불가피하기 때문이다. CNN, 로이터 등 다수의 외신은 해당 판결의 결과에 따라 빅테크 플랫폼을 상대로 다수의 후속 소송이 잇따를 수 있다고 관측했다. 또 이코노미스트는 판결의 결과에 따라 법원이 빅테크의 추천 알고리즘 구축과 사용 방식에 대해 변화를 요구하게 될 수도 있다고 전망했다.

한편 일련의 심리 과정에서 인공지능이 내놓는 잘못된 대답의 책임이 서비스 회사에 있다는 발언이 나오기도 해 주목받고 있다. 21일 ‘곤살레스 대 구글’ 사건의 심리를 진행하던 닐 고서치 판사는 생성 AI가 만들어내는 콘텐츠는 통신품위법 230조의 면책 특권으로 보호될 수 없다고 말했다. 고서치 판사는 통신품위법 230조가 적용되지 않는 사례를 들며 생성 AI를 언급했다. “AI는 시를 생성한다. 이는 콘텐츠를 고르고, 선택하고, 분석하고 소화하는 것 이상의 콘텐츠가 될 것이라는 논쟁을 불러일으킨다. 하지만 이는 면책특권으로 보호될 수 없다.”라고 강조했다.

벤처비트는 해당 발언이 생성 AI와 관련되어 진행중인 소송에 영향을 미칠 수 있다고 관측했다. 현재 오픈 AI, 스태빌리티 AI 등 다수의 생성 AI 기업이 사용자들로부터 저작권을 침해했다며 고소당한 상태이다.

인공지능이 내놓는 잘못된 대답의 법적 책임을 기업에 묻게 될 경우, 급성장하고 있는 챗봇 시장에 악영향을 끼칠 것이라는 관측도 나오고 있다. 오픈 AI의 '챗 GPT'는 서비스 이후 지속적으로 잘못된 대답을 내놓는다는 평가가 나오고 있으며, 마이크로소프트는 챗봇 기술을 적용해 테스트중인 '빙' 챗봇이 부적절하고 위험한 발언을 내놓을 수 있다는 우려에 이용자들의 빙 챗봇 테스트 문답 횟수를 제한하기도 했다.

저작권자 © 이코리아 무단전재 및 재배포 금지