= 픽사베이
= 픽사베이

[이코리아] 구글이 뉴스 기사에 특화된 언론인을 위한 AI 도구 ‘제네시스’를 개발 중이다.

뉴욕타임즈의 보도에 따르면 최근 구글은 뉴욕타임즈, 워싱턴포스트, 월스트리트저널 등 언론사 관계자를 대상으로 제네시스 AI를 시연했다. 해당 시연에 참여한 익명의 임원에 따르면 이 도구는 AI를 통해 뉴스 수집의 일환으로 정보를 수집하고, 뉴스 기사의 초안을 작성하며, 소셜 미디어 게시물 작성과 같은 포스트 프로덕션 작업을 처리할 수 있는 것으로 소개되었다.

젠 크리더 구글 대변인은 이에 대해 “언론사, 특히 소규모 언론사와 협력하여 저널리스트의 업무를 돕기 위해 잠재적으로 AI 지원 도구를 제공하기 위한 아이디어를 탐색하는 초기 단계에 있다.”라고 밝혔다. 

이 AI 지원 도구는 헤드라인이나 다양한 글쓰기 스타일에 대한 옵션으로 저널리스트를 지원할 수 있으며, 구글의 목표는 지메일이나 구글 문서가 사용자에게 보조 도구를 제공하는 것 처럼 언론인에게 업무와 생산성을 향상시킬 새로운 기술을 사용할 수 있는 선택권을 제공하는 것이라고 말했다.

또 이러한 도구는 보조 수단에 불과하며 기자가 기사를 보도하고 작성하며 사실 확인을 하는 본질적인 역할을 대체할 수는 없다고 덧붙혔다.

하지만 우려하는 의견도 있다. 뉴욕타임즈는 구글의 기사 작성 AI 개발이 수십년 간 기사를 써온 기자들 사이에서 불안감을 초래하고 있다고 지적했다. 또 AI가 기사를 대량으로 쓸 수 있도록 도움을 줄 수는 있지만 기사를 신중하게 편집하고 검토하지 않을 경우 잘못된 정보를 확산시킬 수 있다고 우려했다.

워싱턴포스트는 일부 언론사들이 이미 AI를 도입해 많은 콘텐츠를 빠르게 작성하며 인간 기자들의 불안과 분노를 불러일으키고 있는 상태라고 지적했다. 또 이러한 도구는 여전히 허위 정보를 만들어 사실인 것처럼 전달하고 있으며, 뉴스 기사를 작성하는 데 신뢰할 수 있는지에 대한 의구심을 불러일으키고 있다고 지적했다. 

생성 AI 도구는 언론사가 생성한 콘텐츠를 그동안 무단으로 학습해왔다는 점도 언급했다. 이전에 챗 GPT가 뉴욕 타임즈, 로스앤젤레스 타임즈, 더 포스트 등의 뉴스 기사를 무단 학습했던 사례가 있다는 것이다.

온라인 뉴스 조직을 위한 로비 단체인 디지털 콘텐츠 넥스트의 제이슨 킨트 CEO는 언론사가 구글을 경계해야 한다고 주장했다. 그는 “언론사는 구글이 저작권이 있는 자료와 사용자 데이터를 구글의 이익과 이익을 극대화하는 방식으로 수집해 온 오랜 역사에 대해서도 다른 시각을 가져야 한다.”라고 강조했다. 그동안 구글은 여러 언론사의 데이터를 활용해 AI를 훈련시켜 왔다는 주장이다.

AI가 등장한 후 다수의 언론사가 기사 작성에 AI를 활용하기 시작했다. 하지만 이에 따라 여러 논란이 터져나오기도 했다.

미국의 IT 매체 씨넷은 AI가 작성한 기사를 내보냈다가 곤혹을 겪었다. AI로 작성된 77건의 기사 중 41건의 기사에서 심각한 오류가 드러났으며, 타사의 기사에 쓰인 문장과 동일한 문장이 포함되어 표절 논란도 일어난 것이다. 코니 굴리엘모 씨넷 편집장은 “AI 보조 도구를 기사 작성에 어떻게 활용할 수 있는지 테스트하는 과정”이라고 해명했지만, 씨넷은 신뢰성과 도덕성 면에서 큰 비판에 직면했다.

지난 4월 독일의 주간지 악투엘레는 은퇴한 F1 선수 미하엘 슈마허의 가짜 인터뷰를 AI로 작성했다가 도덕성 논란에 휘말렸다. 미하엘 슈마허는 지난 2013년 사고를 당한 뒤 거동이 불편해 언론과의 인터뷰를 할 수 없는 상황이었는데, 악투엘레가 AI로 가짜 인터뷰를 작성한 뒤 ‘미하엘 슈마허와의 첫 인터뷰’라는 제목으로 이를 내보낸 것이다. 이에 슈마허의 가족은 악투엘레를 상대로 법적 대응을 검토 중이다.

또 아일랜드의 아이리시 타임즈는 지난 5월 독자 기고문을 내보냈다가 AI로 작성된 글인 것으로 확인되어 사과하기도 했다. 기고자는 AI 사진을 활용해 가상의 여성을 만든 뒤, 자신이 아일랜드 북부에 거주하는 29세 여성인 것으로 속여 아이리시 타임즈에 AI로 작성한 글을 기고했다. 루아단 맥코맥 아이리시 타임즈 편집자는 “우리는 정교한 사기의 희생향이 되었다. 이번 사건은 언론사와 독자의 신뢰를 깨뜨렸으며 진심으로 사과한다.”라고 밝혔다.

일부 언론사들은 자체적인 인공지능 활용 기준을 마련하기도 했다. 

룰라 칼라프 파이낸셜타임스 편집국장은 지난 5월 “인공지능 모델은 완전히 잘못된 이미지와 기사를 생성할 수 있다. 또 역사적 편견을 포함한 기존의 사회적 관점을 답습한다.”라고 지적했다. 또 “새로운 인공지능 시대 파이낸셜타임스의 저널리즘은 자신의 분야에서 최고이며 세상을 정확하고 공정하게 보도하고 분석하는 데 전념하는 ‘인간’에 의해 계속 작성되고 보도될 것이다.”라고 말했다. 또 그는 기자를 지원하기 위해 번역, 데이터 마이닝, 텍스트와 이미지 분석 등에 AI 도구를 실험하는 별도의 팀이 필요하지만, AI 생성 이미지는 사용하지 않을 것이라고 덧붙혔다.

니콜라스 칼슨 인사이더 글로벌편집장은 지난 3월 챗 GPT를 자유롭되 신중하게 사용하고, 기사 작성에 직접 사용해서는 안된다고 구성원들에게 공지했다. 칼슨 편집장은 “생성 AI는 허위정보를 삽입할 수 있고 출처를 신뢰할 수 없어 저널리즘의 재앙으로 이어질 수 있다.”라고 경고하며 위키피디아 정도 신뢰도의 출처로 간주해야 한다고 주장했다.

저작권자 © 이코리아 무단전재 및 재배포 금지