국내 금융분야 인공지능 시장규모 전망. 자료=하나금융경영연구소
국내 금융분야 인공지능 시장규모 전망. 자료=하나금융경영연구소

[이코리아] 미국 인공지능(AI) 연구소 오픈AI가 개발한 ‘챗GPT’가 금융권에도 AI 열풍을 불러일으키고 있다. 다양한 활용성에 주목한 국내 금융사들도 관련 서비스 개발을 추진하는 가운데, AI 도입으로 인한 새로운 위험을 우려하는 목소리도 나온다. 

마이크로소프트가 약 100억 달러를 투자한 것으로 알려진 오픈AI가 개발한 ‘챗GPT’는 대화형 인공지능 챗봇으로, 기존 챗봇과 달리 대화의 맥락을 파악하고 여러 상황과 스타일에 맞춰 답변할 수 있어 실제 사람과 대화하는 것과 가장 유사하다는 평가를 받고 있다. 이 때문에 챗GPT는 지난해 11월 공개된 이후 다양한 분야에서 관심을 끌고 있다. 

‘디지털 전환’을 화두로 삼고 있는 금융권 또한 챗GPT의 다양한 활용 가능성에 큰 관심을 쏟고 있다. 고객서비스부터 업무 자동화까지 다양한 영역에서 활용이 가능하기 때문. 고객상담에 챗GPT를 활용할 경우, 키워드 중심의 기존 챗봇과 달리 과거 상담기록을 분석해 더 정확한 답변을 제공하거나 개별 투자목표에 따른 맞춤형 상품을 추천할 수 있다. 또한 고객의 거래 패턴을 분석해 금융사기를 예방하거나, 재무상황 등을 평가해 신용리스크를 줄이는 등의 업무에도 활용이 가능하다. 

실제 글로벌 금융사들도 챗GPT와 같은 인공지능 서비스 개발에 박차를 가하고 있다. 하나금융경영연구소가 최근 발표한 ‘챗GPT로 달라질 금융권 미래’ 보고서에 따르면, 모건스탠리(Morgan Stanley)는 챗GPT-4를 활용해 10만개 이상의 리서치 자료를 분석한 AI툴을 개발해 재무관리사 300명을 대상으로 테스트를 진행 중이다. 모건스탠리는 향후 해당 AI툴을 통해 자산관리(WM) 분야에서 더욱 개선된 금융투자 상담을 제공할 계획이다. 캐피탈 원(Capital one)과 BBVA는 AI챗봇을 고객 응대 및 재무상담에 활용하고 있으며, HSBC는 금융사기 및 자금세탁 방지 업무에 AI를 활용 중이다. 

아직 시작 단계이지만 국내 주요 금융그룹도 챗GPT를 비롯해 다양한 AI 서비스 도입에 나서는 분위기다. 인터넷전문은행은 토스뱅크는 지난달 토스 앱에 ‘챗GPT에게 물어보기’ 기능을 추가해 시범 운영 중이다. KB국민은행도 지난해 기업대출 분야에 AI를 적용한 ‘기업여신 자동심사 시스템’을 도입했으며, 최근에는 고객센터 상담 내용을 텍스트로 전환해 분석하고 이슈 리포트를 작성하는 ‘미래컨택센터 FCC STT·TA 시스템’을 출시했다. 

신한금융그룹은 지난 2019년 AI를 활용해 투자 포트폴리오를 제안하는 투자자문사 ‘신한AI’를 설립했다. 신한카드도 지난 2018년부터 ‘챗봇 상담’과 ‘AI컨텍센터’ 등 AI솔루션을 도입해왔으며, 신한은행은 대화형 AI서비스를 통해 언제 어디서든 금융업무를 처리할 수 있는 ‘인비저블 뱅크’(Invisible bank)를 핵심 채널로 활용할 계획이다.

금융당국도 금융권의 AI 도입을 위한 규제 혁신을 논의하고 있다. 앞서 금융위원회는 지난달 14일 ‘초거대 AI시대, 데이터 기반의 지속적인 혁신·경쟁을 위한 금융데이터 정책 방향’을 주제로 간담회를 열고, 글로벌 AI 경쟁력을 확보하기 위해 민·관·산·학이 광범위하게 참여하는 ‘금융 AI·빅데이터 생태계 협의체’를 운영하는 방향을 논의했다. 

챗GPT와 같은 대화형 AI 활용이 금융권의 혁신 동력으로 여겨지는 만큼, 신기술 도입에 따르는 새로운 위험을 우려하는 목소리도 적지 않다. 김지현 하나금융경영연구소 연구위원은 “챗GPT는 학습한 데이터를 이용하기에 지적재산권 침해에 대한 문제가 제기될 수 있다”며 “최신정보가 부족한 경우 잘못된 정보 또는 편향적인 정보를 제공 및 확산할 가능성도 있다”고 지적했다. 

사람의 대화 패턴을 학습해 특정 개인과 유사한 말투를 흉내낼 수 있어 ‘피싱(phishing)’에 악용될 위험도 있다. 최근 캐나다에서는 AI로 위조한 아들의 목소리에 속아 돈을 송금하는 사건이 발생하기도 했다. 이 때문에 유럽연합(EU)은 AI의 위험성을 규제하기 위한 AI법 제정을 준비 중이며, 미국도 지난해 AI서비스 활용에 따른 부작용을 줄이기 위해 ‘AI윤리지침’을 발표하기도 했다. 

한편, 김 연구위원은 “AI 기술 개발과 데이터 보안의 균형을 찾기 위한 챗GPT 규제 방향이 논의되고 있어, 규제 등 활용 가능성 및 범위에 대한 불확실성에 대한 우려가 증가하고 있다”며 “데이터 유출 및 지적재산권 침해, 정보 신뢰성 한계, 보이스피싱 악용 등의 문제점이 있고 인공지능 윤리와 활용원칙 정립이 필요해 금융업의 도입 범위와 방식에 대한 고민도 필요하다”고 말했다. 

저작권자 © 이코리아 무단전재 및 재배포 금지