마이크로소프트(MS)가 공개한 AI 칩 '마이아 100'. 출처=마이크로소프트 공식 엑스닷컴 계정 갈무리
마이크로소프트(MS)가 공개한 AI 칩 '마이아 100'. 출처=마이크로소프트 공식 엑스닷컴 계정 갈무리

[이코리아] 마이크로소프트(MS)가 최근 인공지능(AI) 칩을 공개하면서 빅테크 기업들의 AI 반도체 개발 경쟁이 가속화되고 있다. 이러한 가운데 삼성전자, SK하이닉스 등 국내 반도체 기업들이 수혜를 받을 수 있다는 전망도 나온다. 

MS는 15일(현지시간) 회사 연례 개발자 회의 '이그나이트 콘퍼런스'에서 자체 개발한 AI 그래픽처리장치 '마이아 100'과 일반 컴퓨팅 작업용 반도체 '코발트 100'을 공개했다.

마이아 100은 엔비디아의 GPU와 유사한 형태로, 생성형 AI의 기본 기술인 대규모 언어 모델(LLM)을 훈련하고 실행하는 데이터센터 서버 구동을 위해 설계됐다. 

MS는 이 칩을 개발하기 위해 챗GPT 개발사 오픈AI와 협력했다고 설명했다. 오픈AI는 이전에 애저에서 엔비디아 GPU에 대한 모델을 교육한 적이 있다. 

샘 올트먼 오픈AI 최고경영자(CEO)는 "MS와 협력해 우리의 (AI) 모델로 마이아 칩을 정제하고 테스트했다"며 "이제 마이아를 통해 최적화된 애저(MS의 클라우드 서비스)의 AI 기반은 더 뛰어난 성능의 모델을 학습하고 고객에게 더 저렴한 가격으로 제공할 수 있는 길을 열어준다"고 말했다. 

MS는 "외부에 판매할 계획은 아직 없고, 마이아 100을 자체 AI 기반 소프트웨어 제품과 애저 클라우드 서비스의 성능을 높이는 데 활용할 계획"이라고 밝혔다.

미국 경제매체 CNBC에 따르면 지난 수년 동안 아마존, 구글, 알리바바 등 글로벌 IT기업들이 고객들에게 애플리케이션을 실행하는 데 사용할 수 있는 클라우드 인프라에 대한 더 많은 옵션을 제공하기 시작했다. CNBC는 "한 추정에 따르면 10월 말 기준 약 1440억 달러의 현금을 가진 MS의 2022년 클라우드 시장 점유율은 21.5%로 아마존 다음으로 높다"고 보도했다. 

MS 기업 부사장 라니 보카르는 CNBC와의 이날 인터뷰에서 "마이아 100이 자사의 빙 검색 엔진의 AI 챗봇, 깃허브 코파일럿 코딩 보조기, 마이크로소프트가 지원하는 오픈AI의 대형 언어 모델인 GPT-3.5-Turbo의 요구에 어떻게 부응하는지 테스트하고 있다"고 말했다. 오픈AI는 인터넷으로부터 대량의 정보를 언어 모델들에게 공급해왔고, AI는 이메일 메시지를 생성하고, 문서를 요약하고, 인간의 지시 몇 마디로 질문에 대답할 수 있다.

보카르 부사장은 또 "코발트 칩에서 실행되는 가상 머신 인스턴스가 2024년 MS의 애저 클라우드를 통해 상업적으로 이용 가능해질 것"이라고 말했다. 하지만 마이아 100 출시 일정을 밝히진 않았다. 

업계에 따르면 현재 전 세계 생성형 AI 훈련에 필요한 AI 칩 시장은 엔비디아가 80% 이상을 차지하고 있다. 수요에 비해 공급이 부족한 상황이라 MS와 엔비디아의 경쟁이 예상된다. 

한편, 이런 흐름 속에서 삼성전자, SK하이닉스 등 국내 반도체 기업들이 단기적으로 수혜를 받을 수 있다는 전망도 나온다.

김양팽 산업연구원 전문연구원은 17일 <이코리아>와 한 통화에서 "엔비디아가 HBM을 사용하고 있는데, HBM의 경우 삼성전자, SK하이닉스가 시장의 대부분을 차지한다"면서 "메모리 반도체의 경우 기존에 빠른 수요는 없더라도 새로운 CPU, MPU 고부가 제품에는 수요가 있는 만큼 전체적인 영향에서 그러한 분석이 나오는 것 같다"고 말했다. 

이어 "특히 새로운 AI 반도체를 만들기 위해 파운드리에 발주가 필요한 만큼 삼성전자에게는 새로운 고객이 등장하는 효과가 나타난다"고 덧붙였다. 

증권가에서는 향후 AI 시장이 기존 클라우드 중심에서 엣지 디바이스인 모바일, PC까지 확대됨에 따라 온 디바이스(On-Device) AI 수혜기업으로 삼성전자를 꼽기도 했다. 

김동원 KB증권 연구원은 "삼성전자는 2024년 4분기부터 LPDDR 대비 대역 폭과 전송속도를 높이면서 온 디바이스 AI에 특화된 LLW(Low Latency Wide) D램 양산을 시작해 온 디바이스 AI 시장 선점이 예상된다"고 전망했다. 

그러면서 "향후 AI 메모리 시장은 생성형 AI(HBM)에 이어 고성능, 저전력의 온 디바이스 AI(LLW)로 확대될 전망"이라면서 "이처럼 AI 기능이 서버 중심에서 스마트 폰, PC 등 모든 전자기기로 응용처가 확대된다면 수요 둔화에 직면한 전기전자 분야의 신규 수요를 창출할 것으로 기대된다"고 말했다. 

 

저작권자 © 이코리아 무단전재 및 재배포 금지