출처=AMD 공식 엑스닷컴 계정 갈무리 
출처=AMD 공식 엑스닷컴 계정 갈무리 

[이코리아] 엔비디아가 독점하다시피 장악하는 반도체 칩 시장에 미국 반도체 기업 AMD가 최신 인공지능(AI) 칩을 공개했다. AI 반도체의 핵심부품인 HBM은 삼성전자와 SK하이닉스 등 국내 기업이 독점적 지위를 가지고 있어 우리 반도체업계에겐 긍정적이라는 전망이 나온다. 

로이터통신·CNBC 등 외신에 따르면 AMD는 6일(현지시간) 미국 캘리포니아주 샌프란시스코에서 투자자 행사를 열고 자사의 최신 AI 칩 인스팅트(Instinct) MI300 시리즈를 공식 출시한다고 밝혔다. 

AMD는 앞서 지난 6월 인스팅트 MI300 시리즈를 발표하고 연말부터 본격 출시에 들어간다고 밝힌 바 있다. 

인스팅트 MI300 시리즈는 그래픽처리장치(GPU)인 MI300X, 중앙처리장치(CPU)와 GPU 결합 형태인 MI300A로 구성된다. 특히 MI300X은 AI 칩 시장을 주도하고 있는 엔비디아 H100의 대안으로 부각되는 양상이다. 

분석가들은 알파벳의 구글과 마이크로소프트(MS)와 같은 회사들이 구축한 맞춤형 프로세서를 포함할 때 엔비디아가 AI 칩 시장의 약 80%를 점유한 것으로 추정하고 있다. 로이터통신은 “엔비디아는 AI 매출을 달성하지는 않지만 상당 부분이 회사의 데이터 센터 부문에서 포착된다. 올해 들어 지금까지 엔비디아는 291억2000만 달러(약 38조4209억 원)의 데이터 센터 매출을 보고했다. 

엔비디아 H100과 유사한 MI300X는 MS, 오픈AI, 오라클, 델, 시스코 등 10개사가 채택할 예정이다. 

메타는 이날 AI 스티커 생성 기능과 이미지 편집 등 AI 추론 작업에 인스팅트 MI300X를 사용할 것이라고 밝혔다. 

MS는 클라우드 서비스 애저에 MI300X 칩을 이용할 것이라고 했고, 오라클도 클라우드에 AMD 칩을 사용할 예정이라고 설명했다. 

챗GPT 개발사 오픈AI는 자사의 그래픽처리장치(GPU) 프로그래밍 언어인 '트리톤'에 AMD 칩을 사용할 것이라고 덧붙였다.

리서치 회사 오미디아의 최근 보고서에 따르면 메타와 MS는 올해 엔비디아 H100의 최대 구매자였다. 

H100은 생성형 AI 모델의 기반이 되는 대규모 언어 모델(LLM)에 적용해 이를 훈련하도록 설계된 칩이다. 하지만 공급이 부족한 데다 칩 개당 가격도 2만5000달러∼4만 달러로 크게 비싸 관련 기업들이 칩 확보에 어려움을 겪어 왔다. 

리사 수 AMD 최고경영자(CEO)는 H100과 인스팅트 MI300X을 비교 시연하면서 "요즘 클라우드 시장은 첨단 서버와 막강한 그래픽 성능을 요구하는 추세"라며 "성능은 더 나은 사용자 경험으로 직결된다"고 자신감을 내비쳤다. 

AMD는 MI300X가 H100 대비 2.4배 메모리 밀도와 1.6배 이상의 대역폭(bandwidth)을 제공한다고 설명했다. 이날 AMD 측은 M1300X의 가격은 언급하지 않았다. 

리사 수 CEO는 "고객들이 구매하도록 하기 위해서는 엔비디아보다 비용이 더 적게 들어야 할 것"이라고 말했다고 외신은 전했다. 

다만 미 투자전문지 모틀리 풀은 10일(현지시간) 이번 AMD의 AI칩에 대해 “하드웨어가 전부가 아니다”라며 “데이터센터 GPU 시장에서 엔비디아가 가진 중요한 이점 중 하나는 소프트웨어로, 엔비디아의 CUDA 플랫폼은 개발자들이 GPU를 컴퓨팅 작업에 활용할 수 있도록 해주며, 16년 전 처음 출시된 이후 사실상의 업계 표준이 되었다”고 지적했다. 

엔비디아 GPU만 지원하므로 AI 칩 공급업체를 교체하는 것은 엔비디아 액셀러레이터 대신 AMD 액셀러레이터에서 팝업되는 것만큼 간단하지 않다는 설명이다. 

이 문제에 대한 AMD의 답은 현재 여섯 번째 반복 중인 개방형 GPU 컴퓨팅 플랫폼인 ROCm이라고 모틀리 풀은 짚었다. 외신은 “ROCm은 텐서플로우와 PyTorch를 포함한 가장 인기 있는 AI 프레임워크를 지원하며 AMD는 파트너십을 통해 생태계를 확장해왔다”며 “소프트웨어 분야에서 엔비디아를 따라잡기 위해 오픈 소스 AI 소프트웨어 회사 Nod.ai 를 포함해 몇 가지 AI 관련 인수를 수행했다”고 설명했다. 

한편, AMD는 올해 AI 칩 시장이 450억 달러(59조2600억 원)에 이를 것으로 예상했다. 이는 지난 6월 예상한 300억 달러(39조5070억 원)보다 50% 늘어난 수준이다.

또 2027년까지 AI 칩 시장이 4000억 달러(526조6800억 원) 수준으로 4년 만에 약 9배 성장할 것으로 전망했다. 이어 내년 AMD의 AI 칩 매출은 20억 달러(2조6334억 원)에 이를 것이라고 내다봤다. 

이와 관련해 시장의 반응도 호의적이었다. AMD가 AI칩을 공개한 뒤 주가는 급등했다. 시장은 미국 고용지표와 다가오는 미국 CPI 및 FOMC를 앞두고 경계감에도 확실한 성장과 경쟁에 긍정적으로 반응한 것이다. 지난 7일 뉴욕증권거래소에서 AMD는 전 거래일 대비 11.55달러(9.89%) 오른 128.37원에 거래를 마감했다. 

이날 AMD의 신제품 출시와 주가 상승은 또 국내 반도체 주에 호재가 됐다. AI 반도체 핵심부품인 HBM, 국내 기업이 독점적 지위를 갖고 있기 때문이다. 삼성전자와 SK하이닉스는 이날 모두 전일 대비 2% 안팎으로 올랐다. 한국거래소에서 11일 오후 12시 33분 기준 삼성전자는 7만2600원으로 보합, SK하이닉슨느 0.78% 올라 12만8500원에 거래되고 있다. 

증권가에서는 AMD의 AI 칩에 들어가는 HBM은 한국의 독점 공급이 예상된다는 의견도 나왔다. 

김동원 KB증권 연구원은 11일 보고서를 통해 “2024년 4분기 기준 삼성전자, SK하이닉스의 HBM 생산능력(capa)은 올해 말 대비 각각 2.5배 증설될 계획이다. 하지만 2.5배 증설돼도 HBM 공급 부족은 지속될 전망”이라고 설명했다. 

이는 △HBM 신제품 기능이 진화(4세대: HBM3, 5세대: HBM3E, 6세대: HBM4)할수록 생산 수율 문제가 불거져 실제 생산량은 신규 생산능력의 70% 수준에 불과하고, △HBM3E 생산 직행을 발표한 마이크론의 경우 생산 수율의 검증이 필요해 실제 HBM의 생산량 증가 기여는 미미할 것으로 추정되기 때문이라는 분석이다. 

김 연구원은 “AMD가 출시한 MI300 시리즈 HBM은 삼성전자, SK하이닉스가 전량 공급할 것으로 예상된다. 12월 현재 AMD가 수주한 MI300 시리즈 물량은 25~30억 달러 수준으로 전망되어 내년 AMD의 AI 반도체 매출 전망(20억 달러)을 감안하면 이미 솔드 아웃 (매진)된 것으로 추정된다"고 말했다. 

이어 “특히 내년 2분기 엔비디아 신제품 출시(B100, H200)를 고려하면 내년 HBM 공급부족 심화는 당분간 지속될 것으로 전망되어 삼성전자, SK하이닉스 수혜가 기대된다”고 전망했다. 

김양팽 산업연구원 반도체 전문연구원은 11일 <이코리아>와 한 통화에서 “애플 등 IT 대기업들이 AI칩을 직접 만들려고 하지만 이들의 경우 특수목적용이다. 즉, 자신의 기업들 서비스를 제공하기 위함으로 생산량이나 시장규모가 클 수가 없다”고 말했다. 

이어 “반면 엔비디아나 AMD의 경우 AI칩은 범용 서버용 제품에 들어간다. 지금 DDR5로 전환되는 시점에서 HBM은 그것의 몇 배가 더 비싼 고부가제품”이라면서 “AMD의 AI 칩 출시로 인해 더 커진 시장 규모에서 HBM의 독점적 위치를 가진 우리 기업들로서는 고부가제품을 팔 수 있는 기회 역시 커지게 되는 것으로 우리 메모리 반도체 업계로서는 상당히 긍정적”이라고 말했다

저작권자 © 이코리아 무단전재 및 재배포 금지