HBM시장, 삼성전자·SK하이닉스 중 누가 승자 되나?
Chat GPT 등 생성형 AI 확산으로 올해 147% 성장 예상돼
[산업일보]
Chat GPT 등 생성형 AI에 대한 수요가 확산되고 있는 가운데, 고대역폭메모리(HBM)에 대한 수요가 지속적으로 성장할 것이라는 전망이 제시되고 있다. 이에, HBM분야에서 의미있는 성과를 거두고 있는 삼성전자와 SK하이닉스의 경쟁이 본격화될 것으로 보인다.
최근 Yole Group에서 발표한 자료에 따르면, HBM은 AI 컴퓨팅 수요에 힘입어 전체 D램 시장을 크게 앞지를 것으로 예상된다. HBM 비트 출하량은 2023년 93% 증가했으며 2024년 147% 증가할 것으로 전망되며, 2023년부터 2029년까지 연평균 45%, 데이터센터 D램 비트는 25% 증가할 것으로 예상된다.
HBM 시장 수익은 2022년 27억 달러에서 2024년 140억 달러로 증가할 수 있으며, 전체 D램 수익의 3%와 19%를 각각 차지할 수 있다.
아울러, HBM 기술을 발전시켜 메모리 대역폭과 전력효율을 향상시키고 스택 두께를 줄이는 하이브리드 본딩의 중요성이 확대될 것이다. 하이브리드 본딩은 2026년경 HBM4세대를 시작으로 스택당 최대 16개의 DRAM 다이를 갖추고 인터페이스 폭을 2,048비트로 2배 증가시킬 것으로 예상된다.
메모리 공급업체들도 HBM 웨이퍼 생산량을 늘렸는데, Yole Group은 2022년 월 4만4000장(WPM)이던 웨이퍼가 2023년 7만4000장으로 늘었고 2024년에는 15만1000장으로 성장할 수 있을 것으로 추정하고 있다.
이렇듯 HBM이 반도체 시장을 주도하는 제품으로 빠르게 자리매김 함에 따라 HBM분야에서 각축전을 벌이고 있는 삼성전자와 SK하이닉스도 HBM분야의 확장에 더욱 속도를 내고 있다.
HBM 개발과 상용화는 SK하이닉스가 주도하고 있지만 삼성과의 경쟁은 갈수록 치열해지고 있다. 마이크론은 국내 기업에 비해 시장 점유율이 상대적으로 낮지만 시장 기회를 활용하기 위해 생산량을 늘리고 있다.
특히, SK하이닉스는 2022년 하반기 HBM3를 선보이며 상당한 우위를 점했고, 이번 세대와 확장형 HBM3E는 아직 배치 초기 단계이지만 핵심 3사 모두 2026년 HBM4를 선보일 예정이다.
엔비디아(NVIDIA)와 같은 고객의 주문 증가가 예상되는 것 외에도 AMD, 구글, 아마존 등은 AI 기반 애플리케이션에 전원을 공급하기 위해 자체 AI 가속기 제조를 시작할 계획이다.
삼성전자 역시 HBM분야에서 SK하이닉스와의 경쟁을 치열하게 이어갈 계획이다. 삼성전자는 지난해 3분기 HBM3 첫 양산을 시작했고, 4분기 고객사 리스트에 주요 GPU 업체를 추가하며 판매를 확대했다.
삼성전자는 칩 설계와 생산부터 HBM생산과 패키징까지 가능하다는 점을 강점으로 내세워 HBM시장에서 SK하이닉스에 비해 다소 열세인 상황을 뒤집을 계획을 갖고 있다.
전기·전자, 반도체