[산업일보]
AI 반도체 시장이 구조적 변곡점을 맞이하고 있다. 생성형 AI 개화 이후 시장을 압도적으로 장악해 온 엔비디아의 GPU(그래픽처리장치)의 독주 체제에 변화가 감지됐다. 막대한 인프라 구축 비용과 전력 소모 문제가 기업들의 최우선 해결 과제로 부상하자, 구글의 TPU(텐서처리장치)를 비롯한 ASIC(주문형 반도체)가 현실적인 대안으로 떠올랐다. 2026년은 단일 칩 의존 관성에서 벗어나 효율성을 중시하는 ‘멀티 아키텍처’ 생태계로의 전환이 가속화될 전망이다.
시장조사기관 트렌드포스는 2026년 AI 서버 출하량이 전년 대비 20% 이상 증가할 것으로 내다봤다. 특히 주목할 점은 ASIC 기반 서버의 성장세가 GPU를 넘어설 것이라는 분석이다. 이는 시장의 중심축이 범용성에서 효율성으로 이동하고 있음을 시사한다.
변화의 가장 뚜렷한 신호는 빅테크 기업들의 ‘공급망 다변화’ 행보다. 애플은 기술 논문을 통해 자사 AI 시스템 ‘애플 인텔리전스’의 기반 모델 학습에 엔비디아 GPU 대신 구글의 TPU(v4 및 v5p)를 활용했다고 밝혔다. 메타 역시 이런 흐름에 가세하며 구글 TPU 도입을 적극 검토 중이다. 이는 마크 저커버그 CEO가 추진하는 '범용인공지능(AGI)' 확보 전략의 일환으로, 특정 칩 벤더에 대한 과도한 의존을 줄이고 협상력을 높이려는 의도로 풀이된다.
업계는 메타가 자사 거대언어모델 ‘라마(Llama)’ 생태계를 확장하는 과정에서 학습 및 추론 인프라에 TPU를 병행 활용하는 ‘멀티 칩’ 전략을 구사할 것으로 보고 있다. 이미 자체 개발 칩 ‘MTIA’를 고도화 중인 메타가 타사의 ASIC까지 포용할 경우, 빅테크 발(發) 인프라 재편은 더욱 가속화될 것으로 보인다.
업계에서는 메타가 자사 거대언어모델 ‘라마(Llama)’ 생태계를 확장하는 과정에서, 학습 및 추론 인프라에 TPU를 병행 활용하는 ‘멀티 칩’ 전략을 구사할 것으로 보고 있다. 이미 자체 개발 칩 ‘MTIA’를 고도화하고 있는 메타가 타사의 ASIC까지 포용할 경우, 빅테크 기업들의 ‘탈 엔비디아’ 움직임이 실질적인 인프라 재편을 초래할 것으로 보인다.
경쟁사들의 추격도 구체화되고 있다. AMD는 최신 AI 가속기 ‘MI325X’를 앞세워 시장 점유율 확대를 꾀하고 있다. 아울러 엔비디아의 소프트웨어 플랫폼 ‘쿠다(CUDA)’에 대항해 인텔·구글 등과 연합하여 오픈형 소프트웨어 생태계를 구축하는 데 속도를 내고 있다. 기업들은 범용 학습에는 GPU를, 서비스용(추론)에는 가성비가 뛰어난 TPU나 NPU를 혼용하는 하이브리드 운용 방식을 채택하는 추세다.
이러한 칩 생태계의 다변화는 한국 메모리 반도체 기업에 기회이자 과제다. 고대역폭 메모리(HBM) 시장을 주도하는 삼성전자와 SK하이닉스로서는 엔비디아라는 단일 거대 수요처 외에 구글, AMD 등 새로운 대형 고객군을 확보할 수 있는 기회가 열린다.
특히 2026년 본격화될 HBM4(6세대) 수주전은 시장 주도권을 가를 분수령이 될 전망이다. 과거 규격화된 제품을 공급하던 것과 달리, HBM4부터는 로직 다이에 파운드리 공정이 결합되면서 고객사의 칩 특성에 맞춘 ‘커스텀 HBM’ 역량이 핵심 경쟁력이 된다. 엔비디아와의 협력을 유지하면서도 급부상하는 TPU 및 자체 칩 진영의 커스텀 수요를 선점해야 하는 복합적인 전략이 요구되는 시점이다.
전문가들은 2026년 AI 반도체 시장의 경쟁 축이 ‘단순 성능(Performance)’에서 ‘총 소유 비용(TCO)’으로 이동할 것으로 분석한다. 엔비디아의 지배력은 당분간 유효하겠지만, GPU를 대체하는 시장 흐름은 거스를 수 없는 흐름이다. AI 칩 시장은 바야흐로 용도와 목적에 따라 다양한 칩이 공존하는 ‘멀티 아키텍처 시대’로 진입하고 있다.