2026년 3월 31일 화요일

생각정리 214 (* HBM Bottleneck Era)

이전글에 추가적인 HBM 산업 리서치를 이어나가본다.


AI 시대가 깊어질수록, 결국 더 중요해지는 것은 HBM이다


이전 글에 이어 이번에는 AI 서버, HBM 수요와 공급, 그리고 관련 기업들의 투자포인트까지 조금 더 확장해서 정리해보려고 한다.

이번 리서치를 하면서 가장 크게 느낀 점은 명확하다.

앞으로 LLM의 토큰 수요는 계속 폭발적으로 증가할 가능성이 높다는 점이다.
그 증가 속도는 우리가 지금 일반적으로 가정하는 수준보다 더 빠를 수 있다.

그래서 오히려 현 시점에서 먼 미래의 토큰 수요를 숫자로 정교하게 맞추는 작업은 점점 덜 중요해질 수도 있다고 생각한다.
미래 수요가 너무 빠르게 변하기 때문이다. (*Upward)

핵심은 단순하다.
정확한 숫자 하나보다 더 중요한 것은, 수요가 구조적으로 계속 커질 수밖에 없는 방향성이다.


이번 리서치가 더 의미 있게 느껴진 이유


나는 기술업계 종사자도 아니고, 반도체 엔지니어도 아니다.
외부 비전문가에 가까운 금융업계 투자자다.

그럼에도 불구하고, AI 성능향상 덕에 이전에는 상상할 수조차 없었던 수준의 리서치를 이젠 할 수 있게 되었다. 
이 점이 꽤 중요하게 느껴졌다.

이는 나만의 예외적인 사례라기보다,
조금만 공부하고 AI를 잘 활용하면
상당수의 다수의 산업 종사자들도 이전보다 훨씬 높은 생산성을 낼 수 있다는 뜻에 가깝다.

이 말은 결국 AI의 확산 속도가 생각보다 더 빠를 수 있다는 의미다.

AI는 이제 일부 테크 기업이나 연구자만의 도구가 아니다.
금융, 제조, 유통, 의료, 서비스업 등 거의 모든 산업에서
AI는 점점 더 일상적인 생산성 도구가 될 가능성이 높다.

그리고 그 결과는 자연스럽게
토큰 사용량이 산업 전반에서 폭발적으로 증가할 수밖에 없다.


문제는 수요보다 공급일 수 있다


토큰 사용량이 늘어난다는 것은 결국
더 많은 AI 연산이 필요하다는 뜻이다.

그런데 수요는 빠르게 늘어날 수 있어도
그 수요를 처리할 칩 공급은 그렇게 쉽게 늘지 않는다.

특히 AI 서버에 들어가는 고성능 칩은
대부분 선단공정에서 생산된다.
이 영역은 이미 물리적 한계에 가까운 초미세 공정이다.

즉, 생산능력을 늘리는 것이 쉽지 않다.
설비투자도 크고, 시간도 오래 걸린다.
수율 안정화도 어렵다.

결국 수요는 폭증하는데
공급은 그 속도를 따라가기 어렵다.

나는 이번 리서치를 하면서
직감적으로 앞으로의 핵심 병목은 점점 더 강해질 가능성이 높다고 느꼈다.
특히 선단공정처럼 미세화가 극단으로 갈수록
그 한계는 더 뚜렷해질 가능성이 높다.


GPU와 ASIC의 경쟁처럼 보이지만, 본질은 메모리일 수 있다


일부에서는 앞으로의 AI 반도체 시장을
GPU와 ASIC의 경쟁 구도로 해석한다.

물론 맞는 말이다.
ASIC은 특정 고객 맞춤형 설계에 강점이 있고,
실제로 관련 시장도 빠르게 커지고 있다.

하지만 내 생각은 조금 다르다.

앞으로 AI 산업이
학습 중심 시대를 지나
추론 중심 시대로 이동하고,
그 위에 Agent AI 시대까지 본격화되면
중요해지는 것은 단순한 연산 성능만이 아니다.

훨씬 더 많은 데이터를 빠르게 읽고, 저장하고, 교환해야 한다.
이 과정에서 메모리의 중요성은 더욱 커질 수밖에 없다.

바로 이 지점에서 HBM이 중요해진다.

HBM은 AI 서버 성능을 사실상 좌우하는 핵심 부품이다.
연산칩이 좋아도 메모리가 받쳐주지 못하면
전체 시스템 성능은 제한될 수밖에 없다.

그래서 나는 앞으로 AI 반도체 시장의 핵심 경쟁력이
단순한 연산칩 자체보다
메모리 구조와 HBM 확보 능력 쪽으로 더 이동할 가능성이 높다고 본다.

ASIC 시장은 계속 성장할 수 있다.
하지만 메모리 경쟁력 측면에서는
메모리 아키텍처의 구조적 강점과 HBM 확보 능력에 강점이 있는 GPU 진영과 그렇지 않은 진영과의 격차가 앞으로도 쉽게 줄어들지 않고, 
되려 격차가 더 벌어질 가능성이 높다고 생각한다.


그래서 이번 분석은 수요와 공급을 함께 봤다


이번 글은 단순히
“HBM이 중요하다”는 수준의 이야기를 하려는 것이 아니다.

조금 더 구조적으로 접근해보려 했다.

먼저 수요 측면에서는
ASIC 진영의 대표 기업인 BroadcomMarvell의 백엔드 수주 흐름을 점검했다.

그 위에 GPU 진영의 NVIDIAAMD까지 포함해서
전체 AI 서버 전방 수요를 추정하려고 했다.

공급 측면에서는
메모리 3사의 공급능력과 공급계획을 바탕으로
실질적인 HBM 공급 여력을 추정하려고 했다.

그리고 마지막으로
수요와 공급을 함께 놓고
앞으로 HBM 수급이 얼마나 타이트할지를 전망해보려 했다.

그 이후에는 자연스럽게
관련 밸류체인 기업들의 어닝모델 업데이트까지 연결되는 구조다.


HBM 수요 모델을 볼 때 중요한 점

*Visible Demand (*HBM 하단수요)

HBM 수요를 볼 때
단순히 “AI 서버가 몇 대 팔리는가”만 보면 부족하다.

더 중요한 것은
어떤 칩이 얼마나 팔리는지,
그 칩에 HBM이 몇 개 들어가는지,
그리고 그 HBM이 어떤 세대인지까지 함께 보는 것이다.

같은 AI 서버 시장 성장이라도
탑재되는 GPU나 ASIC 종류가 달라지면
HBM 사용량은 크게 달라질 수 있다.

즉, HBM 수요는 단순한 서버 숫자의 함수가 아니다.
칩 구조와 메모리 탑재량의 함수다.

그래서 이번 분석에서는
칩별 로드맵과 제품 세대, 예상 메모리 탑재량까지 같이 보려고 했다.


#Visible HBM Demand 




#시각화자료










HBM 시리즈를 세 가지로 구분한 이유


이번 분석에서는 HBM을 단순히 세대별로만 나누지 않았다.
정보의 확실성 수준에 따라 세 가지로 구분했다.

이렇게 나눈 이유는 간단하다.
팩트와 가정을 명확히 분리하기 위해서다.

1. 공식적으로 확인된 세대

HBM3E, HBM4, HBM4E처럼
공개 자료를 통해 세대가 비교적 명확하게 확인된 경우다.

이 구간은 실제 기업 발표나 제품 스펙에 기반한
상대적으로 확정된 정보라고 보면 된다.

2. 세대명이 공개되지 않은 경우

HBM이 탑재된다는 점과 용량은 알려져 있지만
정확히 HBM3E인지 HBM4인지 공개되지 않은 경우도 있다.

이 경우 특정 세대로 억지 분류하면
오히려 해석이 왜곡될 수 있다.

그래서 이런 항목은
HBM (undisclosed gen)처럼
중립적으로 묶는 편이 더 합리적이다.

3. 분석적으로 추정한 미래 세대

HBM4(assumed), HBM4E(assumed), HBM5(assumed)처럼
공식 확인이 아니라 분석적으로 추정한 세대도 있다.

이 경우는 출시 시점, 예상 용량, 업계 기술 전환 속도를 바탕으로
가장 합리적인 세대를 배정한 것이다.

이 세 가지를 구분하지 않으면
확정된 정보와 분석 가정이 뒤섞이게 된다.

특히 2027년 이후 제품들은
로드맵은 존재하지만 메모리 세대가 모두 공개되지 않은 경우가 많다.
그래서 이 구분은 단순한 형식이 아니라
수요 해석의 왜곡을 막기 위한 장치라고 보는 편이 맞다.


#Visible HBM Supply












공급은 왜 이론상 공급과 실제 공급을 나눠서 봐야 하나


HBM 시장을 볼 때 가장 자주 생기는 착시는
공급(Visible Supply)을 곧바로 실제 출하 가능한 공급(Shippable Supply)으로 받아들이는 것이다.

하지만 HBM은 일반 DRAM과 다르다.
단순히 생산 계획상 물량이 잡혀 있다고 해서, 그 물량이 그대로 시장에 전달되는 구조가 아니다.

HBM은 메모리 생산 외에도
적층 수율, 패키징, 고객 인증, 세대 전환 안정화 같은 요소가 모두 맞아야 실제 출하가 가능하다.

그래서 HBM 공급은
두 단계로 나눠서 보는 것이 더 현실적이다.

바로 Visible Supply, Haircut, Shippable Supply다.


1. Visible Supply: 표면상 확보된 공급량


Visible Supply는
현재 시장에서 확인 가능한 기준으로 잡히는 공급량이다.

쉽게 말해
“지금 보이는 프로그램과 생산계획을 기준으로 보면 이 정도는 공급될 것”이라는 숫자다.

아래 첨부된 모델 기준으로 보면 Visible Supply는
2026년 0.58EB, 2027년 1.21EB, 2028년 1.75EB, 2029년 2.26EB, 2030년 2.67EB다.

겉으로 보면 공급은 매년 꾸준히 늘어난다.
그래서 표면적으로는 공급 부족이 다소 완화되는 것처럼 보일 수 있다.

하지만 이 숫자는 어디까지나 보이는 공급이다.
즉, 아직 실제 납품 가능 물량과는 다를 수 있다.


2. Haircut: 실제 출하 과정에서 빠지는 물량


문제는 이 Visible Supply가
그대로 최종 공급으로 이어지지 않는다는 점이다.

그래서 중간에 Haircut이라는 개념이 필요하다.

Haircut은
보이는 공급량 중 실제로는 제때 출하되지 못하는 부분을 뜻한다.

첨부된 모델 기준 Haircut은
2026년 0.04EB, 2027년 0.10EB, 2028년 0.12EB, 2029년 0.10EB, 2030년 0.12EB다.

이를 Visible Supply 대비 비율로 보면
2026년 7.4%, 2027년 8.0%, 2028년 6.7%, 2029년 4.3%, 2030년 4.4%다.

즉, 시장에서 보이는 공급 중 일부는
실제로는 수율 이슈, 패키징 병목, 고객 qualification 지연, 세대 전환 과정의 마찰로 인해 빠진다고 봐야 한다.

중요한 점은
Haircut이 단순한 보수 가정이 아니라는 점이다.
이것은 HBM 시장의 구조적 마찰 비용을 반영한 수치다.


3. Shippable Supply: 실제로 시장에 인도 가능한 물량


Shippable Supply

최종적으로 고객에게 제때 납품 가능한 공급량이다.

계산은 단순하다.

Shippable Supply = Visible Supply - Haircut

첨부된 모델 기준으로 Shippable Supply는
2026년 0.54EB, 2027년 1.11EB, 2028년 1.63EB, 2029년 2.16EB, 2030년 2.55EB다.

즉,
보이는 공급이 Visible Supply이고,
그중 현실적으로 빠지는 부분이 Haircut이며,
최종적으로 실제 납품 가능한 양이 Shippable Supply다.

시장 가격과 체감 공급 부족은
결국 이 Shippable Supply에 의해 결정된다.

실제 시장 전체 수요를 충족하기에는 여전히 크게 부족한 구조다.


HBM 수요 추정치가 달라진 이유


이전의 Visible Demand 기준 HBM 수요와
아래의 Normal Market demand 기준 HBM 수요가 다르게 보이는 이유는,
두 모델의 기준 범위가 서로 다르기 때문이다.

초기 바텀업 모델은
공개된 GPU·ASIC 프로그램을 중심으로 합산한 Visible Demand에 가깝다. (*확실한 하단수요)

반면 이후 아래의 Normal Market demand HBM 수요는
Visible Demand에 Demand Adders를 추가해 계산한다.

핵심은 간단하다.

Visible Demand은 확실한 하단의 수요이고,
Normal Market Demand은 시장 전체가 실제로 요구하는 가수요 예측치이다.

즉, 공개된 수치만 보면 수요가 제한적(?)으로 보이지만,
실제 시장에서는 비공개 custom ASIC, CSP 내부 프로젝트, 선제적 확보 수요, 예상보다 빠른 램프업등이 붙으면서 체감 수요가 훨씬 커지는 구조다.










해석: 이론적 수요와 실질 공급은 매년 쉽게 맞아떨어지지 않는다


HBM 시장에서는
이론적으로 필요한 수요와 실제로 출하 가능한 공급이 매년 쉽게 맞아떨어지기 어렵다.

이론적 수요는
칩 로드맵과 서버 증설 계획을 바탕으로 빠르게 커질 수 있다.
반면 실제 공급은 그 속도를 그대로 따라가지 못한다.
공장이 생산할 수 있는 양이 늘어나도, 그 물량이 모두 실제 납품으로 이어지지는 않기 때문이다.

HBM은 일반 메모리보다 훨씬 복잡하다.
생산만으로 끝나지 않는다.
적층, 패키징, 인증, 세대 전환이 함께 맞아야 한다.
그래서 공급은 수요보다 느리게 반응할 가능성이 높다.

특히 수요가 급팽창하는 구간에서는
이론적 수요는 빠르게 늘어난다.
하지만 실질 공급은 단계적으로만 증가한다.
그래서 시장에서는 수요가 충분해 보여도 타이트한 상황이 이어질 수 있다.

여기에 더해
HBM 전방 수요시장은 닫힌 시장이 아니라 열린 시장에 가깝다.
새로운 기술이 도입될 때마다 성능이 올라간다.
추가 capacity가 공급될 때마다 활용 가능한 연산량도 커진다.
그 과정에서 기존 수요만 채워지는 것이 아니라, 새로운 전방 수요가 다시 열린다.

또 AI S/W와 H/W의 세대가 바뀔수록
LLM 성능은 계속 향상될 수 있다.
성능이 올라가면 적용 가능한 서비스와 workload 범위도 넓어진다.
그에 따라 AI 추론 수요시장 역시 계속 커질 수 있다.

즉, HBM 시장은
단순히 현재 보이는 수요만으로 끝나는 시장이 아니다.
기술 발전과 공급 확대가 동시에 새로운 수요를 다시 만들어내는 구조에 가깝다.
그래서 공급이 늘어나더라도, 그 증가분이 곧바로 공급 부족 해소로 이어진다고 단정하기 어렵다.

따라서 투자 관점에서 중요한 질문은
“메모리 회사가 얼마나 만들 수 있나”가 아니다.
**“올해 실제로 시장에 얼마를 풀 수 있나”**에 더 가깝다.


개별 기업별 투자포인트

NVIDIA: 단순 GPU 판매가 아니라 AI 팩토리 수요를 파는 구조





엔비디아의 전방 수요는
단순한 학습용 GPU 수요로만 보기 어렵다.

지금은 Agentic AI와 추론 중심으로
수요 구조가 더 넓어지는 구간에 들어가고 있다.

회사는 이를 사실상
compute = revenue라는 관점으로 설명하고 있다.
즉, 고객 입장에서는 연산능력 확보 자체가
곧 매출과 서비스 경쟁력으로 연결되는 구조다.

그래서 고객의 CapEx 지속성도
생각보다 더 길게 갈 수 있다.

현재 수요의 중심은 여전히 하이퍼스케일러다.
하지만 OpenAI, Anthropic, 오픈모델 생태계 확산과 함께
엔터프라이즈, 온프레미스, 산업용 수요까지 저변이 넓어지고 있다.

핵심 투자포인트는
Blackwell에서 Rubin으로 갈수록
단순 GPU 교체 수요가 아니라
AI 팩토리 전체 아키텍처 수요로 확장된다는 점이다.

즉, 엔비디아는 칩 한 개를 파는 회사가 아니라
AI 인프라 전체를 파는 구조로 더 진화하고 있다.


AMD: GPU를 넘어 시스템과 커스텀까지 확장될 가능성


AMD의 GPU 전방 수요도
단순 학습용 GPU 수요로만 보기 어렵다.

핵심은
추론 확산, 에이전트 도입, 랙스케일 AI 인프라 증설로 이어지는
구조적 수요 국면에 들어가고 있다는 점이다.

고객 측면에서도 의미 있는 변화가 있다.
Meta, OpenAI 같은 초대형 고객이
단순 구매자가 아니라
다세대 장기 파트너로 묶이는 흐름이 나타나고 있다.

이는 MI450 이후 세대까지
가시성을 높여주는 요인이다.
동시에 세미커스텀 확장 가능성도 키워준다.

투자포인트는 결국
2026년 하반기 MI450과 Helios 양산 램프가 본격화될 경우,
AMD가 단순 GPU 판매를 넘어
시스템, 소프트웨어, 커스텀 설계까지 점유범위를 넓힐 수 있다는 점이다.

그렇게 되면 데이터센터 AI 매출 성장률이
다시 상향될 가능성도 있다.



Broadcom: XPU는 단기 붐이 아니라 멀티이어 증설 사이클




브로드컴의 XPU 전방 수요는
단순한 단기 유행이나 일회성 수주로 보기 어렵다.

오히려 멀티이어 증설 사이클로 보는 편이 더 맞다고 생각한다.

핵심은 고객 기반과 물량 가시성이다.
회사는 기존 5개 고객에 더해
OpenAI를 6번째 고객으로 언급했다.

또한 2026~2028년 웨이퍼, HBM, 기판 공급을
선제적으로 확보했다고 밝히고 있다.
이는 2027~2028년까지 물량 가시성이 높다는 의미다.

고객 수요의 질도 강하다.
Google TPU, Anthropic, Meta의 차세대 MTIA,
기존 고객 확대, OpenAI의 대규모 배치 계획 등을 감안하면
브로드컴은 단순 프로젝트성 매출이 아니라
소수 초대형 고객의 핵심 전략 로드맵 안에 깊게 들어가 있는 구조로 보인다.

투자포인트는 결국
고객별 GW 단위 확장성이다.

즉, XPU 단가 자체만 볼 것이 아니라
스위치, DSP, SerDes 등
네트워킹과 연결 부품까지 함께 붙는 실리콘 콘텐츠 확대를 같이 봐야 한다.

브로드컴은 AI 칩 한 종류의 수혜가 아니라
AI 인프라 전체 안에서 시장점유율이 커질 수 있는 구조라는 점이 중요하다.


Marvell: XPU 본체보다 attach 매출 확대가 핵심




마벨의 XPU 전방 수요는
이제 막 초기 확산을 논하는 단계라기보다
본격 램프업 구간에 진입하는 흐름으로 보는 편이 맞다.

회사는 기존 리드 XPU 프로그램 전환과
신규 Tier-1 하이퍼스케일러 프로그램의 고볼륨 양산을 근거로
커스텀 매출의 큰 폭 성장을 제시하고 있다.

고객 구조도 나쁘지 않다.
특정 1개 고객 의존이 아니라
상위 하이퍼스케일러 전반으로 확산되는 모습이기 때문이다.

경영진은 상위 미국 하이퍼스케일러 전반에 깊게 관여하고 있고,
누적 디자인윈이 매출화되면서
시간이 갈수록 고객 분산이 개선된다고 설명하고 있다.

투자포인트는 XPU 본체보다
오히려 attach 매출의 동반 확대다.

즉, XPU 자체뿐 아니라
Custom NIC, CXL 같은 attach 제품군까지 같이 수혜를 받는 구조다.

이 말은 마벨이 단순히 칩 한 종류를 공급하는 것이 아니라
AI 인프라 안에서 점유할 수 있는 매출 범위가 넓어질 수 있다는 뜻이다.

결국 핵심은
AI 인프라 내 지갑점유율 확대다.


결국 무엇이 핵심인가


정리하면 이번 리서치를 통해 더 강하게 느낀 것은 네 가지다.

첫째, AI 토큰 수요는 앞으로도 구조적으로 계속 늘어날 가능성이 높다는 점이다.

둘째, 그 수요를 감당할 만큼
선단공정 칩과 HBM 공급은 쉽게 늘어나기 어렵다는 점이다.

셋째, HBM 시장에서는
이론적 수요와 실질 공급이 매년 깔끔하게 맞아떨어지기 어렵고,
그래서 공급 부족은 생각보다 더 오래 지속될 수 있다는 점이다.

넷째, 앞으로 AI 반도체 시장에서는
단순한 연산 성능 경쟁보다
메모리 경쟁력과 실제 공급 가능성이 더 중요해질 수 있다는 점이다.

그리고 개별 기업 관점에서는
NVIDIA와 AMD가 GPU 중심에서 시스템 전체로 확장되는 흐름을 봐야 하고,
Broadcom과 Marvell은 커스텀 XPU 자체보다
고객 락인과 attach 매출 확대까지 함께 봐야 한다.

결국 시장의 본질은 점점 더 분명해지고 있다.

AI 시대가 깊어질수록 병목의 핵심은 연산칩 자체보다, 그 칩을 실제로 움직이게 하는 HBM의 실질 공급능력에 더 가까워질 가능성이 높다.


AI 인프라 시장의 승부는 단순한 칩 경쟁이 아니라, 폭증하는 수요를 실제로 감당할 수 있는 HBM의 실질 공급능력과 시스템 지배력의 경쟁으로 이동하고 있지 않나 싶다.



#글을 마치며 

컴퓨팅, 연산용 GPU 품귀현상이 이렇게나 심한데..
HBM 과잉공급이 왠말이고 HBM4 퀄테스트 탈락은 또 무슨말인지..


정신나간 하락아닌가..? 어질어질..
@ㅅ@


개인적으로 HBM 과잉공급에 따른 메모리 폭락론은 미친소리라고 생각하는데.. 
이렇게 생각하는 내가 미친건가.. 

라고 말하면 안되겠지.. 

=끝

댓글 없음:

댓글 쓰기