이전글들에서 추가적으로 얻은 아이디어를 반영해 전방 DRAM 수요전망에 대한 리서치를 다시 업데이트 해본다.
AI 데이터센터가 바꾸는 DRAM 수요 지형
2030년 DRAM 시장은 얼마나 커지며, 누가 그 수요를 가져가는가
들어가며
DRAM 시장을 이야기할 때 가장 먼저 떠오르는 것은 스마트폰, PC, 서버 출하다.
AI 이전까지만해도 이 틀만으로도 업황의 큰 흐름을 설명하는 데 큰 무리가 없었다.
하지만 이제는 상황이 달라지고 있다.
AI 데이터센터가 본격적으로 확산되면서, DRAM 수요의 중심축이 빠르게 이동하고 있기 때문이다.
이번 변화의 핵심은 단순히 수요가 늘어난다는 데만 있지 않다.
어떤 시스템이, 어떤 구조로, 얼마나 많은 메모리를 흡수하느냐가 완전히 달라지고 있다는 점이 더 중요하다.
특히 AI 인프라는 더 이상 HBM만으로 설명되지 않는다.
GPU에 붙는 HBM뿐 아니라, CPU-attached DRAM, SoCAMM, LPDDR 계열까지 함께 커지고 있다. 여기에 차세대 고밀도 랙인 Vera Rubin NVL72, 그리고 Kyber NVL576까지 등장하면서 2030년 DRAM 시장의 상단은 기존 인식보다 더 높아질 가능성이 커졌다.
결론부터 말하면, 2025년 전체 DRAM 수요를 1로 둘 때
2030년 총수요는 보수적으로 2.24배, 베이스케이스로 2.52배, 공격적으로는 2.96배까지 확대될 가능성이 있다.
그리고 이 증가분의 대부분은
AI 데이터센터가 설명한다.
1. 왜 지금 DRAM 시장을 다시 봐야 하는가
표면적으로 보면 DRAM 시장은 여전히 여러 최종수요처로 분산돼 있다.
스마트폰도 있고, PC도 있고, 자동차와 산업기기 수요도 있다.
하지만 성장률을 들여다보면 이야기는 달라진다.
레거시 수요는 완만하게 성장하는 반면, AI 데이터센터는 훨씬 가파른 성장 구간에 들어서고 있다.
이 차이는 단순한 숫자 차원에 머물지 않는다.
과거에는 스마트폰과 PC가 시장의 중심이었고, 서버가 이를 보완하는 구조였다면 앞으로는 AI 데이터센터가 전체 증가분을 사실상 주도할 가능성이 높다는 뜻이기 때문이다.
따라서 2030년 DRAM 시장은
스마트폰과 PC가 완만하게 성장한 결과로 이해할 시장이 아니다.
오히려 AI 인프라가
메모리 수요의 방향, 생산능력 배분, 공급 병목의 위치까지 바꿔놓는 시장에 가깝다.
2. 이번 추정에서 중요한 전제는 무엇인가
2030년 DRAM 시장을 보려면 전체 수요를 하나의 숫자로 뭉뚱그려서는 안 된다.
스마트폰 메모리와 AI 랙 메모리를 같은 성장률로 설명하면 결과는 단순해질 수 있어도, 실제 구조는 보이지 않게 된다.
그래서 전체 DRAM 수요를 네 개로 나눠서 보는 접근이 더 적절하다.
Legacy DRAM
AI HBM
AI CPU-attached DRAM
AI SoCAMM / LPDDR
즉 전체 시장은 아래처럼 분해해서 보는 편이 맞다.
Total DRAM = Legacy DRAM + AI HBM + AI CPU-attached DRAM + AI SoCAMM / LPDDR
이 구조를 쓰면 장점이 분명해진다.
레거시 수요가 얼마나 시장의 바닥을 받치고 있는지, AI 인프라가 얼마나 새로운 수요를 만들어내는지, 그리고 그 AI 수요가 HBM에 머무는지 아니면 호스트 메모리까지 확장되는지를 한눈에 볼 수 있게 된다.
3. Legacy DRAM은 사라지지 않는다
다만 시장을 끌고 가는 축은 바뀌고 있다
먼저 레거시 DRAM부터 보자.
스마트폰, 노트북, 데스크톱, 일반 소비자기기, 산업용 장비, 자동차는 여전히 DRAM 시장의 바닥을 형성하는 핵심 수요처다.
이 수요는 앞으로도 유지될 가능성이 높다.
다만 성장의 기울기는 크지 않다.
레거시 수요는 2030년까지 완만하게 증가하겠지만, 시장 전체의 판을 다시 짜는 주도 변수로 보기는 어렵다.
즉 레거시 DRAM은 업황의 하방을 지지하지만, 시장의 상단을 여는 주인공이라고 보기는 어렵다.
이번 모델에서도 이 가정은 그대로 반영했다.
Legacy DRAM은 2025년 0.93에서 2030년 1.16 수준까지 올라간다.
| ASML Lecagy DRAM 수요성장 전망치 |
5년 동안 분명히 증가하지만,
전체 시장을 2배 이상 키우는 동력과는 거리가 있다.
4. 이제 AI 메모리는 HBM만으로 설명되지 않는다
AI 인프라 수요를 이야기할 때 가장 먼저 떠오르는 메모리는 HBM이다.
실제로 HBM은 현재 AI 서버 확장의 가장 상징적인 메모리이기도 하다.
그래서 이번 추정에서도 HBM은 앵커 역할을 한다.
2025~2030년 HBM 경로를 먼저 잡고, 그 위에 CPU-attached DRAM과 SoCAMM, LPDDR를 더하는 방식으로 전체 AI 데이터센터 메모리 수요를 확장해 나간다.
| https://uiyeonassociation.blogspot.com/2026/03/214-hbm-bottleneck-era.html |
그런데 여기서 중요한 포인트가 있다.
이제 AI 랙 메모리는 HBM만 보면 실제 수요를 과소평가할 가능성이 높다는 점이다.
차세대 AI 랙 구조를 보면 이 점이 분명해진다.
GB200 NVL72는 약 30.4TB 수준의 랙 메모리 구조를 가지며, GB300 NVL72는 약 37TB 수준으로 올라간다. Vera Rubin NVL72는 여기서 더 나아가 약 75TB의 fast memory를 제시한다.
이 숫자가 뜻하는 바는 단순하다.
AI 랙에서 중요한 것은 더 이상 HBM 하나만이 아니다.
GPU 옆의 HBM, CPU-attached DRAM, 그리고 SoCAMM과 LPDDR까지 함께 봐야 실제 메모리 수요가 보인다.
앞으로의 메모리 병목 역시 HBM 하나로 끝나지 않을 가능성이 높다.
5. 이번에는 Kyber NVL576를 별도 변수로 넣어야 한다
2030년 DRAM 상단을 다시 보게 만드는 가장 중요한 변수는
Kyber NVL576다.
그동안 AI 메모리 수요는 주로 NVL72 계열 중심으로 해석해도 큰 무리가 없었다.
하지만 2030년 상단을 볼 때는 초고밀도 랙이 실제로 얼마나 많은 DRAM을 흡수할지를 따로 봐야 한다.
Kyber NVL576는 단순히 GPU 수가 많은 시스템이 아니다.
핵심은 랙당 메모리 밀도다.
Kyber는 랙당 약 365TB 수준의 fast memory를 전제로 한다.
이는 Vera Rubin NVL72의 약 75TB와 비교해도 매우 큰 숫자다.
즉 출하 랙 수가 많지 않더라도
Kyber는 bit demand 기준으로 상당한 영향력을 가질 수 있다.
이 점이 중요하다.
과거에는 서버 수량 증가가 수요 증가의 핵심이었다면, 앞으로는 랙 한 대당 메모리 집적도가 얼마나 높아지느냐가 전체 DRAM 상단을 더 크게 바꿀 수 있기 때문이다.
결국 Kyber는 단순한 차세대 제품이 아니라,
2030년 DRAM 수요의 상단을 다시 열어주는 구조적 변수로 보는 편이 맞다.
6. 연도별 AI 랙 판매량 가정은 어떻게 잡았는가
이번 모델은 NVIDIA의 공식 판매 가이던스를 그대로 적용한 것이 아니다.
공개된 출시 시점과 랙 구조, 전력 밀도, AI 인프라 확산 속도를 반영해 연도별 가정을 별도로 설정했다.
베이스케이스에서 Vera Rubin NVL72는
2026년 2,000랙,
2027년 8,000랙,
2028년 15,000랙,
2029년 18,000랙,
2030년 20,000랙으로 가정했다.
Kyber NVL576는
2027년 300랙,
2028년 1,200랙,
2029년 2,500랙,
2030년 4,000랙을 가정했다.
공격적 시나리오에서는 Rubin NVL72를
2026년 3,000랙,
2027년 10,000랙,
2028년 18,000랙,
2029년 22,000랙,
2030년 25,000랙으로 잡았다.
Kyber NVL576는
2027년 500랙,
2028년 2,000랙,
2029년 4,000랙,
2030년 6,000랙으로 잡았다.
물론 이 숫자는 공격적인 가정이다.
그럼에도 완전히 비현실적인 숫자로 단정하기는 어렵다.
AI 데이터센터 투자가 이미 서버 단위를 넘어
팩토리 단위, 랙 단위, 전력 인프라 단위로 이동하고 있기 때문이다.
다만 Kyber는 상단을 열어주는 동시에 제약도 크다.
600kW급 전력, 냉각, 부지, 인프라 승인이 함께 따라와야 하므로 출하량을 무한정 낙관적으로 잡기는 어렵다.
즉 Kyber는 강한 상방 변수이면서도
매우 현실적인 병목을 동시에 내포한 변수라고 볼 수 있다.
7. 2030년 DRAM 총수요는 어디까지 열려 있는가
이제 위의 구조를 실제 숫자로 연결해보면
2030년 DRAM 총수요는 아래와 같이 정리할 수 있다.
보수적 시나리오: 2.24배
Legacy DRAM: 1.14
AI HBM: 0.46
AI CPU-attached DRAM: 0.28
AI SoCAMM / LPDDR: 0.36
베이스케이스: 2.52배
Legacy DRAM: 1.16
AI HBM: 0.56
AI CPU-attached DRAM: 0.34
AI SoCAMM / LPDDR: 0.46
공격적 시나리오: 2.96배
Legacy DRAM: 1.18
AI HBM: 0.70
AI CPU-attached DRAM: 0.46
AI SoCAMM / LPDDR: 0.62
이 숫자를 해석하면 더 분명해진다.
베이스케이스 기준으로 레거시 DRAM은 1.16 수준에 그친다.
반면 AI 데이터센터 관련 메모리 세 항목을 합치면
총수요에 1.36포인트를 더한다.
결국 2030년 DRAM 시장이 2.52배가 되는 거의 전부를
AI 인프라가 설명한다고 봐도 큰 무리가 없다.
비중으로 바꿔보면 더 직관적이다.
2030년 베이스케이스 기준으로 Legacy는 약 46%다.
반대로 AI HBM, AI CPU-attached DRAM, AI SoCAMM / LPDDR를 합친 비중은
약 54% 수준까지 올라간다.
즉 2030년 DRAM 시장은
이미 레거시 수요 중심 시장이라기보다 AI 데이터센터가 절반 이상을 설명하는 구조에 더 가깝다.
8. 왜 2.52배와 2.96배가 과장이라고 보기 어려운가
2.52배나 2.96배라는 숫자만 보면
다소 공격적으로 들릴 수 있다.
하지만 차세대 랙 구조를 들여다보면
오히려 그 반대에 가깝다.
핵심은 AI 메모리 수요가 HBM만으로 늘어나는 것이 아니라는 점이다.
HBM과 함께 CPU-attached DRAM, LPDDR, SoCAMM이 동시에 커지고 있다.
즉 AI 인프라가 확산될수록
메모리 수요는 단순히 넓어지는 것이 아니라, 수직적으로 더 두꺼워진다.
여기에 Kyber 같은 초고밀도 랙이 일부라도 의미 있게 침투하기 시작하면
상단은 기존 시장 기대보다 더 높아질 수 있다.
오히려 시장이 과소평가하고 있을 가능성이 더 큰 부분은
HBM 외 host memory 계층이다.
많은 경우 시장은 여전히 AI 메모리 수요를
HBM 중심으로만 바라본다.
하지만 실제 랙 구조는
그보다 훨씬 두꺼운 메모리 레이어를 요구한다.
그렇기 때문에 2030년 총수요 2.52배는 과장된 낙관이라기보다 보수적 중심값에 가깝고,
2.96배 역시 충분히 열려 있는 상단 시나리오로 해석하는 편이 더 자연스럽다.
9. 앞으로 DRAM 시장에서 진짜 봐야 할 지표는 달라진다
이제부터 DRAM 업황을 볼 때
예전처럼 스마트폰 출하와 PC 출하만 먼저 보는 방식은 설명력이 점점 약해질 수 있다.
대신 더 먼저 봐야 할 것은
AI 랙 배치 속도, HBM 채택 확대, CPU-attached memory 증가, SoCAMM 용량 고도화, hyperscaler의 인프라 투자, 그리고 실제 전력 인프라 증설 속도다.
특히 Kyber 같은 시스템이 의미 있게 확산되기 시작하면
질문 자체가 달라진다.
이제는 “GPU가 몇 개 팔리느냐”보다
“고밀도 랙이 몇 개 실제로 깔리느냐”가 더 중요해질 수 있다.
실제로 AI 데이터센터의 병목은
더 이상 반도체 하나만의 문제가 아니다.
전력, 냉각, 건설, 네트워크, 패키징, 메모리 공급이 동시에 맞물려야 한다.
결국 앞으로의 DRAM 시장은 단순한 반도체 사이클이 아니라, 인프라 사이클과 결합된 메모리 사이클로 보는 편이 더 적절하다.
맺음말
정리하면, 2030년 DRAM 시장에서 핵심은
단순히 얼마나 커지느냐에만 있지 않다.
더 중요한 질문은
늘어나는 수요를 누가 가져가느냐에 있다.
2025년까지 시장의 바닥은
스마트폰과 PC가 만들어왔다.
하지만 2030년으로 갈수록
시장의 방향은 AI 인프라가 결정할 가능성이 훨씬 높다.
특히 HBM, CPU-attached DRAM, SoCAMM / LPDDR, 그리고 이를 한꺼번에 키우는 초고밀도 랙 구조가 수요의 중심으로 올라설 가능성이 크다.
이 관점에서 보면
2030년 DRAM 총수요 2.52배는 충분히 방어 가능한 숫자다.
그리고 AI 인프라가 서버를 넘어
랙 단위, 팩토리 단위로 더 빠르게 확산된다면 2.96배 시나리오 역시 과도하다고만 보기는 어렵다.
결국 앞으로의 DRAM 시장은
더 이상 스마트폰과 PC의 시장으로 보기 어렵다.
이제는 AI 데이터센터가 시장의 절반 이상을 결정하는 구조로
빠르게 이동하고 있다.
문제는 결국 공급이다.
향후 수년 안에 DRAM 생산물량이 큰 폭으로 늘어나지 못한다면, 수급 불균형은 시장이 예상하는 것보다 훨씬 길게 이어질 가능성이 높다.
하지만 이는 현실적으로 결코 만만한 과제가 아니다.
선단공정은 이미 물리적 한계에 가까워지고 있고, 과거처럼 미세화만으로 생산성과 원가를 자연스럽게 개선하던 무어의 법칙의 시대는 사실상 끝나가고 있다.
다시 말해, 업계가 오랫동안 누려온 이른바 ‘공짜 점심’은 이미 사라진 지 오래다.
여기에 첨단 공정 전환 부담, HBM 비중 확대와 적층 단수 증가에 따른 wafer loss, 막대한 CAPEX 부담, 장비 리드타임 장기화까지 겹쳐 있다.
이런 조건을 감안하면, 시장이 필요로 하는 수준의 공급 확대는 단순히 어려운 정도가 아니라 물리적으로 실현 가능성이 매우 낮은 요구치에 가깝다.
따라서 2030년 DRAM 시장의 본질은 단순한 수요 성장에 있지 않다.
진짜 핵심은 늘어나는 수요를 공급이 끝까지 따라가지 못하는 구조적 타이트함에 있다.
이를 더 직설적으로 말하면, 앞으로 4년 안에 DRAM 생산량이 지금 대비 3배 수준으로 확대되지 못할 경우, 현재의 공급 제약은 일시적 현상에 그치지 않을 가능성이 높다.
결국 이는 시장이 지금 생각하는 것보다 DRAM 가격 사이클이 더 길고, 더 강하며, 더 질기게 이어질 수 있음을 시사한다.
=끝
| https://biz.chosun.com/en/en-it/2025/10/30/2OH2VCUGUBFUXPQFMLW6RY6B4Q/ |
그나저나, 작년 깐부회동으로 SEC DRAM LTA 물량을 선점해버린 젠슨황의 러브샷의 가치는 최근일자로 얼마가 됐을지 갑자기 궁금해진다.