2025년 9월 25일 목요일

생각정리 88 (* Agentic AI 메모리 수요)

이번 글의 핵심은 **기존 ChatGPT(범용 LLM)**와 Agentic AI의 구조적 차이를 짚어 메모리 수요 확대의 원인을 규명하고, 그 결과 HBM·DRAM·NAND 수요가 어느 정도까지 증가할지정량 추정하는 것이다.


1. Agentic AI vs 범용LLM




1-1. 기존 스토리: ChatGPT와 LLM 확산 

  • 배경: ChatGPT 같은 Generative AI가 확산되면서, 데이터센터가 처리해야 하는 연산량이 기하급수적으로 증가.

  • CapEx 확대: 아마존, MS, 구글, 메타 같은 하이퍼스케일러가 AI 인프라 투자를 매년 수백억 달러 단위로 늘리고 있음.

  • 핵심 포인트:

    • 기존 LLM은 "입력 → 한 번의 추론 → 출력" 구조 (단일 패스).

    • 이 과정에서도 이미 대규모 GPU 연산과 HBM(고대역폭 메모리) 수요가 발생했음.

즉, ChatGPT 단계에서도 이미 GPU·HBM 중심의 메모리 수요 급증이 시작된 상태였다.


1-2. 새로운 전환점: Agentic AI의 등장 

  • 변곡점: 3Q25부터 본격 등장하는 Agentic AI는 단순 텍스트 생성이 아니라, 스스로 계획·행동·도구 사용을 반복하는 구조.


  • 예시: ChatGPT 5 Pro, Grok 4 Heavy, OpenAI Agent 등은 기존 모델보다 멀티 에이전트 기능, 도구 호출, 고성능 하드웨어 활용이 강화됨.

  • 차이:

    • ChatGPT(LLM)는 단일 질문→단일 답변.

    • Agentic AI는 목표 달성 위해 여러 번의 루프(Plan → Act → Observe → Reflect)를 거침.


이 차이가 곧 연산량의 폭증 → 메모리 수요의 비약적 확대로 이어진다.


1-3. 연산 구조의 복잡화 

  • 기존: LLM 추론은 단일 패스 → 한 번 모델 호출로 결과 생성.

  • Agentic AI:

    • 계획 단계에서 여러 모델 호출.

    • 외부 도구 사용(API, DB, 검색엔진).

    • 중간 산출물 저장 및 메모리 캐시 활용.

    • 관찰·검증 과정 반복.

→ 동일한 질문이라도 최종 답변을 만들기 전 수십~수백 배 토큰을 소비하게 됨.
→ 따라서 GPU 연산량뿐 아니라 중간 데이터 저장·호출을 위한 DRAM/HBM 수요가 폭증한다.


1-4. Scale up / out / across 

  • Scale up: GPU 칩 자체 성능 향상 → HBM 집적 필요.

  • Scale out: 더 많은 서버 증설 → 서버당 DRAM·HBM 탑재량 증가.

  • Scale across: 데이터센터 간 연결·분산 → 네트워크 지연 줄이려면 데이터 복제와 캐시 메모리 사용량 증가.


즉, 에이전트형 AI는 단일 데이터센터가 아니라 글로벌 분산 네트워크까지 메모리 요구가 확산된다.


1-5. Agentic RAG로 인한 데이터 축적 

  • 기존 RAG: 질문-문맥-최종답변 → 검색 보조 역할만 수행, 데이터 저장은 제한적.

  • Agentic RAG:

    • 계획·행동·관찰 루프 과정의 모든 중간 로그·메모리·도구 호출 기록을 보관.

    • 즉, HOT/WARM/COLD 저장소 전 구간에서 메모리 사용량 증가.

    • 단순 캐시 수준이 아니라 장기 저장·분석용 데이터까지 축적됨.

이로 인해 GPU용 HBM뿐 아니라 범용 DRAM, SSD, CXL 기반 메모리 풀링까지 전방위 수요가 확대된다.


1-6. 정리: 왜 메모리 수요가 더 커졌는가?

  1. 단일 패스에서 멀티 루프 구조로 전환 → 같은 질문도 수십~수백 배 토큰 연산 필요.

  2. 도구 사용·검색·RAG 강화 → 외부 데이터 접근 및 캐시 메모리 사용 증가.

  3. 분산 데이터센터 연결(Scale across) → 글로벌 레벨에서 데이터 복제·저장 확대.

  4. Agentic RAG → 단순 최종답변 외에, 중간 계획·행동·검증 로그까지 보관 필요.

→ 따라서 기존 ChatGPT 단계의 메모리 수요가 "GPU 연산 지원용"이었다면, Agentic AI 단계에서는 연산+데이터 저장+분산 네트워크 전반에 걸쳐 메모리 수요가 폭발적으로 증가하게 된다.



2. 구체적인 사용 예시: 


2-1. “여행 일정 계획하기”


기존 ChatGPT (범용 LLM)

  • 질문: “파리에서 3일 여행 일정 짜줘.”

  • 과정:

    1. 사용자가 입력한 프롬프트를 모델이 단 한 번 추론.

    2. 기존 학습된 지식(2023년까지 학습 데이터) 기반으로 텍스트 생성.

  • 출력:

    • “1일차: 에펠탑, 루브르, 2일차: 오르세, 베르사유, 3일차: 몽마르트 …”

    • 단순히 텍스트 기반 일정 제안, 최신성 부족, 현지 상황 반영 불가.

사용자 체감: 결과물은 아이디어 수준, 직접 검색·예약을 별도로 해야 함.


Agentic AI

  • 질문: “파리에서 3일 여행 일정 짜줘.”

  • 과정:

    1. 계획 단계: 일정 구조 설계 (아침·점심·저녁, 교통 동선 고려).

    2. 검색/도구 호출:

      • 구글/트립어드바이저 API에서 최신 명소 리뷰·운영 시간 확인.

      • 항공·기차 API로 교통편 조회.

      • 식당 예약 플랫폼 API 호출.

    3. 관찰/검증: 결과가 겹치거나 시간이 맞지 않으면 재계산.

    4. 최적화 루프: 비용, 거리, 이용자 취향(예: 미술/음식 선호)까지 반영.

    5. 출력:

      • “Day1: 루브르 9시 티켓 예약완료, 근처 레스토랑 점심 예약, 오후 에펠탑 전망대 (현재 공사 중이라 저녁 7시까지만 운영).

      • Day2: 오르세 미술관 (예약됨), 저녁은 미슐랭 1스타 레스토랑 예약됨 …”

사용자 체감:

  • 단순한 ‘추천’이 아니라 실제 실행 가능한 일정표 + 예약 완료 상태.

  • 사용자는 바로 여행 확정이 가능.


2-2. 산출량 비교 (사용자 입장)

구분 기존 ChatGPT Agentic AI

출력 수준 

단순 추천 (텍스트)

실행 가능한 계획 (검색+예약+최적화 반영)
최신성 학습 데이터 시점에 제한 실시간 API 호출로 최신 정보 반영
정확성 오류·운영시간 불일치 가능           검증 루프 통해 오류 최소화
사용자 효용           “아이디어 초안”  “실제 결과물 (준비 완료)”
체감 차이  편의성 제한적 시간 절감 + 즉시 실행 가능 → 월등히 유용


2-3. 메모리 사용량 비교 (단계별)

기존 ChatGPT (단일 패스 추론)

  1. 프롬프트 입력 처리 → 모델 내부 임시 메모리 사용 (DRAM/HBM 소규모).

  2. LLM 추론 → 한 번의 forward pass, GPU HBM 사용.

  3. 출력 생성 → 토큰 단위 출력, 캐시 메모리 소규모 사용.

메모리 수요:

  • 주로 HBM (수십 GB)

  • DRAM은 보조적 캐시 정도


Agentic AI (다중 루프 추론)

  1. 계획 단계 (모델 호출)

    • 여러 후보 일정 생성 → 임시 캐시 필요.

    • 메모리 사용: HBM + DRAM (기존 대비 3~5배).

  2. 도구/검색 호출

    • API 결과(리뷰, 운영시간, 교통편) 저장.

    • 메모리 사용: DRAM (수 GB~수십 GB, 기존 대비 5~10배).

  3. 관찰/검증

    • 이전 출력과 현재 검색결과 비교.

    • 캐시 메모리와 GPU 메모리 병행 사용.

    • 메모리 사용: 기존 대비 2~3배.

  4. 최적화 루프 (반복)

    • 여러 번의 추론과 API 호출 반복.

    • 중간 산출물 저장 필요 (장기 메모리·로그).

    • 메모리 사용: 기존 대비 10배 이상 증가.

  5. 최종 출력

    • 모든 과정을 통합한 일정표 생성.

    • 최종 결과만 남기지만, 과정 데이터는 저장/분석을 위해 보관.

    • 장기 메모리 수요: 기존 대비 5배 이상.


2-4. 종합 비교

항목 기존 ChatGPT Agentic AI

연산 구조

단일 패스 추론 (1회)

다중 루프 추론 (n회) + 도구 호출
메모리 사용 패턴          모델 가중치 + 소규모 캐시     모델 가중치 + 반복 캐시 + 외부 데이터 저장
메모리 수요 배율 기준 (1x) 10~20배 이상 (작업 복잡도에 따라 증가)
사용자 가치 텍스트 추천 실행 가능한 결과물 (검색·예약·최적화 반영)


2-5. 결론

  • 기존 ChatGPT: “똑똑한 검색/요약기” → 메모리 사용은 GPU 위주, 단일 추론 중심.

  • Agentic AI: “작업을 대신 수행하는 실행 엔진” → 계획·검색·검증·반복 과정에서 중간 데이터 저장·호출이 폭증하여 메모리 수요가 기하급수적으로 증가.

  • 사용자 입장에서는 “아이디어 제공” 수준에서 “완결된 결과물 제공”으로 유용성이 질적으로 도약하고, 메모리 반도체 입장에서는 시장 수요가 구조적으로 커지는 전환점이 된다.



3. 메모리 제품별 구분

이제 Agentic AI의 메모리 수요 증가를 **메모리 반도체 종류별(HBM / DRAM / NAND)**로 구분해서 정리해보자. 


3-1. HBM (High Bandwidth Memory)

  • 주요 역할: GPU 연산에 필요한 초고속 데이터 공급.

  • 기존 ChatGPT:

    • LLM 모델 파라미터 로딩 및 추론 과정에서 주로 사용.

    • 1회 추론이므로 일정 용량(수십 GB) 선에서 충분.

  • Agentic AI:

    • 동일 질의에도 **반복적 모델 호출(Plan→Act→Observe 루프)**이 발생.

    • 각 단계에서 대규모 파라미터와 토큰 처리를 GPU가 계속 수행해야 함.

    • GPU 패키지에 탑재된 HBM 사용량이 기존 대비 10배 이상 증가.

    • 예: GPT 단일 응답 시 수십 GB였던 메모리 대역폭이 Agentic AI에서는 수백 GB 이상 필요.

HBM은 Agentic AI 시대의 절대 핵심. GPU 당 HBM 적층(8hi → 12hi → 16hi) 경쟁이 본격화.


3-2. DRAM (DDR5 / GDDR6 등 일반 서버 메모리)

  • 주요 역할: GPU 외부에서 데이터 캐싱, 중간 연산 저장, API 호출 결과 보관.

  • 기존 ChatGPT:

    • 프롬프트 입력, 출력 토큰 저장, 소규모 캐시 수준.

    • 서버 단위 DRAM 수요는 제한적.

  • Agentic AI:

    • 검색·도구 호출로 들어온 **외부 데이터(리뷰, 문서, API 응답)**를 임시 저장.

    • 여러 번의 루프 과정에서 **중간 산출물(계획안, 검증 결과, 로그)**을 메모리에 적재.

    • 즉, “GPU가 계산”하는 동안 “DRAM이 기억”해야 하는 데이터가 폭발적으로 증가.

    • 기존 대비 5~8배 이상 DRAM 수요 증가 예상.

DRAM은 Agentic AI의 보조 두뇌. HBM이 뇌세포라면 DRAM은 단기 기억 공간.


3-3. NAND (SSD / Storage)

  • 주요 역할: 장기 저장소.

  • 기존 ChatGPT:

    • 학습 데이터 저장소나 모델 파일 보관용으로 주로 활용.

    • 추론 단계에서는 NAND 활용 제한적.

  • Agentic AI:

    • Agentic RAG가 도입되면서 중간 로그·검색 결과·계획 단계 데이터를 영속적으로 저장.

    • 예: 사용자의 질문–답변 과정 전체를 아카이브 → 다음 질의 시 활용.

    • “데이터센터 간 분산(Scale across)” 시, 데이터 복제와 동기화에 NAND가 필수.

    • 기존 대비 2~3배 이상의 SSD 저장 수요 확대 예상.

NAND는 Agentic AI의 장기 기억. 작업 로그와 추론 과정을 보존해 AI의 “경험 데이터베이스”를 만든다.


3-4. 종합 비교




3-5. 결론

  • 기존 ChatGPT: HBM 위주 수요 증가 (GPU 성능 강화).

  • Agentic AI: HBM 수요는 기본적으로 폭발, 동시에 DRAM·NAND까지 수요가 전방위적으로 확대.

  • 이는 메모리 반도체 업계가 “HBM 단일 성장”에서 “HBM+DRAM+NAND 전방위 수요 확대” 국면으로 진입했음을 의미한다.



OPENAI는 여전히 CHATGPT를 포함하는 AI 시장에 확실한 선두주자이며, Agentic AI로 진화하는 AI 흐름에서도 앞서있다.



향후 공격적인 OPENAI의 투자가 얼만큼의 메모리 수요를 요구하는지를 추정해보고자 한다. 


4. OPEN AI의 Agentic AI 향 메모리 수요 추정


4-1 ChatGPT 이용자 수: 2030년까지 추정

■ 사실관계(2025년 기준)

  • 주간활성이용자(Weekly Active Users) 7~8억명 수준으로 보도·집계가 일치한다. (Backlinko)

  • 월간 방문은 40~60억 회/월, 일평균 방문자 1.9억명대 추정. (DemandSage)

■ 추정 방법

  • 전세계 인터넷 사용자(2025년 약 54억명)의 채택이 **S-커브(로지스틱)**로 수렴한다고 보고, 2025~2030 채택 상한 25~40% 범위를 가정.

  • 성장 둔화(경쟁사 증가·기업내재화)를 반영해 3개 시나리오로 산출.

시나리오 2025        주간활성 2030         주간활성(추정)          25→30 CAGR
Bear 7.0억 12억 ~11%
Base         7.5~8.0억 20억 ~18~19%
Bull 8.0억 30억 ~28%

설명: 2025년 이후 경쟁 플랫폼 지분 확대에도 불구하고, OpenAI는 여전히 과점적 지위를 유지한 채 절대 이용자 수는 증가한다. (Similarweb 기준 점유율은 24년 87%→25년 76%로 하락했으나 절대 트래픽은 성장) (Digital Information World)


4-2 OpenAI 데이터센터 규모·전력: 2030년까지 추정

■ 공개 정보(2024~2025)

  • “Stargate” 프로젝트: 5~10GW급 초대형 캠퍼스 구상(28~30년 1차 가동 가정). 초기 보도는 5GW, 이후 파트너 확장과 함께 7~10GW 목표로 상향 언급. (데이터센터다이내믹스)

  • 2025년: Oracle/SoftBank/ CoreWeave 등과 신규 부지·용량 계약을 잇달아 체결, 누적 계획치가 약 7GW에 근접했다는 보도. (Reuters)

  • 외부 추정치는 총 전력수요를 10~15GW까지 언급(보수적·공격적 견해 혼재). (Certrec)

■ 정리(보수적 범위)

  • 2030년 목표 운영·가용 전력: 7~10GW 범위(중앙값 8.5GW).

  • 전력→GPU 환산 전제:

    • GPU 1개당 실효 전력 1.5~2.0kW(시스템·네트워크 포함), GPU가 전체 전력의 60~80%를 차지.

    • 그러면 1GW당 GPU 30만~58만 개 탑재 가능. → 8.5GW이면 255만~493만 GPU.

    • 계산식: GPU수 = 1,000,000kW × (GPU전력비율)/GPU당kW.


4-3 Agentic AI 대세화 시, 2025→2030 메모리 수요 추정

핵심 전제

  • 모델·시스템 스펙 변화: 2025년 HBM 144~192GB/GPU(HBM3E) → 2030년 256~384GB/GPU(초기 HBM4/4E) 가정.

  • Agentic 워크플로우(Plan→Act→Observe→Reflect 루프) 확산으로 DRAM/스토리지의 중간 산출·로그·캐시가 대폭 증가.

  • 업계 전망: HBM 시장 30~33% CAGR로 2030년까지 고성장, DRAM 내 HBM 비중이 절반에 근접. (오픈 데이터 사이언스)

4-3-1 HBM(패키지 온 메모리)

  • 단위 환산(보수적): 1GW당 HBM 134~192PB(2030년형 256~384GB/GPU 가정).

    • 산출: 1GW당 35만~50만 GPU × 0.384TB(상단) = 134~192PB.

  • 2030년 8.5GW 기준 총량: 1.1~1.6EB.

  • 2025년(가용 2GW 가정, 192GB/GPU) 대비 증가분:

    • 2025 총량(2GW): 1GW당 67~96PB → 134~192PB → 총 0.13~0.19EB.

    • 2030 총량(8.5GW): 1.1~1.6EB.

    • 증가폭: ~0.9~1.5EB(약 6~12배).

  • 업계 트렌드와 정합성: 30%대 CAGR·HBM 비중 확대와 부합. (오픈 데이터 사이언스), 그러나 수요증가폭은 CAGR로 약 43%~64% 

4-3-2. DRAM(서버 메모리/CXL 풀 포함)

  • 전제: Agentic 추론은 중간 계획·툴 응답·RAG 캐시서버 DRAM/메모리 풀이 2025 대비 5~8배 팽창(동일 전력 대비).

  • 실무 환산(보수적): GPU 1개당 0.25~0.5TB의 시스템 DRAM이 2030년 표준화된다고 가정.

    • 그러면 1GW(35만~50만 GPU)당 DRAM 88~250PB.

  • 2030년 8.5GW 총량: 0.75~2.1EB.

  • 2025년(2GW, 0.1~0.2TB/GPU) 대비 증가배수: 대략 6~10배.

4-3-3. NAND(SSD/오브젝트 스토리지)

  • 전제: Agentic RAG 도입으로 단기(HOT/WARM) 로그·트레이스 보존과 장기(COLD) 의사결정 근거 축적이 보편화.

  • 실무 환산(활성 스토리지만): 1GW당 200~400PB의 고성능 SSD/오브젝트 스토리지가 “활성 데이터”로 상주(클러스터·리전 복제 제외, 보수적).

  • 2030년 8.5GW 총량: 1.7~3.4EB(활성). 리전 복제(×1.5~2배)와 저가 콜드스토리지를 더하면 3~7EB 수준까지 확대 가능.

  • 2025년(2GW, 활성 50~100PB/GW 가정) 대비 2.5~6배.

요약: 2025→2030(Agentic 전환) 동안 OpenAI 단일 사업자 기준으로만 보아도

  • HBM: +0.9~1.5EB(약 6~12배)

  • DRAM: +0.6~1.9EB(약 6~10배)

  • NAND(활성): +1.3~3.0EB(약 2.5~6배) 로 확대될 여지가 있다. 

 
동일 계산을 하이퍼스케일러 전반으로 확장하면 업계 총수요는 이보다 훨씬 커진다. (오픈 데이터 사이언스)

 


4-4 왜 Agentic이 메모리를 더 먹는가(정량적 직관)

  • 모델 호출 횟수: 단일 패스(기존) → n회 루프. 같은 질문에도 토큰 소비량 수배.

  • 중간 상태 유지: 계획안/툴 응답/검증 로그를 GPU 외부 DRAM에 상주시켜 반복 참조.

  • 지식 축적: 실행 과정 전체를 NAND에 영속 저장(사용자별 맥락, 정책·감사 대응 데이터).

  • 위 3요인이 **HBM(연산 대역폭)·DRAM(상태 캐시)·NAND(경험 축적)**을 동시 확대시킨다.

  • 컨설팅·학계 보고서도 Agentic이 전통적 GenAI 대비 복잡도·자율성·시스템 통합에서 구조적 상향을 지적. (McKinsey & Company)


4-5 리스크·불확실성

  • OpenAI의 정확한 가동 전력과 GPU구성, 연간 증설 페이스는 비공개다. 본 추정은 공개 보도를 바탕으로 7~10GW 범위를 가정했다. (Reuters)

  • GPU 세대 변화(전력/메모리 스택 용량)와 소프트웨어 최적화(서버당 유효 활용률)는 수요를 ±20~30% 흔들 수 있다.

  • 전력·입지 제약이 증설 속도를 제한할 수 있다(전력망·원전/재생E 확보 이슈). (The Times)


4-6 결론

  • 이용자 저변은 2030년에 12~30억 주간활성으로 확대 가능(기본 20억 가정). (Backlinko)

  • 데이터센터는 2030년 7~10GW급으로 스케일할 공산이 크다. (Reuters)

  • Agentic 대세화에 따라 2025→2030 사이 OpenAI만 놓고 보아도 HBM +0.9~1.5EB, DRAM +0.6~1.9EB, NAND(활성) +1.3~3.0EB 수준의 추가 메모리 수요가 합리적으로 추정된다. ─ 이는 업계 전체로 확장 시 HBM 43%~64% CAGR 로 추정된다.

다음은 위에서 계산한 OPENAI의 메모리 수요를 충족시키기 위해서 메모리3사의 공급은 얼만큼 매년 늘어야 하는지를 추정해본다.

5. 2030년 메모리 각사별 메모리 (계획된) 공급증가 추정



5-1. 2025E→2030E 생산 CAPA 추정(회사별)




  • 근거: 표 2의 “DRAM capacity 12″” 2025E 660 → 2027E 758, “NAND capacity 12″” 2025E 436 → 2027E 478. 2030E는 25→27의 CAGR(약 7.2%, 4.7%)을 3년 더 연장.


  • 근거: 표 1의 “Total DRAM capacity per month(12″ equiv.)”와 “HBM % of DRAM(빨간 수치)” 추세. 2027E 42%가 찍혀 있어 2030E는 보수적으로 55–60%로 외삽.



  • 근거: 표 3·4의 2025E→2027E 증가율(하이라이트) 적용해 2030E까지 지수 외삽.

주: 하이닉스·삼성은 wpm(웨이퍼), 마이크론은 Bit(1Gb/1GB) 단위로 표기돼 있다. 절대치 비교보다 증가율/방향성 비교가 타당하다.

 


6. 2030년 메모리 각사별 (추정되는) 수요증가 


앞서 합의한 OpenAI 단일 수요(중앙값) 를 재기억:

  • HBM: 2025→2030 +~1.2EB(총량 1.36EB, 6~12배)

  • DRAM(서버/풀): +~1.25EB(6~10배)

  • NAND(활성): +~2.15EB(2.5~6배)


HBM (2025→2030, OpenAI 추가 수요 배분)


해석
: 점유율을 유지하려면 3사 모두 매년 45~60% 수준의 HBM CAPA 증설이 필요하다. TSV·패키징 수율 개선과 HBM4(12-Hi/16-Hi) 전환이 필수적이다.


DRAM (서버·메모리 풀, 2025→2030)


해석: 하이닉스·삼성은 HBM 우선 배치 속에서 범용 DRAM 라인의 전환을 조율해야 하며, CXL 메모리 풀·고용량 RDIMM 채택이 핵심 대응책이다.


NAND (활성 스토리지, 2025→2030)


해석: NAND는 Agentic RAG의 로그·스토리지 수요 확대로 가장 가파른 증설 압력이 발생한다. 삼성은 리더십 유지로 최대 수혜를 보고, 하이닉스(솔리다임 포함)와 마이크론도 리전 복제·콜드스토리지 포함 수요 흡수로 성장 여력이 크다.


6-1 회사별 CAPA 로드맵과 “충족 가능성” 평가

  • SK하이닉스

    • 2027E 기준 DRAM 월CAPA ~1.14M wpm, HBM 비중 42% → 2030E 55~60%로 상향 시, **HBM 절대 CAPA는 25→30 연복 ~45–60%**가 요구된다. TSV/패키징 라인이 병목이므로 M10F/M15X 증설 + 16-Hi 대응이 관건.

    • DRAM 범용 라인은 서버향 RDIMM·CXL 수요에 맞춰 피봇.

  • 삼성전자

    • DRAM 660k→930k wpm(2030E 외삽)만으로는 HBM 비중이 낮으면 총 EB가 부족할 수 있다. P4 라인 가동률/수율 개선 + HBM4(12-Hi/16-Hi) 조기 전개가 필수.

    • NAND는 리더십 유지로 OpenAI 스토리지 증분의 최대 수혜. QLC 전환·컨트롤러 최적화로 $/TB 경쟁력 유지가 중요.

  • 마이크론

    • DRAM Bits 25→30 CAGR 15~16% 외삽만으로는 Agentic 수요의 서버향 DRAM 40~55%/년에 못 미친다. HBM 라인(패키징 포함)의 공격적 증설서버향 DRAM 제품 믹스 상향이 필요.

    • NAND는 14% 외삽 → **상단 시나리오(30~40%)**에 미달. 북미 데이터센터 고객사와의 장기공급(LC) 확대가 요구된다.


6-2 핵심 수치 요약(필요 증설률)



7. 메모리 제품별 Agentic AI 수요를 충족시키기 위한 공급증가 추정 정리


7-1. 전제 (앞서 계산한 값 정리)

  • 2025 (2GW 기준)

    • HBM: 약 0.13~0.19EB

    • DRAM: 약 0.1~0.2EB

    • NAND(활성): 약 0.05~0.1EB

  • 2030 (8.5GW 기준, 4.25배 전력 증가)

    • HBM: 약 1.1~1.6EB

    • DRAM: 약 0.75~2.1EB

    • NAND(활성): 약 1.7~3.4EB


7-2. 2025 → 2030 증가 배수


메모리 2025 CAPA 2030 필요 증가 배수
HBM 0.13~0.19EB 1.1~1.6EB 약 6~12배
DRAM 0.1~0.2EB  0.75~2.1EB            약 6~10배
NAND              0.05~0.1EB                1.7~3.4EB   약 25~34배


HBM/DRAM 수요
: 주로 연산 성능 확대에 비례해 증가(6~12배 수준).

NAND 수요: 연산 확대 + 데이터 폭증 + 장기 보관 필요까지 반영되어, 상대적으로 훨씬 큰 폭 (25~34배)의 증가가 나타난다.



7-3. 회사별 필요 증설 배수 (점유율 유지 가정)


HBM (2025 점유율: 하 62%, 삼 17%, 마 21%)

  • SK하이닉스: 0.08~0.12EB → 0.7~1.0EB → 약 6~11배

  • 삼성전자: 0.02~0.03EB → 0.2~0.3EB → 약 7~12배

  • 마이크론: 0.03~0.04EB → 0.25~0.35EB → 약 6~10배

DRAM (2025 점유율: 하 36%, 삼 34%, 마 25%)

  • SK하이닉스: 0.04~0.07EB → 0.3~0.7EB → 약 6~10배

  • 삼성전자: 0.03~0.07EB → 0.25~0.7EB → 약 6~10배

  • 마이크론: 0.025~0.05EB → 0.2~0.5EB → 약 6~10배

NAND (2025 점유율: 삼 35%, 하 21%, 마 15%)

  • 삼성전자: 0.018~0.035EB → 0.6~1.2EB → 약 25~33배

  • SK하이닉스(솔리다임 포함): 0.01~0.02EB → 0.35~0.7EB → 약 25~34배

  • 마이크론: 0.007~0.015EB → 0.25~0.5EB → 약 25~33배


7-4. 해석

  1. HBM

    • 2025→2030 사이 6~12배 증설 필요.

    • TSV 패키징/수율 개선과 HBM4(12-Hi→16-Hi) 양산 속도가 핵심.

  2. DRAM

    • 서버/CXL 메모리 풀 수요 반영 시 6~10배 증설 필요.

    • 하이닉스·삼성 모두 RDIMM 고용량 제품 믹스로 대응해야 함.

  3. NAND

    • Agentic RAG로 인한 로그/스토리지 수요 때문에 25~34배 확대 필요.

    • 사실상 NAND가 가장 큰 폭으로 늘어나야 하며, 삼성은 최대 수혜.


즉, **2030년 8.5GW 기준으로는 HBM·DRAM은 대략 1자리수 배수(6~12배)**지만, NAND는 20배 이상, 많게는 30배 이상 증설이 필요함. 





위 그래프는 **2025년을 기준(=1)**으로 두고, 2030년까지 HBM, DRAM, NAND 수요 증가 범위를 보여줌. 

  • HBM: 약 6~12배 증가 (연평균 40~60% 성장)

  • DRAM: 약 6~10배 증가 (연평균 40~55% 성장)

  • NAND: 약 25~34배 증가 (연평균 70% 이상 성장)


즉, Agentic AI 확산으로 인해 NAND의 증가세가 가장 가파르고, HBM과 DRAM도 각각 한 자릿수 배수 확대가 필요하다는 점이 한눈에 보인다. 

8. OPENAI의 야심


샘 알트먼이 직원들에게 보낸 내부 메모를 통해, 그의 OPENAI에 대한 야심이 한층 더 확대되고 있음을 짐작할 수 있다.






OpenAI는 광고 책임자를 찾고 있음

피지 시모(Fidji Simo)는 모든 수익화 전략을 총괄할 인물을 물색 중이다. ChatGPT에 광고를 도입하는 일도 포함된다.

“어제 샘 알트먼이 OpenAI 직원들과 공유한 내부 슬랙 메모를 보았다. 그날 그는 텍사스 애빌린에 있었고, 다섯 개의 새로운 미국 데이터센터를 발표했다. 메모에는 OpenAI의 ‘대담한 장기 목표’가 적혀 있었는데, 2033년까지 250기가와트 용량을 구축하는 것이다.”

“그 메모에서 알트먼은 또한 OpenAI가 올해 초 약 230메가와트의 용량으로 시작했으며, 이제 2025년 말까지 2GW 이상의 운영 용량을 달성할 궤도에 올랐다고 밝혔다.”





위 그래프는 OpenAI가 2033년까지 250GW 데이터센터를 구축한다고 가정했을 때, 2025년을 기준(=1)으로 본 HBM, DRAM, NAND 수요 증가율을 나타냄. 

  • HBM: 약 85~125배 증가 (연평균 ~55%)

  • DRAM: 약 60~125배 증가 (연평균 ~50~55%)

  • NAND: 약 63~125배 증가 (연평균 ~35~40%)


9. 결론


Agentic AI는 ‘정답 한 번’에서 ‘여러 번 생각·실행·검증하고, 그 근거까지 저장하는’ 시스템으로의 질적 비약
이다. 이 전환은 **HBM(연산 대역폭)·DRAM(상태 캐시)·NAND(경험 저장)**을 동시에, 구조적으로 확대시킨다.

OPENAI의 2030년 8.5GW 데이터센터 증설 기준으로 HBM·DRAM은 6~12배, NAND는 25~34배 증설이 필요하며, 2033년 250GW 시나리오에선 HBM·DRAM·NAND 모두 수십~백 배 성장을 요구한다.


따라서 메모리 업계의 초점은 HBM 적층/패키징 증설, 서버향 DRAM 믹스 전환·CXL 풀링, NAND의 활성/복제/콜드 전층 최적화에 맞춰진 다축(三軸) 증설 전략이어야 한다.


#글을 마치며


향간에 따르면, NVIDIA는 삼성전자와 SK하이닉스에 내년 메모리 입찰가격을 사실상 오픈해 두었으며, 당장은 물량만 확보해 달라는 식의 주문을 내고 있는 것으로 전해진다.

이는 곧 메모리 가격 인상분을 NVIDIA가 모두 수용하겠다는 의미로 해석된다. 이러한 방식은 2018년 메모리 쇼티지가 절정에 달했을 때 일시적으로 나타났던 입찰 구조와 유사하며, 메모리가 다시 구조적 쇼티지 국면에 진입하고 있음을 시사한다.

더불어 Agentic AI 시대에 단순한 산술적 추정만으로도 메모리 수요가 폭증하고 있어, 메모리 병목 현상은 Agentic AI의 진화 속도에 비추어 볼 때 구조적으로 해소되기 어려울 것으로 전망된다.

=끝

댓글 없음:

댓글 쓰기