2026년 4월 1일 수요일

생각정리 216 (* Oil Price)

오전10시 트럼프의 이란 강경발언으로 다시 시장이 깨지는듯 싶다. 

관련해 호르무즈 해협 봉쇄 장기화로 인한 적정유가 예측에 대한 리서치를 기록해본다.



호르무즈 해협 봉쇄, 실제 원유시장 충격은 얼마나 클까


호르무즈 해협은 세계 원유 수송의 핵심 병목 구간이다.
2025년 기준 이 해협을 통과한 원유와 석유제품은 하루 19.87mb/d였다. 이 가운데 약 80%가 아시아로 향한다. 따라서 해협 봉쇄는 곧바로 중국, 인도, 일본, 한국에 큰 부담으로 연결된다. (IEA)


https://www.eia.gov/international/content/analysis/special_topics/World_Oil_Transit_Chokepoints/


https://www.iea.org/about/oil-security-and-emergency-response/strait-of-hormuz


하지만 해협이 막힌다고 해서 20mb/d가 전부 시장에서 사라지는 것은 아니다.
사우디와 UAE는 일부 우회 파이프라인을 갖고 있고, 주요 소비국은 비축유를 방출할 수 있다. 이란도 자국 수출까지 완전히 포기할 가능성은 낮다. 그래서 봐야 할 숫자는 호르무즈 노출 물량이 아니라, 실제로 시장에서 사라지는 순공급이다. (IEA)

1. 생산국 기준으로 보면 어디가 가장 취약한가


아래 표는 생산국 기준 정리다.
첫 번째 숫자는 IEA의 2025년 호르무즈 노출 물량이고, 마지막 열은 각국의 우회능력과 최근 차질 상황을 반영한 추정 순차질이다.




핵심은 단순하다.

노출 물량은 약 20mb/d
지만, 생산국 단계에서 바로 사라지는 물량은 약 9.9mb/d로 줄어든다. 사우디와 UAE는 일부를 우회할 수 있고, 이란은 자국 수출을 일정 부분 유지할 가능성이 높기 때문이다. 반면 이라크와 쿠웨이트는 우회수단이 거의 없어 가장 취약하다. (IEA)


How Iran is making a mint from Donald Trump’s war

사우디는 가장 큰 산유국이지만, 동시에 가장 강한 우회수단도 가지고 있다.

IEA에 따르면 East-West 파이프라인의 설계 용량은 5mb/d이고, 2025년 3월에는 7mb/d까지 높였다고 보고됐다. 다만 2026년 초 실제 사용량은 약 2mb/d로 추정돼, 추가 여력은 3~5mb/d 수준이다. 즉 사우디는 분명 버틸 여력이 있지만, 그렇다고 충격이 사라지는 것은 아니다. (IEA)


https://www.iea.org/about/oil-security-and-emergency-response/strait-of-hormuz


UAE도 crude 일부는 ADCOP로 푸자이라까지 우회할 수 있다.
하지만 ADCOP 여력은 약 0.7mb/d 수준으로 제한적이다. 이라크와 쿠웨이트는 사실상 우회 인프라가 없고, 카타르는 crude보다 condensate와 NGL 차질이 더 크다. 반면 이란은 전체 통항은 줄여도 자국 수출은 유지할 유인이 강하다. (IEA)

2. 그다음, 글로벌 순수급은 얼마나 줄어드나


여기서 많은 사람이 헷갈린다.
생산국 단계 차질이 약 9.9mb/d라고 해서, 글로벌 시장의 최종 부족분도 그대로 9.9mb/d가 되는 것은 아니다.

중간에 완충장치가 작동한다.
사우디와 UAE의 우회 수출이 늘어나고, 비중동 생산 일부가 보완적으로 증가한다. 여기에 IEA 회원국은 400 million barrels의 비축유 방출에 합의했다. 동시에 고유가와 항공편 축소, LPG 차질로 단기 수요는 약 1mb/d 감소할 수 있다고 IEA는 보고 있다. (IEA)

그래서 최종 숫자는 한 단계 더 줄어든다.
IEA는 2026년 3월 글로벌 공급이 8mb/d 감소할 것으로 봤다. 여기에 수요 둔화와 비축유 방출 효과를 함께 반영하면, 시장이 체감하는 실질 순부족은 약 3.5~5.0mb/d, 중앙값으로는 약 4mb/d로 보는 것이 가장 현실적이다. (IEA)

즉, 호르무즈 봉쇄의 본질은 20mb/d 전량 상실이 아니다.
현실은 완충수단이 작동한 뒤에도 약 4mb/d 안팎의 순부족이 남는 구조적 충격에 가깝다. (IEA)

3. 이 충격은 어느 수입국에 가장 크게 전이될까


수입국 관점에서는 절대 수입량만 보면 안 된다.
호르무즈 의존도, 비축 여력, 대체 조달 가능성을 같이 봐야 한다.

중국과 인도는 절대 물량 기준으로 가장 큰 충격을 받는다.
IEA에 따르면 2025년 호르무즈를 통과한 crude의 44%를 중국과 인도가 함께 수입했다. 따라서 둘은 가장 먼저 물량 부담을 느끼게 된다. (IEA)

일본과 한국은 의존도 기준으로 더 취약하다.
IEA는 일본과 한국이 호르무즈 원유 흐름에 particularly reliant 하다고 명시한다. 절대 물량은 중국보다 적어도, 대체가 쉽지 않다는 점에서 체감 충격은 더 클 수 있다. 유럽과 미국은 직접 노출은 상대적으로 낮고, 유가 상승과 정제마진 확대를 통해 충격을 받는 구조에 가깝다. (IEA)

4. 마지막으로, 일일 4mb/d 부족이면 유가는 어디까지 가야 하나


여기서 기준점은 현재 유가가 아니라 봉쇄 직전 Brent여야 한다.

EIA에 따르면 브렌트 현물가격은 2월 27일 평균 $71/bbl였고, 중동 군사행동과 호르무즈 실질 봉쇄 이후 3월 9일 $94/bbl까지 올랐다. EIA의 기본 시나리오도 봉쇄가 점진적으로 완화된다는 가정 아래 2026년 2분기 평균 $91/bbl을 제시하고 있다. (U.S. Energy Information Administration)

문제는 단기 석유시장이 매우 비탄력적이라는 점이다.
공급은 바로 늘지 않고, 수요도 단기에 크게 줄지 않는다. 이런 시장에서는 4mb/d 정도의 순부족이 몇 주 이상 이어지면, 결국 가격이 올라 수요를 억눌러야 균형이 맞는다. IEA도 실제로 봉쇄 이후 브렌트가 한때 $120/bbl에 근접했고, 보고서 작성 시점에도 약 $92/bbl 수준이었다고 설명한다. (IEA)

그래서 봉쇄 직전 Brent $71을 기준점으로 놓고,
일일 4mb/d 순부족이 지속되는 타이트한 시나리오를 가정하면 적정 유가 밴드는 $105~$110/bbl 정도가 가장 자연스럽다. 이것은 단순 공포 프리미엄이 아니라, 실제 시장 균형을 다시 맞추기 위해 필요한 재평가 가격대에 가깝다. (U.S. Energy Information Administration)

결론


정리하면 이렇다.

호르무즈 해협 봉쇄는 표면적으로는 약 20mb/d가 위험에 노출되는 사건이다.
하지만 생산국 우회, 일부 증산, 비축유 방출, 수요 둔화를 감안하면 글로벌 시장이 실제로 겪는 순부족은 약 4mb/d 안팎으로 줄어든다. 그리고 이 부족이 지속된다면, 봉쇄 직전 Brent $71을 기준으로 한 적정 유가 재평가는 $105~$110/bbl 수준이 가장 합리적이다. (IEA)

한 문장으로 요약하면 이렇다.

호르무즈 봉쇄가 지속될 경우, 완충수단을 모두 써도 4mb/d 내외의 순부족이 남고, 그 결과 유가는 당분간 $105~$110 수준에 수렴할 가능성이 높다.
(IEA)


https://tradingeconomics.com/commodity/brent-crude-oil


=끝

생각정리 215 (* TurboQuant-4, Claude Cowork)

메모리 시장에 대한 추가 리서치를 이어나가본다.


Claude Code 유출과 TurboQuant가 동시에 말해주는 것


메모리 시장 약세론이 아직 이른 이유

최근 시장에는 두 가지 상반된 신호가 동시에 나왔다.

하나는 Claude Code 소스코드 유출 사건이다.
다른 하나는 Google의 TurboQuant와 그 응용 실험이다.

겉으로 보면 둘은 반대 방향처럼 보인다.
Claude Code 쪽은 “AI 에이전트가 메모리를 훨씬 더 많이 먹는다”는 신호다.
TurboQuant 쪽은 “모델과 KV cache를 더 강하게 압축해 메모리 부담을 줄일 수 있다”는 신호다.

그래서 많은 사람이 이렇게 묻는다.
“그럼 결국 메모리 수요는 늘어나는가, 줄어드는가?”

내 판단은 명확하다.
총수요 관점에서는 여전히 메모리 강세 쪽이다.
다만 앞으로는 그 수요가 생기는 방식이 달라진다.

이 결론에 도달하려면 먼저 두 사건의 성격을 정확히 구분해야 한다.

우선 Claude Code 이슈는 흔히 말하는 “모델 해킹”과는 다르다.
공개 보도를 보면 이번 사건은 Anthropic의 핵심 모델 가중치가 털린 것이 아니라, Claude Code 앱의 내부 TypeScript 코드가 source map을 통해 노출된 배포 실수에 가까웠다.

Anthropic도 고객 데이터나 모델 자체가 유출된 것은 아니라고 설명했다. 하지만 이 사건이 중요했던 이유는, 바로 그 앱 코드 안에 미출시 기능, 세션 구조, 메모리 아키텍처, 상시형 에이전트 방향성이 드러났기 때문이다. (The Verge)

반대로 TurboQuant는 “메모리 수요를 없애는 기술”로 보기보다, 같은 메모리로 더 많은 AI를 돌리게 만드는 기술로 보는 편이 맞다. Google Research의 공식 설명은 TurboQuant를 극단적 압축 알고리즘으로 소개하면서, LLM과 vector search의 메모리 병목을 줄이는 방향을 제시한다.

다만 현재 Google이 전면에 내세우는 대표 활용처는 KV cache와 벡터 압축이고, 최근 시장에서 화제가 된 “모델 전체를 3.x bit로 줄이는 실험”은 아직 공식 대표 벤치마크라기보다 생태계가 빠르게 확장 중인 응용 사례에 가깝다. (Google Research)

즉, 지금 벌어지는 일은 단순하지 않다.

Claude Code는 AI가 더 많은 메모리를 쓰는 방향을 보여준다.
TurboQuant는 그 메모리를 더 효율적으로 쓰는 방향을 보여준다.

둘은 서로를 지우는 관계가 아니다.
오히려 둘이 동시에 발전하면, AI는 더 넓게 보급되고 메모리 총수요는 더 커질 가능성이 높다.


1. Claude Code 유출이 왜 메모리 투자 포인트가 되었는가


이번 이슈에서 시장이 진짜 봐야 할 부분은 “코드가 유출됐다”는 사건 자체가 아니다.
중요한 것은 무슨 구조가 보였느냐다.

공개 분석에서 주목된 것은 KAIROS 같은 always-on 성격의 기능, 메모리 관련 내부 구조, 그리고 에이전트가 오래 살아 있으면서 백그라운드에서 작동하는 방향성이었다. 이 해석이 100% 그대로 상용화된다고 단정할 수는 없다. 하지만 중요한 점은, Anthropic의 공식 문서만 봐도 Claude Code가 이미 그 방향으로 가고 있다는 사실이다. (The Verge)

Anthropic 공식 문서를 보면 Claude Code는 단순 챗봇이 아니다.
코드를 읽고, 파일을 수정하고, 명령을 실행하고, 여러 도구와 연결되는 agentic coding tool로 소개된다. 그리고 subagent는 각각 독립된 context window를 가지고 돌아간다. 즉, 에이전트가 하나가 아니라 여러 개가 동시에 작업할 수 있는 구조다. (Claude)

또한 Claude Code에는 auto memory가 있다.
Anthropic 문서는 Claude가 수정 사항에서 학습한 패턴을 자동 메모리로 저장하고, subagent도 각자의 자동 메모리를 유지할 수 있다고 설명한다. 이는 AI가 매번 초기화되는 것이 아니라, 점점 더 많은 작업 흔적과 패턴을 품고 간다는 뜻이다. (Claude)

여기에 scheduled tasks, channels, web/cloud sessions가 붙는다.
공식 문서는 Claude Code가 일정에 따라 프롬프트를 반복 실행할 수 있고, 외부 이벤트를 세션으로 밀어 넣을 수 있으며, Anthropic 클라우드에서 사용자가 접속을 끊은 뒤에도 세션이 계속 돌아가는 remote/cloud session을 지원한다고 설명한다. 쉽게 말해 AI가 “질문 받으면 답하고 끝”이 아니라, 사용자가 자리를 비운 동안에도 일을 이어가는 구조로 가고 있는 것이다. (Claude)

이 구조를 비전공자식으로 말하면 이렇다.

예전 AI는 계산기 같았다.
잠깐 켜서 물어보고 끄면 끝이었다.

지금의 에이전트형 AI는 비서에 가깝다.
자료를 들고 있고, 다음 일을 기다리고 있고, 다른 비서와 분담해서 일하고, 내가 없을 때도 할 일을 처리한다.

이 차이가 바로 메모리 수요의 차이다.


2. Claude Code가 보여준 메모리 수요의 본질


더 길어지고, 더 넓어지고, 더 깊어진다


Claude Code 이슈를 가장 잘 요약하는 표현은 이것이다.

세션은 더 길어지고,
에이전트는 더 많아지고,
컨텍스트는 더 커진다.

먼저 더 길어진다.

Anthropic 문서는 Claude Code가 로컬 세션뿐 아니라 remote/cloud session을 지원하고, scheduled task와 channels를 통해 사용자가 자리를 비운 사이에도 작업을 이어갈 수 있음을 보여준다. 이는 세션이 짧은 질의응답 단위가 아니라 지속적인 작업 단위로 바뀌고 있음을 뜻한다. 세션이 길어질수록 그 안에 쌓이는 상태 정보, 로그, 파일 읽기 이력, 요약 정보도 함께 늘어난다. (Claude)

다음은 더 넓어진다.

subagent는 각각 자기만의 context window를 가지고 움직인다. Anthropic는 여기에 더해 agent teams라는 실험적 기능도 문서화했다. 즉 앞으로의 AI는 한 명의 사용자가 단일 모델 하나를 쓰는 구조가 아니라, 여러 Claude 인스턴스가 역할을 나눠 병렬 작업하는 구조로 갈 가능성이 높다. 메모리 입장에서는 사용자 수가 같아도, 사용자 1인당 돌아가는 세션 수가 늘어나는 셈이다. (Claude)

마지막은 더 깊어진다.

Claude Code의 공식 모델 구성 문서는 Opus 4.6과 Sonnet 4.6이 1M token context window를 지원한다고 설명한다. 그리고 NVIDIA의 TensorRT-LLM 문서는 KV cache 크기가 batch size와 context length에 선형적으로 비례한다고 적고 있다. 즉 20만 토큰에서 100만 토큰으로 가면, 아주 거칠게 말해 세션당 잡아먹는 작업 메모리도 그만큼 커질 수 있다는 뜻이다. (Claude)

이 세 가지가 겹치면 어떤 일이 생기나.

메모리 수요가 사용자 수에 비례해서만 늘지 않는다.
사용자 1명당 메모리 사용량 자체가 계속 올라간다.

이 점이 중요하다.
시장은 보통 “AI 사용자 수 증가 = 서버 수 증가” 같은 선형 모델에 익숙하다.
하지만 에이전트 시대에는 수요가 선형보다 훨씬 더 복합적으로 커질 수 있다.


3. 그렇다면 시장에서 회자된 15GB, 93GB, 129GB 숫자는 어떻게 봐야 하나


여기서는 한 가지를 분명히 구분해야 한다.


공개 GitHub 이슈에는 실제로 매우 큰 메모리 사용 사례가 올라와 있다.
예를 들어 장시간 idle session이 세션당 약 15GB까지 불어났다는 보고가 있고, heap allocation이 93GB에 달했다는 이슈, virtual memory가 129GB까지 치솟았다는 이슈도 확인된다. Anthropic의 최근 릴리스 노트에도 긴 세션에서의 memory growth, remote session memory leak, WebFetch peak memory 사용량 축소 같은 수정 사항이 반복적으로 등장한다. (GitHub)

하지만 이 숫자를 곧바로 “Claude Code 정상 사양”으로 일반화하면 안 된다.

왜냐하면 이 수치들은 대부분 memory leak 버그 리포트이기 때문이다.
즉, 이 수치는 “에이전트 AI가 원래 이렇게 먹는다”의 증거라기보다, 에이전트형 소프트웨어가 경계 없이 복잡해질 때 메모리 리스크가 얼마나 커질 수 있는지 보여주는 경고 사례에 가깝다. (GitHub)

오히려 투자 관점에서 더 중요한 해석은 이쪽이다.

버그를 제외해도 방향성 자체가
장기 세션,
병렬 에이전트,
대형 컨텍스트,
지속형 자동화로 가고 있다.

즉, 극단적 숫자는 버그일 수 있어도
메모리 강도가 높아지는 추세 자체는 구조적이라는 뜻이다.


4. TurboQuant는 왜 이와 동시에 중요해졌는가


이제 TurboQuant를 봐야 한다.

TurboQuant를 아주 쉽게 말하면,
AI가 쓰는 숫자를 더 똑똑하게 압축해서 같은 메모리에 더 많이 담는 기술이다.

Google Research는 TurboQuant를 “extreme compression”이라고 소개한다. 핵심 아이디어는 데이터를 그냥 잘게 쪼개는 것이 아니라, 먼저 값의 분포를 압축하기 좋은 형태로 바꾼 뒤 더 적은 비트로 저장하는 것이다. Google은 이를 통해 LLM과 vector search의 메모리·계산 비용을 크게 줄이는 방향을 제시했다. (Google Research)

여기서 중요한 점이 하나 있다.

TurboQuant의 공식 원형은 KV cache와 vector search에 더 가깝다.
하지만 시장이 최근 주목하는 것은 여기에 더해 weight-side, 즉 모델 본체 자체를 더 작게 만드는 응용 방향이다.

이 부분은 아직 조심해서 봐야 한다.
Google 공식 대표 자료는 여전히 KV cache와 벡터 압축 중심이다.


https://x.com/LLMJunky/status/2039047105830900008
https://t.me/infomarketopen



위 x에 제시한 Qwen 3.5-27B, 3.15bit, 단일 RTX 5060 구동 같은 사례는 공식 표준이라기보다 생태계와 커뮤니티가 TurboQuant 수학을 weight 압축으로 밀어붙이는 초기 실험에 가깝다. 다만 이 흐름이 뜬금없는 우회는 아니다. Google의 설명 자체가 LLM 압축 전반의 방향을 깔아줬고, NVIDIA와 Hugging Face 문서도 weight, activation, KV cache를 낮은 정밀도로 줄여 메모리 풋프린트와 achievable context length를 바꾸는 방향을 지속적으로 강조하고 있다. (Google Research)

쉽게 말하면 이렇다.

Claude Code가 보여주는 문제는
AI가 일하면서 쓰는 작업 공간이 커진다는 것이다.

TurboQuant가 노리는 것은
AI 본체를 담아두는 짐가방을 줄이는 것이다.

둘은 같은 메모리 이야기지만, 서로 다른 층위다.


5. KV cache 압축과 모델 압축은 왜 다른가

이 부분을 이해하면 전체 그림이 훨씬 쉬워진다.

KV cache는 AI가 긴 문맥을 처리할 때 계속 쌓이는 임시 기억이다.
문맥이 길어지고 동시 사용자가 많아질수록 커진다.

반면 model weight는 AI 모델 본체다.
대화를 시작하기 전부터 이미 메모리에 올라가 있어야 하는 고정된 짐이다.

NVIDIA TensorRT-LLM 문서는 KV cache 크기가 context length와 batch size에 선형적으로 비례한다고 설명한다. Hugging Face도 KV cache가 긴 문맥에서 메모리 병목이 될 수 있다고 적는다. 그래서 KV 압축은 긴 문맥, 대규모 배치, 높은 동시성에서 특히 중요하다. (NVIDIA GitHub)

반대로 weight 압축은 짧은 문맥에서도 의미가 있다.
모델이 아예 GPU나 로컬 장치 안에 들어가느냐를 바꾸기 때문이다.

그래서 시장이 3.x bit 실험에 흥분하는 이유는 단순히 “메모리가 조금 줄었다”가 아니다.
실행 가능/불가능의 경계가 바뀌기 때문이다.

어제까지는 24GB급 장비가 필요했던 모델이
내일은 16GB급 AI PC나 중급 GPU에서 돌아갈 수 있다.

이건 숫자 하나 줄어든 문제가 아니다.
시장 크기 자체가 넓어지는 사건이다.


6. 그럼 TurboQuant가 나오면 메모리 업황은 약해지는가

여기서 가장 많이 생기는 오해가 있다.

압축 기술이 좋아지면
메모리 수요가 바로 꺾일 것 같아 보인다.

하지만 실제 산업은 대개 그렇게 움직이지 않는다.

효율이 좋아지면 사람들은 덜 쓰지 않는다.
오히려 더 많이 쓴다.

예를 들어 TurboQuant류 기술이 성숙하면 같은 GPU 메모리 안에 더 많은 replica를 올릴 수 있고, 남는 자원으로 더 긴 context, 더 큰 batch, 더 많은 동시 agent를 허용할 수 있다. NVIDIA도 KV cache 정밀도를 낮추면 더 긴 context budget과 더 큰 batch size를 열 수 있다고 설명한다. 결국 절감된 메모리는 비용 절감으로 끝나기보다, 더 공격적인 사용으로 재투자될 가능성이 높다. (NVIDIA Developer)

이 지점에서 Claude Code와 TurboQuant가 연결된다.

Claude Code는
“AI가 더 오래, 더 넓게, 더 깊게 일하게 될 것”을 보여준다.

TurboQuant는
“그렇게 많이 일하는 AI를 더 싸고 더 넓게 배포할 수 있게 만들 것”을 보여준다.

따라서 TurboQuant는 메모리 시장의 적이라기보다,
오히려 에이전트 AI 보급을 가속하는 조력자에 가깝다.


7. Cowork가 붙으면 이야기는 개발자 시장에서 끝나지 않는다

여기서부터는 더 중요하다.

Claude Code만 놓고 보면 아직 많은 사람이 이 현상을
“개발자용 툴의 특수한 현상”으로 볼 수 있다.

하지만 Anthropic의 다음 카드는 Cowork다.

Anthropic 공식 제품 페이지는 Cowork를 비개발자용 지식노동 에이전트로 소개한다. 로컬 파일, 폴더, 문서 준비, 자료 정리, 반복적 지식작업을 사용자 대신 처리하는 구조다. Anthropic는 내부의 비기술 팀도 이미 Claude Code의 다단계 작업 능력을 일반 업무에 우회적으로 활용하고 있었고, 그래서 Cowork를 만들었다고 설명한다. (Anthropic)

블룸버그에 따르면 Anthropic의 CCO는 Cowork가 Claude Code보다 더 넓은 시장에 도달할 것으로 보고 있다. 이 한 문장만으로도 투자 해석은 크게 바뀐다. 메모리 수요의 중심이 “개발자 워크스테이션”에서 “전체 지식노동 단말기”로 이동할 수 있기 때문이다. (블룸버그)

이게 왜 중요하냐.

Claude Code는 개발자가 쓰는 도구다.
Cowork는 애널리스트, 연구원, 운영팀, 마케터, 법무, 재무처럼
비개발자까지 포함하는 범용 업무 자동화 도구다.

즉, AI 에이전트의 메모리 부담이
소수의 고사양 개발자 PC 문제에서 끝나지 않고,
일반 사무직의 업무 환경으로 확산될 수 있다는 뜻이다.

그리고 지식노동의 특성상 이 수요는 생각보다 무겁다.
문서가 길고, 파일 수가 많고, 이전 자료를 이어 봐야 하고,
복수의 문맥을 동시에 품고 작업해야 하기 때문이다.

결국 Cowork는 메모리 수요를
“서버 HBM 이야기”에서
“서버 + 기업용 PC + 온디바이스 AI” 이야기로 넓힌다.


8. 그래서 메모리 시장은 어떻게 봐야 하나

이제 결론을 정리할 수 있다.

현재 시장의 약세론은 대체로 이런 프레임에 서 있다.

“압축 기술이 더 좋아지면 AI 메모리 수요는 생각보다 약할 수 있다.”

하지만 Claude Code와 TurboQuant를 같이 보면
이 프레임은 너무 단순하다.

Claude Code가 보여주는 것은
사용자 1명당 작업 메모리 강도가 올라가는 구조다.

TurboQuant가 보여주는 것은
같은 메모리로 더 많은 AI를 보급할 수 있는 구조다.

그리고 Cowork는
그 구조가 개발자를 넘어 전사 지식노동으로 확장될 가능성을 보여준다. (Anthropic)

그래서 앞으로의 메모리 시장은
단순한 “HBM만의 시장”으로 보기 어렵다.

첫째, HBM은 여전히 중요하다.
다만 포인트는 “절대 GB 수요”만이 아니라 “GB당 생산성”으로도 옮겨간다.

둘째, 서버 DRAM이 같이 중요해진다.
오래 살아 있는 세션, 상태 저장, 다중 에이전트 조정이 늘어나기 때문이다.

셋째, 클라이언트 DRAM과 LPDDR의 투자 포인트가 커진다.
에이전트가 로컬 단말기까지 상주하기 시작하면, 기업 PC의 기본 메모리 사양 상향 압력이 커질 수 있다.

즉, 메모리 수요는 사라지기보다
서버에서 단말기로, 개발자에서 전체 지식노동으로, 모델 메모리에서 작업 메모리로 확산되는 쪽에 가깝다.


결론

이번 Claude Code 유출이 진짜로 보여준 것은
“클로드가 버그로 100GB를 먹는다”가 아니다.

그보다 더 본질적인 것은
AI가 이제 상시형 에이전트로 진화하고 있다는 점이다.

세션은 더 오래 살아남고,
에이전트는 더 많이 병렬화되고,
컨텍스트는 더 깊어진다.

이 변화는 메모리 수요를 구조적으로 키운다.
버그는 과장일 수 있어도 방향성은 분명하다. (The Verge)

그리고 TurboQuant가 보여주는 것은
그 부담을 없애는 기술이 아니라,
그런 세상을 더 빨리 열어주는 기술이다.

모델은 더 작아지고,
더 많은 장비에서 돌아가고,
더 많은 사용자가 더 많은 에이전트를 쓰게 된다.

따라서 내 결론은 단순하다.

메모리 시장 약세론은 아직 이르다.
앞으로의 핵심은 “메모리 수요가 줄어드느냐”가 아니라,
어느 층위에서, 어떤 형태로, 얼마나 더 넓게 퍼지느냐다.

=끝

2026년 3월 31일 화요일

생각정리 214 (* HBM Bottleneck Era)

이전글에 추가적인 HBM 산업 리서치를 이어나가본다.


AI 시대가 깊어질수록, 결국 더 중요해지는 것은 HBM이다


이전 글에 이어 이번에는 AI 서버, HBM 수요와 공급, 그리고 관련 기업들의 투자포인트까지 조금 더 확장해서 정리해보려고 한다.

이번 리서치를 하면서 가장 크게 느낀 점은 명확하다.

앞으로 LLM의 토큰 수요는 계속 폭발적으로 증가할 가능성이 높다는 점이다.
그 증가 속도는 우리가 지금 일반적으로 가정하는 수준보다 더 빠를 수 있다.

그래서 오히려 현 시점에서 먼 미래의 토큰 수요를 숫자로 정교하게 맞추는 작업은 점점 덜 중요해질 수도 있다고 생각한다.
미래 수요가 너무 빠르게 변하기 때문이다. (*Upward)

핵심은 단순하다.
정확한 숫자 하나보다 더 중요한 것은, 수요가 구조적으로 계속 커질 수밖에 없는 방향성이다.


이번 리서치가 더 의미 있게 느껴진 이유


나는 기술업계 종사자도 아니고, 반도체 엔지니어도 아니다.
외부 비전문가에 가까운 금융업계 투자자다.

그럼에도 불구하고, AI 성능향상 덕에 이전에는 상상할 수조차 없었던 수준의 리서치를 이젠 할 수 있게 되었다. 
이 점이 꽤 중요하게 느껴졌다.

이는 나만의 예외적인 사례라기보다,
조금만 공부하고 AI를 잘 활용하면
상당수의 다수의 산업 종사자들도 이전보다 훨씬 높은 생산성을 낼 수 있다는 뜻에 가깝다.

이 말은 결국 AI의 확산 속도가 생각보다 더 빠를 수 있다는 의미다.

AI는 이제 일부 테크 기업이나 연구자만의 도구가 아니다.
금융, 제조, 유통, 의료, 서비스업 등 거의 모든 산업에서
AI는 점점 더 일상적인 생산성 도구가 될 가능성이 높다.

그리고 그 결과는 자연스럽게
토큰 사용량이 산업 전반에서 폭발적으로 증가할 수밖에 없다.


문제는 수요보다 공급일 수 있다


토큰 사용량이 늘어난다는 것은 결국
더 많은 AI 연산이 필요하다는 뜻이다.

그런데 수요는 빠르게 늘어날 수 있어도
그 수요를 처리할 칩 공급은 그렇게 쉽게 늘지 않는다.

특히 AI 서버에 들어가는 고성능 칩은
대부분 선단공정에서 생산된다.
이 영역은 이미 물리적 한계에 가까운 초미세 공정이다.

즉, 생산능력을 늘리는 것이 쉽지 않다.
설비투자도 크고, 시간도 오래 걸린다.
수율 안정화도 어렵다.

결국 수요는 폭증하는데
공급은 그 속도를 따라가기 어렵다.

나는 이번 리서치를 하면서

직감적으로 앞으로의 핵심 병목은 점점 더 강해질 가능성이 높다고 느꼈다.
특히 선단공정처럼 미세화가 극단으로 갈수록
그 한계는 더 뚜렷해질 가능성이 높다.


GPU와 ASIC의 경쟁처럼 보이지만, 본질은 메모리일 수 있다


일부에서는 앞으로의 AI 반도체 시장을
GPU와 ASIC의 경쟁 구도로 해석한다.

물론 맞는 말이다.
ASIC은 특정 고객 맞춤형 설계에 강점이 있고,
실제로 관련 시장도 빠르게 커지고 있다.

하지만 내 생각은 조금 다르다.

앞으로 AI 산업이
학습 중심 시대를 지나
추론 중심 시대로 이동하고,
그 위에 Agent AI 시대까지 본격화되면
중요해지는 것은 단순한 연산 성능만이 아니다.

훨씬 더 많은 데이터를 빠르게 읽고, 저장하고, 교환해야 한다.
이 과정에서 메모리의 중요성은 더욱 커질 수밖에 없다.

바로 이 지점에서 HBM이 중요해진다.

HBM은 AI 서버 성능을 사실상 좌우하는 핵심 부품이다.
연산칩이 좋아도 메모리가 받쳐주지 못하면
전체 시스템 성능은 제한될 수밖에 없다.

그래서 나는 앞으로 AI 반도체 시장의 핵심 경쟁력이
단순한 연산칩 자체보다
메모리 구조와 HBM 확보 능력 쪽으로 더 이동할 가능성이 높다고 본다.

ASIC 시장은 계속 성장할 수 있다.
하지만 메모리 경쟁력 측면에서는
메모리 아키텍처의 구조적 강점과 HBM 확보 능력에 강점이 있는 GPU 진영과 그렇지 않은 진영과의 격차가 앞으로도 쉽게 줄어들지 않고, 
되려 격차가 더 벌어질 가능성이 높다고 생각한다.


그래서 이번 분석은 수요와 공급을 함께 봤다


이번 글은 단순히
“HBM이 중요하다”는 수준의 이야기를 하려는 것이 아니다.

조금 더 구조적으로 접근해보려 했다.

먼저 수요 측면에서는
ASIC 진영의 대표 기업인 BroadcomMarvell의 백엔드 수주 흐름을 점검했다.

그 위에 GPU 진영의 NVIDIAAMD까지 포함해서
전체 AI 서버 전방 수요를 추정하려고 했다.

공급 측면에서는
메모리 3사의 공급능력과 공급계획을 바탕으로
실질적인 HBM 공급 여력을 추정하려고 했다.

그리고 마지막으로
수요와 공급을 함께 놓고
앞으로 HBM 수급이 얼마나 타이트할지를 전망해보려 했다.

그 이후에는 자연스럽게
관련 밸류체인 기업들의 어닝모델 업데이트까지 연결되는 구조다.


HBM 수요 모델을 볼 때 중요한 점

*Visible Demand (*HBM 하단수요)

HBM 수요를 볼 때
단순히 “AI 서버가 몇 대 팔리는가”만 보면 부족하다.

더 중요한 것은
어떤 칩이 얼마나 팔리는지,
그 칩에 HBM이 몇 개 들어가는지,
그리고 그 HBM이 어떤 세대인지까지 함께 보는 것이다.

같은 AI 서버 시장 성장이라도
탑재되는 GPU나 ASIC 종류가 달라지면
HBM 사용량은 크게 달라질 수 있다.

즉, HBM 수요는 단순한 서버 숫자의 함수가 아니다.
칩 구조와 메모리 탑재량의 함수다.

그래서 이번 분석에서는
칩별 로드맵과 제품 세대, 예상 메모리 탑재량까지 같이 보려고 했다.


#Visible HBM Demand 




#시각화자료










HBM 시리즈를 세 가지로 구분한 이유


이번 분석에서는 HBM을 단순히 세대별로만 나누지 않았다.
정보의 확실성 수준에 따라 세 가지로 구분했다.

이렇게 나눈 이유는 간단하다.
팩트와 가정을 명확히 분리하기 위해서다.

1. 공식적으로 확인된 세대

HBM3E, HBM4, HBM4E처럼
공개 자료를 통해 세대가 비교적 명확하게 확인된 경우다.

이 구간은 실제 기업 발표나 제품 스펙에 기반한
상대적으로 확정된 정보라고 보면 된다.

2. 세대명이 공개되지 않은 경우

HBM이 탑재된다는 점과 용량은 알려져 있지만
정확히 HBM3E인지 HBM4인지 공개되지 않은 경우도 있다.

이 경우 특정 세대로 억지 분류하면
오히려 해석이 왜곡될 수 있다.

그래서 이런 항목은
HBM (undisclosed gen)처럼
중립적으로 묶는 편이 더 합리적이다.

3. 분석적으로 추정한 미래 세대

HBM4(assumed), HBM4E(assumed), HBM5(assumed)처럼
공식 확인이 아니라 분석적으로 추정한 세대도 있다.

이 경우는 출시 시점, 예상 용량, 업계 기술 전환 속도를 바탕으로
가장 합리적인 세대를 배정한 것이다.

이 세 가지를 구분하지 않으면
확정된 정보와 분석 가정이 뒤섞이게 된다.

특히 2027년 이후 제품들은
로드맵은 존재하지만 메모리 세대가 모두 공개되지 않은 경우가 많다.
그래서 이 구분은 단순한 형식이 아니라
수요 해석의 왜곡을 막기 위한 장치라고 보는 편이 맞다.


#Visible HBM Supply












공급은 왜 이론상 공급과 실제 공급을 나눠서 봐야 하나


HBM 시장을 볼 때 가장 자주 생기는 착시는
공급(Visible Supply)을 곧바로 실제 출하 가능한 공급(Shippable Supply)으로 받아들이는 것이다.

하지만 HBM은 일반 DRAM과 다르다.
단순히 생산 계획상 물량이 잡혀 있다고 해서, 그 물량이 그대로 시장에 전달되는 구조가 아니다.

HBM은 메모리 생산 외에도
적층 수율, 패키징, 고객 인증, 세대 전환 안정화 같은 요소가 모두 맞아야 실제 출하가 가능하다.

그래서 HBM 공급은
두 단계로 나눠서 보는 것이 더 현실적이다.

바로 Visible Supply, Haircut, Shippable Supply다.


1. Visible Supply: 표면상 확보된 공급량


Visible Supply는
현재 시장에서 확인 가능한 기준으로 잡히는 공급량이다.

쉽게 말해
“지금 보이는 프로그램과 생산계획을 기준으로 보면 이 정도는 공급될 것”이라는 숫자다.

아래 첨부된 모델 기준으로 보면 Visible Supply는
2026년 0.58EB, 2027년 1.21EB, 2028년 1.75EB, 2029년 2.26EB, 2030년 2.67EB다.

겉으로 보면 공급은 매년 꾸준히 늘어난다.
그래서 표면적으로는 공급 부족이 다소 완화되는 것처럼 보일 수 있다.

하지만 이 숫자는 어디까지나 보이는 공급이다.
즉, 아직 실제 납품 가능 물량과는 다를 수 있다.


2. Haircut: 실제 출하 과정에서 빠지는 물량


문제는 이 Visible Supply가
그대로 최종 공급으로 이어지지 않는다는 점이다.

그래서 중간에 Haircut이라는 개념이 필요하다.

Haircut은
보이는 공급량 중 실제로는 제때 출하되지 못하는 부분을 뜻한다.

첨부된 모델 기준 Haircut은
2026년 0.04EB, 2027년 0.10EB, 2028년 0.12EB, 2029년 0.10EB, 2030년 0.12EB다.

이를 Visible Supply 대비 비율로 보면
2026년 7.4%, 2027년 8.0%, 2028년 6.7%, 2029년 4.3%, 2030년 4.4%다.

즉, 시장에서 보이는 공급 중 일부는
실제로는 수율 이슈, 패키징 병목, 고객 qualification 지연, 세대 전환 과정의 마찰로 인해 빠진다고 봐야 한다.

중요한 점은
Haircut이 단순한 보수 가정이 아니라는 점이다.
이것은 HBM 시장의 구조적 마찰 비용을 반영한 수치다.


3. Shippable Supply: 실제로 시장에 인도 가능한 물량


Shippable Supply

최종적으로 고객에게 제때 납품 가능한 공급량이다.

계산은 단순하다.

Shippable Supply = Visible Supply - Haircut

첨부된 모델 기준으로 Shippable Supply는
2026년 0.54EB, 2027년 1.11EB, 2028년 1.63EB, 2029년 2.16EB, 2030년 2.55EB다.

즉,
보이는 공급이 Visible Supply이고,
그중 현실적으로 빠지는 부분이 Haircut이며,
최종적으로 실제 납품 가능한 양이 Shippable Supply다.

시장 가격과 체감 공급 부족은
결국 이 Shippable Supply에 의해 결정된다.

실제 시장 전체 수요를 충족하기에는 여전히 크게 부족한 구조다.


HBM 수요 추정치가 달라진 이유


이전의 Visible Demand 기준 HBM 수요와
아래의 Normal Market demand 기준 HBM 수요가 다르게 보이는 이유는,
두 모델의 기준 범위가 서로 다르기 때문이다.

초기 바텀업 모델은
공개된 GPU·ASIC 프로그램을 중심으로 합산한 Visible Demand에 가깝다. (*확실한 하단수요)

반면 이후 아래의 Normal Market demand HBM 수요는
Visible Demand에 Demand Adders를 추가해 계산한다.

핵심은 간단하다.

Visible Demand은 확실한 하단의 수요이고,
Normal Market Demand은 시장 전체가 실제로 요구하는 가수요 예측치이다.

즉, 공개된 수치만 보면 수요가 제한적(?)으로 보이지만,
실제 시장에서는 비공개 custom ASIC, CSP 내부 프로젝트, 선제적 확보 수요, 예상보다 빠른 램프업등이 붙으면서 체감 수요가 훨씬 커지는 구조다.










해석: 이론적 수요와 실질 공급은 매년 쉽게 맞아떨어지지 않는다


HBM 시장에서는
이론적으로 필요한 수요와 실제로 출하 가능한 공급이 매년 쉽게 맞아떨어지기 어렵다.

이론적 수요는
칩 로드맵과 서버 증설 계획을 바탕으로 빠르게 커질 수 있다.
반면 실제 공급은 그 속도를 그대로 따라가지 못한다.
공장이 생산할 수 있는 양이 늘어나도, 그 물량이 모두 실제 납품으로 이어지지는 않기 때문이다.

HBM은 일반 메모리보다 훨씬 복잡하다.
생산만으로 끝나지 않는다.
적층, 패키징, 인증, 세대 전환이 함께 맞아야 한다.
그래서 공급은 수요보다 느리게 반응할 가능성이 높다.

특히 수요가 급팽창하는 구간에서는
이론적 수요는 빠르게 늘어난다.
하지만 실질 공급은 단계적으로만 증가한다.
그래서 시장에서는 수요가 충분해 보여도 타이트한 상황이 이어질 수 있다.

여기에 더해
HBM 전방 수요시장은 닫힌 시장이 아니라 열린 시장에 가깝다.
새로운 기술이 도입될 때마다 성능이 올라간다.
추가 capacity가 공급될 때마다 활용 가능한 연산량도 커진다.
그 과정에서 기존 수요만 채워지는 것이 아니라, 새로운 전방 수요가 다시 열린다.

또 AI S/W와 H/W의 세대가 바뀔수록
LLM 성능은 계속 향상될 수 있다.
성능이 올라가면 적용 가능한 서비스와 workload 범위도 넓어진다.
그에 따라 AI 추론 수요시장 역시 계속 커질 수 있다.

즉, HBM 시장은
단순히 현재 보이는 수요만으로 끝나는 시장이 아니다.
기술 발전과 공급 확대가 동시에 새로운 수요를 다시 만들어내는 구조에 가깝다.
그래서 공급이 늘어나더라도, 그 증가분이 곧바로 공급 부족 해소로 이어진다고 단정하기 어렵다.

이는 마치 영원히 공급이 수요를 따라잡을 수 없을것 같은 아킬레우스와 거북이의 역설과 같이 느껴진다.

따라서 투자 관점에서 중요한 질문은
“메모리 회사가 얼마나 만들 수 있나”가 아니다.
**“올해 실제로 시장에 얼마를 풀 수 있나”**에 더 가깝다.


개별 기업별 투자포인트

NVIDIA: 단순 GPU 판매가 아니라 AI 팩토리 수요를 파는 구조





엔비디아의 전방 수요는
단순한 학습용 GPU 수요로만 보기 어렵다.

지금은 Agentic AI와 추론 중심으로
수요 구조가 더 넓어지는 구간에 들어가고 있다.

회사는 이를 사실상
compute = revenue라는 관점으로 설명하고 있다.
즉, 고객 입장에서는 연산능력 확보 자체가
곧 매출과 서비스 경쟁력으로 연결되는 구조다.

그래서 고객의 CapEx 지속성도
생각보다 더 길게 갈 수 있다.

현재 수요의 중심은 여전히 하이퍼스케일러다.
하지만 OpenAI, Anthropic, 오픈모델 생태계 확산과 함께
엔터프라이즈, 온프레미스, 산업용 수요까지 저변이 넓어지고 있다.

핵심 투자포인트는
Blackwell에서 Rubin으로 갈수록
단순 GPU 교체 수요가 아니라
AI 팩토리 전체 아키텍처 수요로 확장된다는 점이다.

즉, 엔비디아는 칩 한 개를 파는 회사가 아니라
AI 인프라 전체를 파는 구조로 더 진화하고 있다.


AMD: GPU를 넘어 시스템과 커스텀까지 확장될 가능성


AMD의 GPU 전방 수요도
단순 학습용 GPU 수요로만 보기 어렵다.

핵심은
추론 확산, 에이전트 도입, 랙스케일 AI 인프라 증설로 이어지는
구조적 수요 국면에 들어가고 있다는 점이다.

고객 측면에서도 의미 있는 변화가 있다.
Meta, OpenAI 같은 초대형 고객이
단순 구매자가 아니라
다세대 장기 파트너로 묶이는 흐름이 나타나고 있다.

이는 MI450 이후 세대까지
가시성을 높여주는 요인이다.
동시에 세미커스텀 확장 가능성도 키워준다.

투자포인트는 결국
2026년 하반기 MI450과 Helios 양산 램프가 본격화될 경우,
AMD가 단순 GPU 판매를 넘어
시스템, 소프트웨어, 커스텀 설계까지 점유범위를 넓힐 수 있다는 점이다.

그렇게 되면 데이터센터 AI 매출 성장률이
다시 상향될 가능성도 있다.



Broadcom: XPU는 단기 붐이 아니라 멀티이어 증설 사이클




브로드컴의 XPU 전방 수요는
단순한 단기 유행이나 일회성 수주로 보기 어렵다.

오히려 멀티이어 증설 사이클로 보는 편이 더 맞다고 생각한다.

핵심은 고객 기반과 물량 가시성이다.
회사는 기존 5개 고객에 더해
OpenAI를 6번째 고객으로 언급했다.

또한 2026~2028년 웨이퍼, HBM, 기판 공급을
선제적으로 확보했다고 밝히고 있다.
이는 2027~2028년까지 물량 가시성이 높다는 의미다.

고객 수요의 질도 강하다.
Google TPU, Anthropic, Meta의 차세대 MTIA,
기존 고객 확대, OpenAI의 대규모 배치 계획 등을 감안하면
브로드컴은 단순 프로젝트성 매출이 아니라
소수 초대형 고객의 핵심 전략 로드맵 안에 깊게 들어가 있는 구조로 보인다.

투자포인트는 결국
고객별 GW 단위 확장성이다.

즉, XPU 단가 자체만 볼 것이 아니라
스위치, DSP, SerDes 등
네트워킹과 연결 부품까지 함께 붙는 실리콘 콘텐츠 확대를 같이 봐야 한다.

브로드컴은 AI 칩 한 종류의 수혜가 아니라
AI 인프라 전체 안에서 시장점유율이 커질 수 있는 구조라는 점이 중요하다.


Marvell: XPU 본체보다 attach 매출 확대가 핵심




마벨의 XPU 전방 수요는
이제 막 초기 확산을 논하는 단계라기보다
본격 램프업 구간에 진입하는 흐름으로 보는 편이 맞다.

회사는 기존 리드 XPU 프로그램 전환과
신규 Tier-1 하이퍼스케일러 프로그램의 고볼륨 양산을 근거로
커스텀 매출의 큰 폭 성장을 제시하고 있다.

고객 구조도 나쁘지 않다.
특정 1개 고객 의존이 아니라
상위 하이퍼스케일러 전반으로 확산되는 모습이기 때문이다.

경영진은 상위 미국 하이퍼스케일러 전반에 깊게 관여하고 있고,
누적 디자인윈이 매출화되면서
시간이 갈수록 고객 분산이 개선된다고 설명하고 있다.

투자포인트는 XPU 본체보다
오히려 attach 매출의 동반 확대다.

즉, XPU 자체뿐 아니라
Custom NIC, CXL 같은 attach 제품군까지 같이 수혜를 받는 구조다.

이 말은 마벨이 단순히 칩 한 종류를 공급하는 것이 아니라
AI 인프라 안에서 점유할 수 있는 매출 범위가 넓어질 수 있다는 뜻이다.

결국 핵심은
AI 인프라 내 지갑점유율 확대다.


결국 무엇이 핵심인가


정리하면 이번 리서치를 통해 더 강하게 느낀 것은 네 가지다.

첫째, AI 토큰 수요는 앞으로도 구조적으로 계속 늘어날 가능성이 높다는 점이다.

둘째, 그 수요를 감당할 만큼
선단공정 칩과 HBM 공급은 쉽게 늘어나기 어렵다는 점이다.

셋째, HBM 시장에서는
이론적 수요와 실질 공급이 매년 깔끔하게 맞아떨어지기 어렵고,
그래서 공급 부족은 생각보다 더 오래 지속될 수 있다는 점이다.

넷째, 앞으로 AI 반도체 시장에서는
단순한 연산 성능 경쟁보다
메모리 경쟁력과 실제 공급 가능성이 더 중요해질 수 있다는 점이다.

그리고 개별 기업 관점에서는
NVIDIA와 AMD가 GPU 중심에서 시스템 전체로 확장되는 흐름을 봐야 하고,
Broadcom과 Marvell은 커스텀 XPU 자체보다
고객 락인과 attach 매출 확대까지 함께 봐야 한다.

결국 시장의 본질은 점점 더 분명해지고 있다.

AI 시대가 깊어질수록 병목의 핵심은 연산칩 자체보다, 그 칩을 실제로 움직이게 하는 HBM의 실질 공급능력에 더 가까워질 가능성이 높다.


AI 인프라 시장의 승부는 단순한 칩 경쟁이 아니라, 폭증하는 수요를 실제로 감당할 수 있는 HBM의 실질 공급능력과 시스템 지배력의 경쟁으로 이동하고 있지 않나 싶다.



#글을 마치며 

컴퓨팅, 연산용 GPU 품귀현상이 이렇게나 심한데..
HBM 과잉공급이 왠말이고 HBM4 퀄테스트 탈락은 또 무슨말인지..


정신나간 하락아닌가..? 어질어질..
@ㅅ@


개인적으로 HBM 과잉공급에 따른 메모리 폭락론은 미친소리라고 생각하는데.. 
이렇게 생각하는 내가 미친건가.. 

라고 말하면 안되겠지.. 

=끝

2026년 3월 30일 월요일

생각정리 213 (* 메모리 패닉셀)

중동 사태가 악화되면서 그동안 레버리지 청산인가 싶을정도의 메모리를 중심으로 패닉셀이 나타나는 모습이다.

산업이나 매크로 외부변수를 제외한 산업, 그리고 개별기업 펀더에 별 이슈는 없는지 한번 점검해보고자 한다.

아침에 눈뜨고 가장 먼저 마이크론 주가를 확인한지 언 일주일은 되가는 듯 싶다.


최근 DRAM 시장


중국 DDR5 가격만 보고 업황을 판단하면 안 되는 이유


1. 최근 논란의 출발점


중국 consumer DDR5 가격 하락

최근 중국 화창베이에서 consumer DDR5 현물 가격이 빠르게 하락했다는 소식이 나왔다.
이 때문에 일부에서는 DRAM 업황이 꺾이는 것 아니냐는 해석도 내놓고 있다.

하지만 지금 시장은 그렇게 단순하지 않다.
현재 DRAM 시장은 하나의 시장이 아니라, 성격이 다른 두 개의 시장으로 나뉘어 움직이고 있기 때문이다.


2. 가장 중요한 구분


Consumer DDR5와 AI Server DDR5는 다르다


중국 consumer DDR5는 기본적으로 유통시장이다.
재고 수준, 조립 PC 수요, 단기 회전율, 상인들의 현금화 압력에 따라 가격이 크게 흔들릴 수 있다.

반면 AI 서버향 DDR5와 HBM은 계약시장에 가깝다.
이쪽은 hyperscaler, GPU/ASIC 고객, 서버 OEM, CSP의 투자와 장기 조달 계약이 핵심이다.

즉, 같은 DDR5라는 이름을 쓰더라도

  • consumer DDR5 spot

  • AI server DDR5 contract

이 둘은 사실상 다른 시장으로 봐야 한다.


3. 최근 메모리 어닝콜 및 인터뷰 공통 메시지


공급의 중심은 서버와 HBM으로 이동 중

삼성전자는 최근 실적 발표에서 메모리 사업이 HBM, server DDR5, enterprise SSD 같은 고부가 제품 중심으로 수익성을 개선했다고 설명했다.
출처

SK하이닉스도 2026년 시장을 HBM이 이끄는 AI 메모리 슈퍼사이클로 규정했다.
출처

즉, 주요 업체들의 공급 우선순위는 이미 consumer spot이 아니라 server DRAM과 HBM 쪽으로 이동하고 있다.


4. 마이크론 어닝콜의 핵심


SCA와 데이터센터 bit TAM 50% 초과


마이크론의 최근 어닝콜은 이 구조 변화를 더 분명하게 보여준다.

회사는

  • 첫 5년짜리 SCA(Strategic Customer Agreement)를 체결했다고 밝혔고

  • 2026년에는 데이터센터 DRAM·NAND bit TAM이 전체 TAM의 50%를 처음 넘을 것이라고 설명했다.

출처

이 의미는 분명하다.
메모리 수요의 중심이 점점 더 consumer 시장에서 AI 데이터센터 시장으로 이동하고 있다는 뜻이다.


5. 가격보다 더 중요한 것


어떤 DRAM이 오르고 있는가




차트를 보면 DDR5와 DDR4 가격은 이미 2025년 4분기 이후 가파르게 반등했다.
즉, DRAM 가격 자체는 이미 강하게 올라온 구간이다.

그런데 삼성전자, SK하이닉스, 마이크론 주가는 이 흐름을 단순하게 따라가지 않았다.
이는 시장이 단순 spot 가격보다도

  • 앞으로 어떤 제품이 실적을 이끌지

  • AI 서버 수요가 얼마나 오래 지속될지

  • HBM 비중이 얼마나 더 확대될지


를 더 중요하게 보고 있다는 의미다. (*중동전쟁 이전 과거 얘기임..)

결국 지금은 DRAM 가격이 오르느냐보다, 어느 시장의 DRAM이 업황을 이끄느냐가 더 중요하다.


6. 숫자로 보면 더 분명하다


글로벌 DRAM bit mix 전망


아래는 과거 삼성전자, SK하이닉스, 마이크론 3사를 기준으로 정리한 글로벌 DRAM bit mix 추정치다.



이 표가 말하는 핵심은 단순하다.

핵심 포인트

  • Consumer B2C spot 비중은 매우 작다

  • Server DRAM B2B contract + HBM이 이미 시장의 중심 축이다

  • 2027년에는 이 비중이 더 확대될 가능성이 높다

즉, 최근 중국 consumer DDR5 가격 하락은 존재하는 신호이지만, 전체 DRAM 업황을 대표하는 핵심 변수는 아니다.


7. Anthropic 사례가 시사하는 점


AI inference 수요는 여전히 강하다


이 해석은 최근 Anthropic 사례와도 연결된다.

Anthropic은 Google Cloud 사용을 크게 확대하겠다고 밝히며,

  • 최대 100만 개 TPU

  • 2026년에 1GW를 크게 웃도는 capacity 확보 계획

을 공개했다.
출처

이는 AI 서비스 수요가 계속 늘고 있고, 그에 맞춰 데이터센터 연산 인프라와 메모리 투자도 계속 확대될 가능성이 높다는 의미다.

AI가 학습 중심에서 inference와 agent AI 중심으로 확산될수록, 서버는 더 많은 DDR5와 HBM을 필요로 하게 된다.


8. 결론


지금 DRAM 사이클의 중심은 어디인가


최근 중국 consumer DDR5 가격 하락만 보고 **“DRAM 업황이 꺾였다”**고 해석하는 것은 무리가 있다.

지금 시장의 중심은 화창베이 spot 가격이 아니라,

  • AI inference 확대에 따른 서버 메모리 수요

  • HBM 공급 우선순위

  • CSP와 hyperscaler의 장기 조달 계약

이다.

정리하면, 최근 DRAM 시장은

  • 중국 consumer DDR5 spot 약세

  • AI 서버향 DDR5·HBM 강세

가 동시에 나타나는 혼재 국면이다.
하지만 중장기 사이클을 실제로 이끄는 쪽은 전자가 아니라 후자다.


9. 한 줄 요약


중국 consumer DDR5 spot 가격 하락은 국지적 신호일 수는 있어도, 지금 DRAM 중장기 사이클의 중심은 여전히 AI 서버향 DRAM과 HBM이다.

추가로, 트랜드포스에서 오늘자로 DRAM & NAND 고정계약가 상향조정 발표가 나서, 
이참에 메모리 3사 어닝모델도 같이 업데이트 해본다.


Sk Hynix 1M before


Sk Hynix 1M After


Micron 1M before

Micron 1M After


Samsung electric


#글을 마치며 


아, 그리고 낸드

특히 낸드를 더욱 주목해야하지 않을까 싶었다.

향간에 들리는 2026년 3월 NAND Flash 고정가 상승이 사실이고, 이 상승추세가 지속된다면 정말 2026년/2027년 연간 NAND opm이 55~60% / 70~80% 까지 올라갈 수 있겠다 싶긴하다..

그래도 상식적(?)으로 이건 너무 과도하니 일괄적으로 NAND Margin을 40~45%로 눌러 놓긴했다..

중동 전쟁에 따른 고유가가 시스템 리스크로 전이될지를 두고,
시장이 지나치게 비관적인 것인지,
아니면 내가 지나치게 낙관적인 것인지 판단이 쉽지 않다.

그 시각 차이가 너무 커서,
지금은 그 간극 자체를 가늠하기도 어렵다.

매수·매도 추천 의견 아님.

=끝

2026년 3월 29일 일요일

생각정리 212 (* 서울 중소형 도심 아파트, 문 어게인)

주말이 되면 우리부부는 보통 부동산 이야기를 하며 한 주를 마무리하곤 한다.

특히 최근에는 커뮤니티에서 신혼부부의 자가 마련을 둘러싼 갈등 글이 자주 눈에 띈다. 그런 글들을 읽고 있으면, 우리 역시 결혼이나 집 마련 시점이 지금보다 1년만 더 늦었어도 훨씬 더 어려워졌겠구나 하는 생각이 자주 든다.

이런 현실을 보다 보면 자연스럽게 한 가지 질문으로 이어진다.
왜 지금 이렇게 부동산, 주식투기 열기가 강한가.
그리고 더 나아가, 왜 이 흐름이 쉽게 꺼지기 어려운가.

이번 글은 그 질문을 서울 도심 아파트 자가 마련이라는 아주 구체적인 목표에 맞춰 다시 정리해보려는 글이다.

결국 지금의 투기 열풍은 단순한 유행이 아니라, 서울에서 내 집을 마련하기 위해 점점 더 높은 수익률이 요구되는 현실과 맞닿아 있기 때문이다.

서울 핵심지 내 집 마련이 이제는 근로소득 게임이 아니라 자산운용 게임으로 바뀌었다.


서울 맞벌이 신혼부부, 왜 59㎡ 아파트 자가 마련이 점점 어려워졌을까


서울에서 맞벌이 신혼부부가 59㎡ 아파트를 산다는 것은 이제 단순히 “열심히 저축하면 되는 일”이 아니다.

문제는 집값만 높은 것이 아니다. 전세는 줄고, 월세는 늘고, 종잣돈이 쌓이는 속도보다 집값이 더 빨리 움직인다는 점이 더 크다.

그래서 지금 서울에서 내 집 마련은 이렇게 바뀌었다.

저축만으로는 어렵다.
대출만으로도 부족하다.
결국 맞벌이 소득, 종잣돈, 투자수익률이 함께 맞물려야 한다.

이 글은 바로 그 구조를 숫자로 보여주기 위한 정리다.


먼저 결론부터


서울 59㎡ 아파트를 목표로 할 때, 맞벌이 신혼부부가 마주하는 현실은 생각보다 단순하다.

  • 순수 저축만으로는 너무 오래 걸린다

  • 전세로 버티며 종잣돈을 모으는 전략도 예전보다 약해졌다

  • 그래서 일정 수준 이상의 투자수익률 확보가 사실상 필수가 된다


즉 지금 서울 주거시장은, 무주택 맞벌이 신혼부부에게 “안정적 저축”보다 “자산을 굴리는 능력”을 더 강하게 요구하는 시장이 됐다.


1. 서울 59㎡ 아파트, 어느 정도 가격인가


현재 서울 59㎡ 아파트 가격은 대체로 10억~12억원대로 인식하는 것이 맞다.
기존 정리 기준으로 보면 서울 전용 59㎡ 평균 매매가격은 약 10억5006만원, 민간 분양 59㎡ 평균가는 12억원대까지 올라와 있다.

즉 신혼부부가 가장 많이 보는 면적대조차 이미 중형 자산이 아니라 고가 자산이 됐다.


2. 소득, 지출, 저축은 어느 정도인가


이번 분석은 공식 통계와 기존 계산을 바탕으로 만든 현실적 추정 시나리오다.
정확한 “서울 거주 사회초년 맞벌이” 교차표가 바로 공개돼 있지는 않기 때문에, 아래 기준을 사용했다.

핵심 가정

  • 서울 신혼부부 평균소득: 연 9,388만원

  • 사회초년에 가까운 혼인 1년차 평균소득: 연 8,084만원

  • 총소득 대비 저축 가능 비율: 약 24.5%

  • 연간 투자 가능액

    • 기준 시나리오: 약 2,303만원

    • 보수적 시나리오: 약 1,983만원


3. 한눈에 보는 핵심 통계표


표 1. 서울 신혼부부 맞벌이 기준 핵심 수치




이 표가 의미하는 바는 분명하다.

서울 맞벌이 신혼부부라도 실제로 매달 꾸준히 모을 수 있는 돈은 150만~190만원대 수준으로 보는 것이 현실적이라는 뜻이다.

이 정도 저축만으로 6억~8억원 종잣돈을 만들기에는 시간이 너무 오래 걸린다.


4. 20대, 30대, 40대는 얼마나 다른가


연령대별로 보면 집을 사기 어려운 이유가 더 선명해진다.
20대는 소득이 낮고, 30대는 소득은 늘지만 주거비와 결혼 비용이 겹치고, 40대는 소득이 더 높아져도 자녀·교육비 부담이 커진다.

표 2. 연령대별 월소득과 월저축 가능액 추정



표만 보면 40대가 가장 유리해 보인다.

하지만 실제로는 40대에 들어서면 자녀 양육비, 교육비, 생활비가 더 커진다.

따라서 소득이 늘어난다고 해서 체감 난도가 크게 낮아지는 것은 아니다.

결국 서울 59㎡ 매입은 전 연령대에서 쉽지 않지만, 특히 20대와 30대는 초기 종잣돈 부족 문제가 가장 크다.


5. 순수 저축만으로 집을 사려면 얼마나 걸릴까


서울 59㎡ 평균 매매가격을 10억5006만원으로 놓고, 투자수익 없이 순수 저축만 한다고 가정하면 결과는 매우 냉정하다.

표 3. 순수 저축만으로 서울 59㎡ 매입까지 걸리는 기간



이 표는 사실상 한 가지를 말한다.

서울에서 59㎡ 아파트를 현금 저축만으로 사는 모델은 현실성이 거의 없다.
그래서 실제 시장에서는 전세보증금, 기존 자산, 가족 지원, 대출, 투자수익이 함께 들어오게 된다.


6. 그래서 왜 투자수익률이 중요해지는가


여기서부터가 핵심이다.
서울 신혼부부 맞벌이가 사회초년 시점부터 시작해 6억~8억원 종잣돈에 도달하려면, 사실상 저축만이 아니라 투자수익률이 시간 단축의 핵심 변수가 된다.

표 4. 기준 시나리오


가정: 연소득 9,388만원, 연간 투자 가능액 2,303만원



이 표에서 중요한 것은 숫자 자체보다 차이의 크기다.
연 0%와 연 5~7%의 차이는 단순한 수익률 차이가 아니다.
종잣돈 도달 시점을 10년 가까이 줄이는 차이다.


표 5. 보수적 시나리오


가정: 연소득 8,084만원, 연간 투자 가능액 1,983만원



보수적으로 봐도 흐름은 같다.

사회초년 수준 소득이 오래 유지되면 더 오래 걸리지만, 그래도 수익률이 붙는 순간 시간 구조가 달라진다.
즉 지금의 서울 주거시장은 사람들에게 자연스럽게 이런 메시지를 던지고 있다.

가만히 모아서는 늦다.
돈을 굴려야 한다.


7. 현실적으로 가장 참고할 구간은 어디인가


연 0%와 연 15%는 극단값에 가깝다.
실제로 장기 자산형성에서 많이 참고하는 구간은 연 4~7% 정도다.

표 6. 현실적 기대수익률 구간 요약


즉 서울 신혼부부 맞벌이가 초기자산 0원에서 출발해 6억~8억원 종잣돈을 만드는 데 걸리는 현실적인 시간은 대략 이 정도다.

  • 6억원: 약 15~20년

  • 7억원: 약 17~22년

  • 8억원: 약 18~24년


이 정도면 결론은 사실상 정해져 있다.
저축만으로는 시간이 너무 오래 걸린다.
그래서 일정 수준의 투자수익률 확보가 사실상 필수가 된다.


8. 왜 더 힘들어졌는가: 집값만의 문제가 아니다


서울 주거시장의 어려움은 단순히 집값에만 있지 않다.

  • 매매가격은 높아졌다

  • 전세 물량은 줄었다

  • 월세 부담은 커졌다

  • 저축여력은 월세와 생활비에 더 많이 잠식된다


예전에는 전세가 자산 형성의 사다리 역할을 했다.
지금은 그 사다리 자체가 약해졌다.
전세로 버티며 종잣돈을 모으는 전략이 어려워질수록, 맞벌이 신혼부부는 더 이른 시기부터 투자와 자산운용을 고민할 수밖에 없다.


9. 결국 지금 서울에서 내 집 마련이 뜻하는 것


지금 서울에서 59㎡ 아파트를 사겠다는 것은 단순히 월급을 모으겠다는 뜻이 아니다.
사실상 다음 네 가지를 동시에 만족해야 한다는 뜻에 가깝다.

  1. 맞벌이로 소득을 확보해야 한다

  2. 지출을 통제해 저축 여력을 만들어야 한다

  3. 종잣돈을 오래 묶어둘 수 있어야 한다

  4. 그 종잣돈이 물가와 집값을 따라갈 정도의 수익률을 내야 한다


즉 문제는 더 이상 “얼마나 아끼느냐”만이 아니다.
얼마나 잘 굴리느냐가 함께 중요해졌다.



정리


서울 맞벌이 신혼부부의 59㎡ 아파트 자가 마련이 어려운 이유는 명확하다.
집값이 높아서만이 아니다. 전세 축소, 월세 증가, 저축 속도 둔화, 자산가격 상승이 동시에 겹친 결과다.

그래서 지금은 이렇게 정리할 수 있다.

서울에서 내 집 마련은 더 이상 저축의 문제가 아니다.
저축 위에 투자수익률까지 얹어야 겨우 가능성이 생기는 시대다.


#글을마치며


(물론 위 글의 모든 전제는 앞으로 10년간 도심 아파트가격이 오르지 않는다는 비현실적인 전제이다..)


외부 충격으로 내수경기가 흔들릴 때마다 정부가 결국 선택하는 방법은 비슷하다.
가장 빠르고, 가장 손쉬운 방법은 역시 돈을 푸는 것이다.
특히 선거를 앞둔 시기라면 이런 유인은 더 강해질 수밖에 없다.

문제는 여기서 끝나지 않는다.
한 번 풀린 돈은 생각보다 쉽게 회수되지 않는다.
오히려 경기 회복 국면이 오면, 그동안 쌓여 있던 유동성에 통화유통속도까지 붙으면서 신용창출이 더 커질 가능성이 높다.
결국 위기 국면에서 풀린 돈은 사라지는 것이 아니라, 시간을 두고 다시 자산시장으로 흘러 들어간다.


https://www.busan.com/view/busan/view.php?code=2026033010252753660


나는 이번 중동 사태도 결국 비슷한 경로를 밟을 가능성이 높다고 본다.
위기 구간에서는 경기 방어를 위해 유동성이 풀리고, 사태가 진정되는 시점에는 다시 위험선호가 살아날 수 있다.
그 순간 가장 먼저 반응하는 것은 늘 똑같다.
유효수요는 확실한데 공급은 제한된 자산이다.

내 생각에 서울 도심 아파트가 바로 그 대표적인 자산이다.

실제로 최근 흐름을 봐도 그렇다.
M2 증가율은 이미 다시 꽤 높은 수준을 유지하고 있다.
2026년 1월 기준 M2 증가율은 전년동월대비 4.5%, 직전 2025년 12월은 5.4%였다.
나는 이를 바탕으로 2026년 이후에도 M2가 4%대 중후반에서 5%대 초반 정도의 완만한 증가 흐름을 이어갈 가능성이 높다고 본다.

반면 서울 아파트 가격은 다르게 움직일 수 있다.
앞서 시나리오에서도 2026년 이후 상승률을 12%, 9%, 7%, 6%, 5%로 점진적으로 낮춰 잡았지만, 그럼에도 여전히 M2 증가율보다 높은 구간이 이어진다.
이 말은 집값이 무조건 폭등한다는 뜻이 아니다.
다만 유동성은 전체로 퍼져도, 자산가격 상승은 수도권 핵심지에 더 비대칭적으로 집중될 수 있다는 뜻이다.

결국 앞으로의 자산 인플레이션은 모두가 같이 오르는 방식이 아니라,
확실한 유효수요만 존재하는 자산만 더 강하게 오르는 방식에 가까울 가능성이 높다.



여기에 정책까지 엇박자로 들어가면 문제는 더 심각해진다.
고가 다주택자와 임대사업자를 강하게 압박하면 겉으로는 투기 억제처럼 보일 수 있다.
하지만 시장은 늘 그렇게 단순하게 움직이지 않는다.
한쪽을 누르면 다른 쪽이 튄다.
그리고 그 풍선효과는 대개 실수요가 가장 강한 서울 중소형 아파트로 향한다.


https://n.news.naver.com/article/025/0003512623


결국 무슨 일이 벌어지느냐.
서울 핵심지의 중간 가격대 아파트가 더 가파르게 오르고,
정작 서민과 신혼부부가 노려야 할 구간의 진입장벽만 더 높아진다.
투기를 잡겠다는 정책이 오히려 실수요층의 자가 마련을 더 어렵게 만드는 역설로 돌아오는 셈이다.



https://n.news.naver.com/article/016/0002621420



https://n.news.naver.com/article/008/0005336581



https://n.news.naver.com/article/016/0002621050


그래서 나는 지금의 규제 방식이 문제를 해결하기보다, 오히려 악순환을 키울 가능성이 더 크다고 본다.
공급은 충분히 늘지 않는다.
유동성은 완전히 회수되지 않는다.
수요는 가장 안전하고 가장 강한 자산으로 다시 몰린다.
그 결과는 늘 비슷하다.
서울 핵심 주거자산은 더 강해지고, 무주택 실수요자의 진입장벽은 더 높아진다.

결국 중요한 것은 규제가 세냐 약하냐가 아니다.
더 중요한 것은 돈이 어디로 흐를 수밖에 없는 구조인가다.
그리고 지금의 구조를 보면, 나는 여전히 서울 도심의 공급 제한 자산이 가장 강한 자금 흡수처가 될 가능성이 높다고 본다.

규제로 때려잡으면 해결될 것이라고 말하지만, 현실은 늘 그 반대였다.
안 될 거라고 했잖아요.



Moon again...
이번 정권과 과거 문 정권의 부동산 정책실세(?)는 동일인인가 싶을정도임.

예전에는 자가 마련할 종잣돈을 충분히 모아놓고도 “지금은 너무 올라서 못 사겠다”, “조금만 더 기다려보겠다”라고 말하는 주변 지인들을 보면 답답한 마음에 지금이라도 부동산을 사야 한다고 굳이 설득해보려 한 적도 있었다.

하지만 이제는 그마저도 그냥 그려려니 한다..


한강 이북의 시대가 오는건가..?


이 총재 배우자 명의의 서울 강남구 역삼동 역삼래미안 아파트(59.53㎡)는 매도, 용산구 이촌동 아파트(83.11㎡)를 매수했으며 새 아파트 평가액은 19억5000


출처 : 이비엔(EBN)뉴스센터(https://www.ebn.co.kr)



=끝