2026년 4월 15일 수요일

생각정리 227 (* DRAM, 메모리수요)


이전글들에서 추가적으로 얻은 아이디어를 반영해 전방 DRAM 수요전망에 대한 리서치를 다시 업데이트 해본다.


AI 데이터센터가 바꾸는 DRAM 수요 지형


2030년 DRAM 시장은 얼마나 커지며, 누가 그 수요를 가져가는가


들어가며


DRAM 시장을 이야기할 때 가장 먼저 떠오르는 것은 스마트폰, PC, 서버 출하다.
AI 이전까지만해도 이 틀만으로도 업황의 큰 흐름을 설명하는 데 큰 무리가 없었다.

하지만 이제는 상황이 달라지고 있다.
AI 데이터센터가 본격적으로 확산되면서, DRAM 수요의 중심축이 빠르게 이동하고 있기 때문이다.

이번 변화의 핵심은 단순히 수요가 늘어난다는 데만 있지 않다.
어떤 시스템이, 어떤 구조로, 얼마나 많은 메모리를 흡수하느냐가 완전히 달라지고 있다는 점이 더 중요하다.

특히 AI 인프라는 더 이상 HBM만으로 설명되지 않는다.
GPU에 붙는 HBM뿐 아니라, CPU-attached DRAM, SoCAMM, LPDDR 계열까지 함께 커지고 있다. 여기에 차세대 고밀도 랙인 Vera Rubin NVL72, 그리고 Kyber NVL576까지 등장하면서 2030년 DRAM 시장의 상단은 기존 인식보다 더 높아질 가능성이 커졌다.

결론부터 말하면, 2025년 전체 DRAM 수요를 1로 둘 때
2030년 총수요는 보수적으로 2.24배, 베이스케이스로 2.52배, 공격적으로는 2.96배까지 확대될 가능성이 있다.

그리고 이 증가분의 대부분은
AI 데이터센터가 설명한다.





1. 왜 지금 DRAM 시장을 다시 봐야 하는가


표면적으로 보면 DRAM 시장은 여전히 여러 최종수요처로 분산돼 있다.
스마트폰도 있고, PC도 있고, 자동차와 산업기기 수요도 있다.

하지만 성장률을 들여다보면 이야기는 달라진다.
레거시 수요는 완만하게 성장하는 반면, AI 데이터센터는 훨씬 가파른 성장 구간에 들어서고 있다.

이 차이는 단순한 숫자 차원에 머물지 않는다.
과거에는 스마트폰과 PC가 시장의 중심이었고, 서버가 이를 보완하는 구조였다면 앞으로는 AI 데이터센터가 전체 증가분을 사실상 주도할 가능성이 높다는 뜻이기 때문이다.

따라서 2030년 DRAM 시장은
스마트폰과 PC가 완만하게 성장한 결과로 이해할 시장이 아니다.

오히려 AI 인프라가
메모리 수요의 방향, 생산능력 배분, 공급 병목의 위치까지 바꿔놓는 시장에 가깝다.



2. 이번 추정에서 중요한 전제는 무엇인가


2030년 DRAM 시장을 보려면 전체 수요를 하나의 숫자로 뭉뚱그려서는 안 된다.
스마트폰 메모리와 AI 랙 메모리를 같은 성장률로 설명하면 결과는 단순해질 수 있어도, 실제 구조는 보이지 않게 된다.

그래서 전체 DRAM 수요를 네 개로 나눠서 보는 접근이 더 적절하다.

Legacy DRAM
AI HBM
AI CPU-attached DRAM
AI SoCAMM / LPDDR

즉 전체 시장은 아래처럼 분해해서 보는 편이 맞다.

Total DRAM = Legacy DRAM + AI HBM + AI CPU-attached DRAM + AI SoCAMM / LPDDR

이 구조를 쓰면 장점이 분명해진다.

레거시 수요가 얼마나 시장의 바닥을 받치고 있는지, AI 인프라가 얼마나 새로운 수요를 만들어내는지, 그리고 그 AI 수요가 HBM에 머무는지 아니면 호스트 메모리까지 확장되는지를 한눈에 볼 수 있게 된다.





3. Legacy DRAM은 사라지지 않는다


다만 시장을 끌고 가는 축은 바뀌고 있다


먼저 레거시 DRAM부터 보자.
스마트폰, 노트북, 데스크톱, 일반 소비자기기, 산업용 장비, 자동차는 여전히 DRAM 시장의 바닥을 형성하는 핵심 수요처다.

이 수요는 앞으로도 유지될 가능성이 높다.
다만 성장의 기울기는 크지 않다.

레거시 수요는 2030년까지 완만하게 증가하겠지만, 시장 전체의 판을 다시 짜는 주도 변수로 보기는 어렵다.
즉 레거시 DRAM은 업황의 하방을 지지하지만, 시장의 상단을 여는 주인공이라고 보기는 어렵다.

이번 모델에서도 이 가정은 그대로 반영했다.
Legacy DRAM은 2025년 0.93에서 2030년 1.16 수준까지 올라간다.

ASML Lecagy DRAM 수요성장 전망치


5년 동안 분명히 증가하지만,
전체 시장을 2배 이상 키우는 동력과는 거리가 있다.



4. 이제 AI 메모리는 HBM만으로 설명되지 않는다


AI 인프라 수요를 이야기할 때 가장 먼저 떠오르는 메모리는 HBM이다.
실제로 HBM은 현재 AI 서버 확장의 가장 상징적인 메모리이기도 하다.

그래서 이번 추정에서도 HBM은 앵커 역할을 한다.
2025~2030년 HBM 경로를 먼저 잡고, 그 위에 CPU-attached DRAM과 SoCAMM, LPDDR를 더하는 방식으로 전체 AI 데이터센터 메모리 수요를 확장해 나간다.

https://uiyeonassociation.blogspot.com/2026/03/214-hbm-bottleneck-era.html


그런데 여기서 중요한 포인트가 있다.
이제 AI 랙 메모리는 HBM만 보면 실제 수요를 과소평가할 가능성이 높다는 점이다.

차세대 AI 랙 구조를 보면 이 점이 분명해진다.
GB200 NVL72는 약 30.4TB 수준의 랙 메모리 구조를 가지며, GB300 NVL72는 약 37TB 수준으로 올라간다. Vera Rubin NVL72는 여기서 더 나아가 약 75TB의 fast memory를 제시한다.

이 숫자가 뜻하는 바는 단순하다.
AI 랙에서 중요한 것은 더 이상 HBM 하나만이 아니다.

GPU 옆의 HBM, CPU-attached DRAM, 그리고 SoCAMM과 LPDDR까지 함께 봐야 실제 메모리 수요가 보인다.
앞으로의 메모리 병목 역시 HBM 하나로 끝나지 않을 가능성이 높다.





5. 이번에는 Kyber NVL576를 별도 변수로 넣어야 한다


2030년 DRAM 상단을 다시 보게 만드는 가장 중요한 변수는
Kyber NVL576다.

그동안 AI 메모리 수요는 주로 NVL72 계열 중심으로 해석해도 큰 무리가 없었다.
하지만 2030년 상단을 볼 때는 초고밀도 랙이 실제로 얼마나 많은 DRAM을 흡수할지를 따로 봐야 한다.

Kyber NVL576는 단순히 GPU 수가 많은 시스템이 아니다.
핵심은 랙당 메모리 밀도다.

Kyber는 랙당 약 365TB 수준의 fast memory를 전제로 한다.
이는 Vera Rubin NVL72의 약 75TB와 비교해도 매우 큰 숫자다.

즉 출하 랙 수가 많지 않더라도
Kyber는 bit demand 기준으로 상당한 영향력을 가질 수 있다.

이 점이 중요하다.
과거에는 서버 수량 증가가 수요 증가의 핵심이었다면, 앞으로는 랙 한 대당 메모리 집적도가 얼마나 높아지느냐가 전체 DRAM 상단을 더 크게 바꿀 수 있기 때문이다.

결국 Kyber는 단순한 차세대 제품이 아니라,
2030년 DRAM 수요의 상단을 다시 열어주는 구조적 변수로 보는 편이 맞다.




6. 연도별 AI 랙 판매량 가정은 어떻게 잡았는가


이번 모델은 NVIDIA의 공식 판매 가이던스를 그대로 적용한 것이 아니다.
공개된 출시 시점과 랙 구조, 전력 밀도, AI 인프라 확산 속도를 반영해 연도별 가정을 별도로 설정했다.

베이스케이스에서 Vera Rubin NVL72는

2026년 2,000랙,
2027년 8,000랙,
2028년 15,000랙,
2029년 18,000랙,
2030년 20,000랙으로 가정했다.

Kyber NVL576는

2027년 300랙,
2028년 1,200랙,
2029년 2,500랙,
2030년 4,000랙을 가정했다.

공격적 시나리오에서는 Rubin NVL72를

2026년 3,000랙,
2027년 10,000랙,
2028년 18,000랙,
2029년 22,000랙,
2030년 25,000랙으로 잡았다.

Kyber NVL576는

2027년 500랙,
2028년 2,000랙,
2029년 4,000랙,
2030년 6,000랙으로 잡았다.

물론 이 숫자는 공격적인 가정이다.
그럼에도 완전히 비현실적인 숫자로 단정하기는 어렵다.

AI 데이터센터 투자가 이미 서버 단위를 넘어
팩토리 단위, 랙 단위, 전력 인프라 단위로 이동하고 있기 때문이다.

다만 Kyber는 상단을 열어주는 동시에 제약도 크다.
600kW급 전력, 냉각, 부지, 인프라 승인이 함께 따라와야 하므로 출하량을 무한정 낙관적으로 잡기는 어렵다.

즉 Kyber는 강한 상방 변수이면서도
매우 현실적인 병목을 동시에 내포한 변수라고 볼 수 있다.





7. 2030년 DRAM 총수요는 어디까지 열려 있는가


이제 위의 구조를 실제 숫자로 연결해보면
2030년 DRAM 총수요는 아래와 같이 정리할 수 있다.

보수적 시나리오: 2.24배

  • Legacy DRAM: 1.14

  • AI HBM: 0.46

  • AI CPU-attached DRAM: 0.28

  • AI SoCAMM / LPDDR: 0.36

베이스케이스: 2.52배

  • Legacy DRAM: 1.16

  • AI HBM: 0.56

  • AI CPU-attached DRAM: 0.34

  • AI SoCAMM / LPDDR: 0.46

공격적 시나리오: 2.96배

  • Legacy DRAM: 1.18

  • AI HBM: 0.70

  • AI CPU-attached DRAM: 0.46

  • AI SoCAMM / LPDDR: 0.62


이 숫자를 해석하면 더 분명해진다.
베이스케이스 기준으로 레거시 DRAM은 1.16 수준에 그친다.

반면 AI 데이터센터 관련 메모리 세 항목을 합치면
총수요에 1.36포인트를 더한다.

결국 2030년 DRAM 시장이 2.52배가 되는 거의 전부를
AI 인프라가 설명한다고 봐도 큰 무리가 없다.

비중으로 바꿔보면 더 직관적이다.
2030년 베이스케이스 기준으로 Legacy는 약 46%다.

반대로 AI HBM, AI CPU-attached DRAM, AI SoCAMM / LPDDR를 합친 비중은
약 54% 수준까지 올라간다.

즉 2030년 DRAM 시장은
이미 레거시 수요 중심 시장이라기보다 AI 데이터센터가 절반 이상을 설명하는 구조에 더 가깝다.






8. 왜 2.52배와 2.96배가 과장이라고 보기 어려운가


2.52배나 2.96배라는 숫자만 보면
다소 공격적으로 들릴 수 있다.

하지만 차세대 랙 구조를 들여다보면
오히려 그 반대에 가깝다.

핵심은 AI 메모리 수요가 HBM만으로 늘어나는 것이 아니라는 점이다.
HBM과 함께 CPU-attached DRAM, LPDDR, SoCAMM이 동시에 커지고 있다.

즉 AI 인프라가 확산될수록
메모리 수요는 단순히 넓어지는 것이 아니라, 수직적으로 더 두꺼워진다.

여기에 Kyber 같은 초고밀도 랙이 일부라도 의미 있게 침투하기 시작하면
상단은 기존 시장 기대보다 더 높아질 수 있다.

오히려 시장이 과소평가하고 있을 가능성이 더 큰 부분은
HBM 외 host memory 계층이다.

많은 경우 시장은 여전히 AI 메모리 수요를
HBM 중심으로만 바라본다.

하지만 실제 랙 구조는
그보다 훨씬 두꺼운 메모리 레이어를 요구한다.

그렇기 때문에 2030년 총수요 2.52배는 과장된 낙관이라기보다 보수적 중심값에 가깝고,
2.96배 역시 충분히 열려 있는 상단 시나리오로 해석하는 편이 더 자연스럽다.


9. 앞으로 DRAM 시장에서 진짜 봐야 할 지표는 달라진다


이제부터 DRAM 업황을 볼 때
예전처럼 스마트폰 출하와 PC 출하만 먼저 보는 방식은 설명력이 점점 약해질 수 있다.

대신 더 먼저 봐야 할 것은
AI 랙 배치 속도, HBM 채택 확대, CPU-attached memory 증가, SoCAMM 용량 고도화, hyperscaler의 인프라 투자, 그리고 실제 전력 인프라 증설 속도다.

특히 Kyber 같은 시스템이 의미 있게 확산되기 시작하면
질문 자체가 달라진다.

이제는 “GPU가 몇 개 팔리느냐”보다
“고밀도 랙이 몇 개 실제로 깔리느냐”가 더 중요해질 수 있다.

실제로 AI 데이터센터의 병목은
더 이상 반도체 하나만의 문제가 아니다.

전력, 냉각, 건설, 네트워크, 패키징, 메모리 공급이 동시에 맞물려야 한다.
결국 앞으로의 DRAM 시장은 단순한 반도체 사이클이 아니라, 인프라 사이클과 결합된 메모리 사이클로 보는 편이 더 적절하다.


맺음말


정리하면, 2030년 DRAM 시장에서 핵심은
단순히 얼마나 커지느냐에만 있지 않다.

더 중요한 질문은
늘어나는 수요를 누가 가져가느냐에 있다.

2025년까지 시장의 바닥은
스마트폰과 PC가 만들어왔다.

하지만 2030년으로 갈수록
시장의 방향은 AI 인프라가 결정할 가능성이 훨씬 높다.

특히 HBM, CPU-attached DRAM, SoCAMM / LPDDR, 그리고 이를 한꺼번에 키우는 초고밀도 랙 구조가 수요의 중심으로 올라설 가능성이 크다.

이 관점에서 보면
2030년 DRAM 총수요 2.52배는 충분히 방어 가능한 숫자다.

그리고 AI 인프라가 서버를 넘어
랙 단위, 팩토리 단위로 더 빠르게 확산된다면 2.96배 시나리오 역시 과도하다고만 보기는 어렵다.

결국 앞으로의 DRAM 시장은
더 이상 스마트폰과 PC의 시장으로 보기 어렵다.

이제는 AI 데이터센터가 시장의 절반 이상을 결정하는 구조
빠르게 이동하고 있다.

문제는 결국 공급이다.

향후 수년 안에 DRAM 생산물량이 큰 폭으로 늘어나지 못한다면, 수급 불균형은 시장이 예상하는 것보다 훨씬 길게 이어질 가능성이 높다.

하지만 이는 현실적으로 결코 만만한 과제가 아니다.

선단공정은 이미 물리적 한계에 가까워지고 있고, 과거처럼 미세화만으로 생산성과 원가를 자연스럽게 개선하던 무어의 법칙의 시대는 사실상 끝나가고 있다.

다시 말해, 업계가 오랫동안 누려온 이른바 ‘공짜 점심’은 이미 사라진 지 오래다.

여기에 첨단 공정 전환 부담, HBM 비중 확대와 적층 단수 증가에 따른 wafer loss, 막대한 CAPEX 부담, 장비 리드타임 장기화까지 겹쳐 있다.

이런 조건을 감안하면, 시장이 필요로 하는 수준의 공급 확대는 단순히 어려운 정도가 아니라 물리적으로 실현 가능성이 매우 낮은 요구치에 가깝다.

따라서 2030년 DRAM 시장의 본질은 단순한 수요 성장에 있지 않다.
진짜 핵심은 늘어나는 수요를 공급이 끝까지 따라가지 못하는 구조적 타이트함에 있다.

이를 더 직설적으로 말하면, 앞으로 4년 안에 DRAM 생산량이 지금 대비 3배 수준으로 확대되지 못할 경우, 현재의 공급 제약은 일시적 현상에 그치지 않을 가능성이 높다.

결국 이는 시장이 지금 생각하는 것보다 DRAM 가격 사이클이 더 길고, 더 강하며, 더 질기게 이어질 수 있음을 시사한다.

=끝


https://biz.chosun.com/en/en-it/2025/10/30/2OH2VCUGUBFUXPQFMLW6RY6B4Q/


그나저나, 작년 깐부회동으로 SEC DRAM LTA 물량을 선점해버린 젠슨황의 러브샷의 가치는 최근일자로 얼마가 됐을지 갑자기 궁금해진다.


2026년 4월 14일 화요일

생각정리 226 (* China AI, AI Infrastructure Monetization)


#AI Infrastructure Monetization


최근 빅테크의 FCF 부족 AI CAPEX 확대의 제약 요인이 될 수 있다는 우려가 있으나, 이는 실제보다 과장된 해석에 가깝다고 본다.

AI 서비스의 과금체계가 본격적으로 자리 잡으면서, 높은 CAPEX 부담을 소비자 가격에 전가할 수 있는 여건이 점차 마련되고 있기 때문이다.


#AI Cloud 업황


AI는 이제 소프트웨어의 시대를 넘어, 인프라 가격의 시대로 들어가고 있다

AI 산업의 핵심은 더 이상 모델 성능 경쟁만이 아니다.
이제 병목은 GPU, 메모리, 전력, 네트워크, 자본조달 능력으로 이동하고 있다. (Claude Help Center)

미국에서는 이 변화가 과금 체계부터 드러나고 있다.
Anthropic은 Enterprise 요금을 좌석비와 사용량 과금으로 분리했고, Claude·Claude Code·Cowork의 사용량을 모두 실제 토큰 소비 기준으로 청구하고 있다. (Claude Help Center)

이 구조는 기업용 AI가 더 이상 전형적인 정액제 SaaS가 아니라는 뜻이다.
고빈도 사용자는 더 많은 비용을 내고, 연산 자원을 많이 쓰는 업무일수록 가격이 직접 반영되는 인프라형 서비스로 이동하고 있다는 의미다. (Claude Help Center)

중국도 같은 국면에 들어섰다.
텐센트클라우드는 AI 연산, TKE, EMR 관련 서비스 가격을 약 5% 올렸고, 알리클라우드는 AI 연산과 스토리지 가격을 최대 34% 인상했다. 바이두도 일부 서비스 가격 조정을 진행했다. (TrendForce)



중요한 점은 중국 주요 클라우드 업체들이

공통적으로 AI 수요 급증과 인프라 비용 상승
가격 조정의 배경으로 내세우기 시작했다는 점이다.

이는 중국 AI 업계에서 연산 자원 부족이
더 이상 개별 기업의 문제가 아니라,
산업 전반의 가격 체계를 흔드는 변수로 올라왔음을 뜻한다.
(TrendForce, Light Reading) (TrendForce)

이번 흐름에서 더 눈에 띄는 부분은
이른바 메모리 쇼크다.

중국 AI 클라우드 업체들은 HBM 제약을 우회하기 위해 범용 D램과 더 많은 서버를 투입해왔는데, 최근 메모리 숏티지로 메모리 가격이 가파르게 올라가 버리는 바램에 오히려 전체 인프라 원가가 더 올라가는 구조가 형성되었다.

문제는 앞으로 이 메모리 병목은 앞으로 더 구조적으로 심화될 가능성이 크다.
NVIDIA는 Vera CPU에
최대 1.5TB LPDDR5X 메모리 서브시스템을 붙였고,
Micron은 풀랙 AI 시스템에서
CPU 부착 저전력 DRAM이 50TB를 넘을 수 있다고 밝혔다.
이제 메모리 부족은 HBM만의 문제가 아니라,
LPDDR 계열까지 번지는 국면으로 들어가고 있다.
(NVIDIA, Micron) (NVIDIA Developer)

여기서 루빈향 SoCAMM 수요까지 다시 보면,
앞으로 벌어질 LPDDR 계열 전반적인 DRAM 수급 불균형이 좀 더 직관적으로 와닿는다.

먼저 Vera Rubin NVL72를 보자.
현재 공개된 sell-side 추정에서
Wolfe는 2027년 Rubin rack 5.5만대를 가정하고 있다.
이 수치에 랙당 SoCAMM 수요 50TB를 적용하면,
총수요는 약 275만TB, 즉 2.75EB가 된다.
이는 **2025년 전체 DRAM 연간 수요의 약 36%**다.
(Wolfe/Investing.com, Yole Group) (Investing.com)

다음은 Rubin Ultra NVL576다.
같은 자료에서 Wolfe는
2027년 Rubin Ultra rack 1.5만대를 전망한다.
여기에 랙당 SoCAMM 수요 220TB를 적용하면,
총수요는 약 330만TB, 즉 3.3EB가 된다.
이는 **2025년 전체 DRAM 연간 수요의 약 43%**에 해당한다.
(Wolfe/Investing.com, Yole Group) (Investing.com)

루빈 NVL72와 NVL576 두 모델만 합쳐도
SoCAMM 수요는 약 6.05EB에 이른다.
이는 2025년 전체 DRAM 연간 수요의 약 80%에 이른다.

게다가 이 계산은 NVIDIA 루빈 계열만 반영한 값이다.
다른 AI 서버 업체와 클라우드 사업자 수요까지 더해지면,
LPDDR 계열 메모리의 구조적 타이트닝은
더 강해질 가능성이 크다는 해석이 가능하다.
(Wolfe/Investing.com, Yole Group, NVIDIA 관련 보도) (Investing.com)

그래서 지금의 가격 상승을
일시적 조정으로 보기는 어렵다.
AI 데이터센터의 원가는 이제 GPU만이 아니라,
메모리, 전력, 냉각, 네트워크, 서버 대수
함께 밀어 올리는 구조로 바뀌고 있다.

미국 그리고 중국 클라우드의 가격 인상은
그 부담이 이미 서비스 가격으로
전가되기 시작했음을 보여준다.
(TrendForce, TrendForce 메모리) (TrendForce)

이런 상황에서는
데이터센터 사업의 본질도 달라진다.
중국 데이터센터 사업자 Vnet은 증설을 위해 달러채 발행을 검토했고,
GDS는 데이터센터 자산을
중국 업계 첫 P-REIT 구조로 유동화했다.
과거의 단순 서버 임대업이
수요가 늘수록 외부 자본을 계속 끌어와야 하는
초대형 자본집약 산업으로 바뀌고 있다는 뜻이다.
(Bloomberg, GDS 공시) (블룸버그)

여기에 더 큰 변화가 하나 겹치고 있다.
Bloomberg는 Lumen CEO 발언을 인용해
인터넷 트래픽의 절반 이상이
이미 AI bots라고 전했다.
Anthropic의 Claude Code 문서도
토큰 사용량, 비용, 도구 활동을
조직 차원에서 추적하는 방식을 안내한다.
즉 일부 지식노동은 이미
사람의 시간에서 agent 호출과 토큰 소비
측정 단위가 바뀌기 시작한 셈이다.
(Bloomberg, Claude Code Docs) (블룸버그)

결국 앞으로의 AI 산업은
모델 성능만으로 설명되지 않는다.
연산 자원 부족이 과금 체계를 바꾸고,
과금 체계 변화가 다시 데이터센터 투자와
산업 집중을 강화하는 순환을 만든다.
지금 중국 클라우드와 AI 데이터센터에서 보이는 변화는,
그 순환이 이미 시작됐음을 보여주는 장면에 가깝다.
(TrendForce, Wolfe/Investing.com, Bloomberg) (TrendForce)


#China AI 요약


생각난김에 최근 바뻐서 제대로 tracking 하지 못했던 중국 AI 대표 상장사 차례로 업데이트 해본다.

아주 단순하게 보면, 중국 내 대표 AI 7개 회사는 세 부류로 나뉜다.

첫째, AI를 “파는” 회사가 있다. 알리바바, 바이두, 킹소프트클라우드가 여기에 가깝다.
둘째, AI를 “써서” 기존 사업을 더 잘하게 만드는 회사가 있다. 텐센트, JD, 메이퇀이 대표적이다.
셋째, AI 서비스도 팔고 본업도 같이 좋아지는 회사가 있는데, 콰이쇼우가 가장 여기에 가깝다. (Alibaba Group)

그래서 이 7개를 한꺼번에 보면,

알리바바·바이두·킹소프트클라우드 “중국 AI 인프라 확대”에 베팅하는 종목이고,
텐센트·JD·메이퇀 “AI가 기존 플랫폼을 얼마나 더 강하게 만들까”를 보는 종목이며,
콰이쇼우 “AI 서비스 자체가 돈이 되기 시작한 사례”로 보면 된다. 


#기업별 현황


1) Alibaba

가장 쉽게 말하면, 중국에서 AI 인프라를 가장 크게 깔고 있는 회사다. 클라우드 사업이 다시 빨라지고 있고, Qwen이라는 자체 AI 모델도 키우고 있으며, Qwen 앱 같은 소비자 서비스까지 붙이고 있다. 회사는 최근 클라우드 성장 가속, Qwen 앱 사용자 확대, 그리고 향후 3년간 대규모 AI·클라우드 투자 계획을 함께 제시했다. (Alibaba Group)

이 회사를 사는 논리는 간단하다. 중국에서 AI를 쓰는 기업이 늘수록, 결국 알리바바 클라우드와 모델 수요가 같이 커질 가능성이 높기 때문이다. 한마디로 **“AI 시대의 고속도로와 톨게이트를 같이 가진 회사”**에 가깝다. 다만 투자 부담이 큰 만큼, 단기에는 비용이 먼저 보이고 이익 개선은 나중에 따라올 수 있다. (Alibaba Group)





2) Baidu

바이두는 AI로 실제 돈을 얼마나 벌고 있는지가 가장 잘 보이는 회사다. 회사는 2025년 실적에서 AI 관련 사업 매출을 따로 보여줬고, AI 클라우드 인프라, AI 앱, AI 광고 매출이 모두 성장했다고 설명했다. 또 ERNIE Assistant의 월간 이용자 수와 AI 관련 사업 비중도 공개했다. (Baidu Inc)

쉽게 말하면, 바이두는 **“검색 회사가 AI 솔루션 회사로 변신하는 중”**이다. 알리바바보다 몸집은 작지만, AI가 실적에 얼마나 기여하는지 확인하기는 더 쉽다. 그래서 투자자 입장에서는 “AI 스토리”보다 AI 숫자를 보기 좋은 종목이다. 반면 기존 검색 사업의 둔화가 완전히 사라진 것은 아니라는 점은 같이 봐야 한다. (Baidu Inc)




3) Tencent

텐센트는 AI를 직접 파는 회사라기보다, AI를 가장 잘 활용하는 회사에 가깝다. 회사는 최근 실적에서 AI가 광고 타팅을 개선했고, 게임 이용자 참여를 높였으며, 클라우드 매출 성장과 수익성 개선에도 도움이 됐다고 밝혔다. 동시에 AI 인재 채용과 인프라 투자도 계속 늘리고 있다. (텐센트)

이 회사를 쉽게 표현하면 **“AI 덕분에 기존 장사가 더 잘 되는 회사”**다. 위챗, 광고, 게임, 클라우드가 이미 크기 때문에, AI가 붙으면 바로 실적 개선으로 번역될 가능성이 높다. 그래서 텐센트의 장점은 안정감이다. 다만 순수 AI 종목처럼 멀티플이 크게 열리는 스타일은 아닐 수 있다. (텐센트)




4) JD.com

JD는 AI를 전면에 내세우기보다, 유통과 물류를 더 똑똑하게 만드는 데 쓰는 회사다. 회사는 최근에도 “Super Supply Chain”을 강조했고, JD 앱과 고객경험 개선, AI 기반 고객서비스, 공급망용 산업 AI 모델 등을 계속 확대하고 있다. 공식 자료와 회사 블로그를 종합하면, JD의 AI는 모델 판매보다 리테일 운영 효율 개선에 더 가깝다. (JD Corporate Blog)

그래서 JD를 사는 논리는 **“AI가 비용을 줄이고 마진을 올려줄 것”**에 있다. 알리바바처럼 AI 클라우드 매출이 폭발하는 그림은 아니지만, 재고·배송·고객응대·판매전환율이 좋아지면 이익의 질이 좋아질 수 있다. 대신 이런 변화는 천천히 보이기 때문에, 주가 재평가도 상대적으로 느릴 수 있다. (JD Corporate Blog)





5) Meituan


메이퇀은 7개 중에서 AI를 현실 세계와 가장 직접 연결하려는 회사다. 회사는 2025년 연구개발비를 전년 대비 23% 늘린 260억 위안으로 제시했고, 자사 LongCat 계열 모델을 바탕으로 사용자용 AI 도우미와 상인용 AI 도구를 확대하고 있다. 춘절 기간에는 ‘小团’ 사용이 1억 회를 넘었고, 340만 개 이상 상인이 AI 운영 도구를 사용 중이라고 밝혔다. 최근에는 LongCat-Next도 공개했다. (메이투안)

쉽게 말하면 메이퇀은 “AI가 사람 대신 동네 맛집을 찾고, 주문하고, 배달까지 연결해주는 세상”에 베팅하는 회사다. 지금 당장 AI 자체 매출이 크게 보이는 종목은 아니지만, 장기적으로는 로컬서비스 AI 에이전트가 될 가능성이 크다. 즉, 현재는 수익화보다 미래 옵션 가치가 더 중요한 종목이다. (메이투안)




6) Kuaishou

콰이쇼우는 7개 중에서 AI 서비스가 실제 매출로 가장 빨리 보이는 회사다. 회사는 2025년 실적에서 영상 생성 모델 Kling AI의 상용화가 빠르게 진행됐다고 밝혔고, 4분기 관련 매출과 높은 연환산 런레이트를 공개했다. 또 Kling O1 같은 신규 모델도 내놨다. (PR Newswire)

이 회사를 쉽게 보면 “AI 영상 제작 툴을 파는 회사이면서, 동시에 숏폼 플랫폼도 가진 회사”다. 그래서 수익원이 두 개다. 하나는 Kling AI 자체 매출, 다른 하나는 AI가 광고와 콘텐츠 효율을 끌어올리는 효과다. 7개 중에서 가장 눈에 잘 보이는 AI 서비스 성장주라고 보면 된다. 다만 이런 회사는 유행과 경쟁 영향을 많이 받아 변동성도 크다. (PR Newswire)





7) Kingsoft Cloud


킹소프트클라우드는 가장 쉽게 말하면 중국 AI 붐의 중소형 클라우드 수혜주다. 회사는 최근 4분기와 연간 실적에서 AI 관련 총청구액이 전년 대비 95% 늘었다고 밝혔고, 퍼블릭 클라우드 매출도 큰 폭으로 성장했다고 설명했다. 즉, AI 수요가 늘수록 가장 직접적으로 숫자가 움직이는 구조다. (Kingsoft Cloud Holdings Limited)

투자 포인트도 단순하다. 중국 기업들의 AI 학습·추론 수요가 늘면 킹소프트클라우드가 바로 수혜를 받을 수 있다. 대신 이런 회사는 서버, 네트워크, IDC 비용이 함께 늘기 때문에 실적 변동성이 크다. 그래서 포트폴리오에서는 핵심 보유 종목보다는 공격형 성장 슬롯에 더 가깝다. (Kingsoft Cloud Holdings Limited)





#정리


정말 쉽게 한 줄씩만 다시 줄이면 이렇다.

Alibaba는 중국 AI 인프라의 중심축이다.
Baidu는 AI 매출이 가장 잘 보이는 회사다.
Tencent는 AI를 가장 실적으로 잘 연결하는 회사다.
JD는 AI로 유통과 물류를 더 효율적으로 만드는 회사다.
Meituan은 AI가 현실 세계 서비스로 연결되는 미래에 베팅하는 회사다.
Kuaishou는 AI 영상 서비스가 실제로 돈이 되는 모습을 보여주는 회사다.
Kingsoft Cloud는 중국 AI 클라우드 수요 증가에 가장 직접적으로 반응하는 회사다. (Alibaba Group)

투자 관점에서도 어렵게 볼 필요는 없다.
가장 기본축으로 들고 갈 회사는 알리바바와 텐센트다.
AI 성장성을 더 강하게 보고 싶으면 바이두와 콰이쇼우가 좋다.
장기 옵션을 보고 싶으면 메이퇀이 의미가 있고,
공격적으로 클라우드 AI 수요를 타고 싶으면 킹소프트클라우드를 보는 구조다.
JD는 그 사이에서 안정적인 효율 개선형 종목으로 이해하면 가장 쉽다. (Alibaba Group)



#글을 마치며, 


중국 AI 투자 기업들의 밸류에이션은 전반적으로 저렴하다.

그러나 성장률은 기대에 못 미치고, 개별 기업의 차별화 포인트도 뚜렷하지 않아 전반적으로 고만고만한 구도로 보인다.

이는 중국이 체제 안정을 우선시하면서 급속한 성장보다는 관리 가능한 성장을 지향해온 흐름과 맞닿아 있다.

그런 점에서 이는 이전 글에서 언급한 사회주의 자본노선이 기업 생태계 전반에 투영된 현상으로 이해할 수 있지 않나 싶다.

현재로서는 중국 공산당 체제에 수반되는 시스템 리스크를 감수하면서까지 적극적으로 투자할 만큼 높은 기대수익을 제시하는 AI 중국 기업은 많지 않아 보인다.


=끝

2026년 4월 13일 월요일

생각정리 225 (* Oil refining industry)


개인적인 주식 운용과 리서치 커리어의 출발점은 시클리컬 산업이었다.
에너지, 소재, 비철금속, 철강, 산업재까지, 시클리컬의 범위는 생각보다 넓고 복합적이다.

이 넓은 산업을 적시에 따라가고 비교적 정확하게 전망하려다 보니, 시야도 자연스럽게 개별 기업을 넘어 상대적으로 이른시에 정치, 경제, 지정학으로 확장되었다.

시클리컬을 오래 보다 보면 산업의 변화는 숫자만으로 설명되지 않고,
그 배경에 있는 구조 변화까지 함께 읽어야 한다는 점을 자주 체감하게 된다.

그 과정에서 가장 자주 확인한 원칙은 하나이다.
바로 변화에 베팅해야 한다는 점이다.

시장은 변화가 있어야 움직인다.
좋은 변화든 나쁜 변화든, 변화가 발생해야 관심이 몰리고 실적 전망이 수정되며 주가도 새로운 방향을 찾는다.

반대로 변화가 없는 산업은 시클리컬 관점에서 매력이 크게 떨어진다.
업황의 진폭이 작고, 기대의 변화도 제한적이기 때문이다.

이번 미국-이란 전쟁은 그런 의미에서 에너지 산업,
그중에서도 정유 산업에 구조적인 변화를 만들어낼 가능성이 큰 사건이다.

이번 글에서는 그 변화가 정유 산업의 수급과 마진,
그리고 기업별 수혜 구조를 어떻게 바꿔놓을지를 중심으로 정리해보려 한다.

 


호르무즈 리스크 국면에서 왜 HD현대오일뱅크가 직접 수혜인가


유가보다 더 중요한 것은 디젤·항공유·휘발유 마진이다


1. 이번 시장은 단순한 유가 상승 국면이 아니다


이번 국면을 단순히 “중동 전쟁으로 유가가 오른 상황”으로 보면 핵심을 놓치게 된다.
실제로는 원유를 어디서 가져오느냐, 정제제품을 어디로 얼마나 멀리 보내느냐, 그 과정에서 선박이 얼마나 묶이느냐가 동시에 바뀐 국면이다.

조금 더 쉽게 말하면, 지금 시장의 본질은 원유 가격 그 자체보다 운송거리 증가와 제품 수급 불안이다.
홍해·수에즈 병목으로 항로가 길어졌고, 여기에 호르무즈 리스크와 중동 정제설비 차질이 겹치며 제품 시장이 더 타이트해진 구조이다.





2. 먼저 탱커 시장부터 이미 꼬여 있었다


탱커 시장은 원래 톤마일 수요유효선복 공급으로 움직이는 시장이다.
톤마일은 “얼마나 많은 화물을 얼마나 멀리 보내느냐”이고, 유효선복은 “실제로 정상적으로 운항 가능한 선박이 얼마나 되느냐”이다.


홍해와 수에즈 문제는 이 둘을 동시에 건드렸다.
항로가 길어지면서 톤마일은 늘었고, 제재·보험·정비·고령선 문제로 실제로 활용 가능한 선복은 줄어들었다. 그래서 운임이 오른 것이다.


그 위에 그림자선단 이슈까지 얹혔다.
그림자선단은 제재 대상국 물량을 나르던 고령 탱커 집단인데, 이 선박들이 규제 강화와 스크랩 증가로 점차 시장에서 빠지면 정상 시장의 유효선복은 더 줄어들게 된다.






3. 그래서 이번에는 원유보다 정제제품이 더 중요하다


OPEC 2026년 4월 보고서가 가장 분명하게 말하는 부분도 이것이다.
3월에는 글로벌 정제 가동이 급격히 줄면서 제품 생산이 부족해졌고, 그 결과 정제마진과 제품 크랙이 급등하였다. 특히 middle distillate, 즉 디젤과 항공유 계열의 강세가 가장 두드러졌다.

여기서 middle distillate는 어려운 개념이 아니다.
정유사가 원유를 정제했을 때 나오는 제품 중에서 디젤·경유·항공유·등유 계열을 뜻하는데, 산업 활동과 항공 이동, 물류 수요에 직접 연결되는 제품군이다. 지금 수익이 가장 빠르게 붙는 곳이 바로 이 구간이다.

OPEC은 3월 정제 투입량이 77.1mb/d로 내려갔고, 전월 대비 5.0mb/d 감소했다고 정리하였다.
또한 이번 급락은 단순한 정기보수만이 아니라 지정학 제약에 따른 원유 흐름 변화가 함께 만든 결과라고 설명하였다. 결국 제품 공급이 줄었고, 제품 가격이 원가보다 더 빨리 뛰었다는 뜻이다.










4. OPEC이 말한 2026년 부족 포인트는 디젤·항공유·휘발유이다


여기서 표현은 정확하게 잡을 필요가 있다.
OPEC이 “2026년 내내 절대적 부족”을 단정한 것은 아니다. 다만 2분기부터 여름 성수기까지 제품 수급이 타이트해질 가능성을 분명하게 강조하고 있다.

특히 수요 증가 방향이 분명하다.
OPEC은 2Q26 수요 증가를 휘발유 +0.2mb/d, 제트/등유 +0.1mb/d, 디젤 +0.1mb/d로 제시했고, 3Q26에는 휘발유 +0.6mb/d, 제트/등유 +0.4mb/d, 디젤 +0.1mb/d로 더 강한 증가를 예상했다. 연간 기준으로도 휘발유와 제트유, 디젤 모두 증가하는 구조이다.

즉 시장의 순서는 이렇게 이해하면 된다.
지금 당장 가장 강한 것은 디젤과 항공유이고, 여름으로 갈수록 휘발유까지 강해지는 구조이다. 그래서 정유사의 실적을 볼 때도 단순 유가보다 제품별 마진 구조를 먼저 봐야 한다.






5. 탱커 운임도 같은 방향을 말하고 있다


제품이 타이트해지면 당연히 그것을 실어 나르는 탱커 운임도 올라가게 된다.
OPEC 보고서에 따르면 3월 더티 탱커 현물운임은 record level까지 올라갔고, 클린 탱커 운임 역시 서쪽 항로를 중심으로 크게 상승하였다.

특히 눈에 띄는 숫자는 두 가지이다.
Suezmax의 USGC-유럽 노선 운임은 전월 대비 104% 상승했고, clean tanker는 West of Suez 평균 +86%, East of Suez +54% 상승하였다. 이는 단순히 배가 부족해서가 아니라, 공급원을 바꾸고 항로가 꼬이면서 운송 수요가 더 길고 비싸진 결과이다.

이 점이 중요한 이유는 정유사의 수출 마진과 연결되기 때문이다.
제품 부족이 심할수록 제품 가격은 오르고, 장거리 수송이 늘수록 지역 간 가격 차도 커진다. 따라서 수출 비중이 높은 정유사는 국내 판매만 하는 회사보다 더 큰 이익 개선을 가져가기 쉽다.





다올투자증권






6. 아시아 정제마진도 중간유분 중심으로 벌어졌다


OPEC은 3월 싱가포르 정제마진이 배럴당 16.4달러로 전월 대비 13달러 상승했다고 정리하였다.
아시아에서 원가 부담이 크게 뛰었음에도 정제마진이 이렇게 올라갔다는 것은, 제품 시장이 그만큼 타이트했다는 뜻이다.

제품별로 보면 더 선명하다.
싱가포르 기준 Jet/Kerosene은 196.15달러, Gasoil/Diesel은 193.04달러, Premium gasoline은 136.90달러였다. 중간유분 계열의 절대 가격과 수익성이 휘발유보다 앞서 있는 구조이다.

즉 이번 시장에서 정유사의 실적은 이렇게 읽으면 된다.
원유를 사서 정제했을 때 디젤과 항공유에서 얼마나 두꺼운 마진을 붙일 수 있느냐가 실적의 1차 변수이고, 휘발유는 그 다음 단계에서 실적을 더 밀어주는 2차 변수이다.






7. 그래서 HD현대오일뱅크가 직접 수혜인 이유가 명확해진다


이제 정리하면 답은 간단하다.
이번 장세에서 유리한 회사는 중간유분 비중이 높고, 수출이 가능하고, 중질유를 잘 처리할 수 있는 정유사이다. 회사 자료 기준으로 HD현대오일뱅크(*비상장)는 바로 이 조건에 들어맞는다.

핵심은 생산구조이다.
회사는 정제능력 69만배럴/일, **고도화율 41.7%**를 갖고 있고, 제품 생산도 디젤과 제트유 비중이 높다. 즉 지금처럼 middle distillate 마진이 강할 때 가장 직접적으로 실적이 개선될 수 있는 구조이다.

판매구조도 유리하다.
내수와 수출 비중이 모두 크기 때문에 국내 마진만 보는 회사가 아니다. 아시아와 글로벌 제품 가격 강세가 나타날수록 실적에 연결될 가능성이 높다. 지금 같은 시장에서는 이 차이가 매우 중요하다.




8. 여기서 고도화설비가 왜 중요한가


고도화설비는 쉽게 말해 값이 싼 중질유를, 더 비싼 고부가 제품으로 바꾸는 능력이다.

그래서 원유 가격이 오른다고 모든 정유사가 같은 폭으로 이익을 내는 것은 아니다. 오히려 지금처럼 제품 가격이 원유보다 더 빠르게 오르는 국면에서는, 고도화 능력의 차이가 곧 이익 차이로 이어진다.

이번 장세에서는 그 의미가 더 크다.

 중동 공급 차질로 medium-sour 계열 원유의 가치가 높아졌고, 동시에 디젤과 항공유 같은 중간유분 마진도 빠르게 확대되고 있다. 결국 지금은 원료 조달 측면에서도 sour crude가 중요하고, 제품 판매 측면에서도 middle distillate가 중요한 시장이다.

여기에 최근에는 한국의 중동산 원유 의존도가 에너지안보 이슈와 맞물리면서, 정부도 남미와 아프리카 등으로 medium-sour 원유 수입선을 다변화하려는 방향을 강화하고 있다.
즉 이번 변화는 단순한 단기 시황이 아니라, 원료 조달 구조 자체가 바뀌는 흐름과도 연결되어 있다.

그래서 HD현대오일뱅크의 수혜를 단순히 정제량 증가로 볼 수는 없다.
핵심은 중질유를 안정적으로 들여와 고부가 제품으로 전환하고, 그 과정에서 더 높은 마진을 흡수하는 능력에 있다. 바로 이 capture 능력이 이번 실적 개선의 본질이며, HD현대오일뱅크를 일반 정유사와 구분짓는 핵심 포인트이다.

https://v.daum.net/v/5Mktp5oMy2






9. feedstock 관점에서도 HD현대오일뱅크가 유리하다


HD현대오일뱅크의 강점은 단순히 정제설비에만 있지 않다.
중동 원유만 보는 회사가 아니라, 미주 heavy crude까지 조달 범위를 넓힐 수 있는 구조라는 점이 중요하다. 이것이 이번 국면에서 중질유 프리미엄의 직접 수혜 포인트가 된다.

이 구조를 쉽게 해석하면 이렇다.
중동 리스크가 커질수록 원료 조달은 흔들리기 쉽다. 그런데 HD현대오일뱅크처럼 멕시코·캐나다 등 비중동 heavy crude를 처리할 수 있는 회사는 원료 대체가 가능하고, 동시에 고도화설비로 제품 마진을 더 크게 뽑아낼 수 있다는 장점이 있다.

즉 이번 국면에서 회사의 수혜는 두 단계이다.
첫째는 중간유분 마진 확대이고, 둘째는 heavy crude 처리 유연성이다. 전자는 당장 손익을 끌어올리고, 후자는 원료 경쟁력 측면에서 실적 변동성을 낮춰준다.


최근엔 중동산 원유비중을 다시 늘린듯 한데..



10. 이번 상반기 수혜의 순서를 한 줄로 정리하면 이렇다


이번 상반기, 특히 남은 2분기 실적을 가장 크게 끌어올리는 변수는 원유 가격 상승 자체가 아니다.
디젤과 항공유 중심의 중간유분 마진 확대가 1순위이고, 휘발유 강세가 2순위이다. 이것이 핵심 결론이다.

그리고 그 수혜를 가장 직접적으로 받는 회사가 HD현대오일뱅크이다.

이 회사는 높은 고도화율, 중간유분 중심 생산구조, 수출 비중, heavy crude 처리 유연성을 동시에 갖고 있기 때문이다. 그래서 이번 국면의 실적 개선은 “유가 상승 수혜”라고 부르기보다 중간유분 중심 수출형 정제마진 개선 수혜라고 부르는 편이 더 정확하다.






매수매도 추천아님
시황자체는 언제든 손바닥 뒤집듯 바뀔 수 있음.

국내 유류 최고가격제 정책은 오래못가거나 or 효과없거나 둘 중 하나이거나 둘 다임.


李대통령 “유류 최고가격제가 소비 키워”…관계부처 대책 지시



시클리컬 특히 정유산업은 우주최강 매크로 고인물들만 플레이 하는 산업임..


=끝

2026년 4월 12일 일요일

생각정리 224 (* Advanced PCB)

 Advanced PCB 산업에 대한 리서치를 이어나가본다.


루빈·카이버 이후, 왜 ‘고급 PCB’가 새 병목으로 떠오르는가


그리고 왜 STF MLO를 함께 볼 필요가 있다고 생각하는가


들어가며


NVIDIA가 보여주는 다음 단계의 경쟁은
칩 한 개의 경쟁이라기 보다는 시스템 전체의 경쟁에 가깝다.

칩, 패키지, 보드, 랙, 전력, 냉각이 함께 묶여 움직이고 있다. (NVIDIA)

이 변화가 깊어질수록,
병목은 점점 연산보다 연결 쪽으로 이동한다.
그리고 바로 그 지점에서 고급 PCB가 중요해진다. (NVIDIA Newsroom)


1. 먼저, 용어부터 쉽게 정리해보자


PCB
는 전자부품을 올리고 전기 신호를 보내는 회로판이다.
쉽게 말하면 전기가 달리는 도로망이다.
그런데 AI 서버와 고성능 반도체로 갈수록
이 도로망은 훨씬 더 촘촘하고 정밀해져야 한다. (교세라 KYOCERA Korea)

패키지 서브스트레이트는 칩 바로 아래 붙는 더 정밀한 기판이다.
일반 PCB보다 훨씬 더 작은 배선과 더 높은 신뢰성이 필요하다.
칩에서 나온 수많은 신호를 바깥으로 꺼내는 첫 관문이라 중요하다. (교세라 KYOCERA Korea)

인터포저는 칩과 기판 사이에서 신호를 다시 정리해주는 중간층이다.
칩 여러 개를 묶거나, HBM과 로직칩을 연결할 때 자주 등장한다.
최근에는 실리콘 인터포저뿐 아니라
유기 인터포저도 빠르게 부상하고 있다. (shinko.co.jp)

CPO는 광통신 부품을 스위치 ASIC 가까이에 붙이는 방식이다.
전기 신호를 멀리 보내며 생기는 손실과 전력 낭비를 줄이기 위한 해법이다.
NVIDIA는 2025년 1.6Tb/s 포토닉스 스위치를 공개하며
이 방향을 공식화했다. (NVIDIA Newsroom)

STF, 즉 Space Transformer는 프로브카드 안에서
위쪽 PCB의 넓은 배선을 아래쪽의 매우 촘촘한 프로브 핀 배열로 바꿔주는 부품이다.
쉽게 말하면 큰 도로를 아주 좁은 골목으로
질서 있게 나눠주는 정밀한 분기판이다. (fict-g.com)

MLO는 Multi-Layer Organic의 약자다.
유기재료 기반의 다층 배선 구조라고 이해하면 된다.
즉 STF MLO는 결국
초정밀 유기 다층 기판의 한 형태에 가깝다. (FormFactor, Inc.)


2. NVIDIA는 지금 무엇을 바꾸고 있나


NVIDIA가 보여주는 차세대 AI 인프라는
“더 좋은 GPU를 만든다”는 말만으로 설명이 잘 안 된다.

공식 자료에서 Vera Rubin NVL72
72개의 Rubin GPU와 36개의 Vera CPU를 하나의 랙 스케일 시스템으로 묶는다.
즉, 칩보다 랙 전체를 하나의 컴퓨터처럼 설계하는 방향이 분명해졌다. (NVIDIA)

NVIDIA는 Rubin NVL72가
Blackwell 대비 더 적은 GPU로 학습을 수행하고,
추론은 백만 토큰당 비용을 크게 낮추는 방향이라고 설명한다.
핵심은 단순 최고 성능이 아니라 더 낮은 TCO다. (NVIDIA)

이 흐름은 Kyber에서 더 선명하다.
NVIDIA는 OCP 관련 공식 글에서
Kyber가 컴퓨트 블레이드를 수직으로 세우고,
뒤쪽 NVLink 스위치 블레이드를 cable-free midplane으로 연결한다고 설명했다.
즉, 랙 내부 집적도를 더 끌어올리는 구조다. (NVIDIA)

배선 구조도 함께 바뀌고 있다.
랙 내부는 더 짧고 더 촘촘한 구리 연결을 쓰고,
랙 밖으로 나가는 구간은 광통신 비중을 늘리는 방향이다.
NVIDIA의 포토닉스 발표는 이 흐름을 공식적으로 보여준다. (NVIDIA Newsroom)

현재 NVIDIA 공식자료로 가장 분명하게 확인되는 속도 구간은
800G와 1.6T다.
업계는 그 이후도 바라보지만,
공식 확인 기준으로는 이 구간이 가장 명확하다. (NVIDIA Newsroom)


3. 왜 PCB가 새 병목으로 떠오르나


칩 안에서는 계산이 끝난다.
문제는 그 계산 결과를 칩 밖으로 빼낼 때 생긴다.

신호를 더 많이, 더 빠르게, 더 적은 전력으로 보내야 한다.
그런데 공간은 더 좁아지고, 발열은 더 커지고,
연결 수는 더 늘어난다.
이 지점부터 병목은 연산보다 연결에서 생기기 시작한다. (NVIDIA)

그래서 업계는 칩, 패키지, 보드를 따로 보는 대신
하나의 연결 문제로 보기 시작했다.
IPC는 이를 silicon-to-systems 관점으로 설명하며,
실리콘부터 보드 조립까지 전 구간을 함께 봐야 한다고 말한다. (NVIDIA Newsroom)

NVIDIA의 NVLink-C2C 설명도 같은 방향이다.
NVIDIA는 이 기술이 PCB-level integration, MCM, silicon interposer,
wafer-level connections까지 확장 가능하다고 설명한다.
즉, 칩과 패키지와 보드의 경계가 흐려지고 있다는 뜻이다. (NVIDIA)

그래서 지금 시장이 말하는 고급 PCB
예전처럼 층수가 좀 많은 서버 보드를 뜻하지 않는다.
앞으로 더 중요해지는 것은
칩과 패키지와 보드 사이의 물리적 병목을 줄여주는
초미세 고밀도 유기기판인터포저형 구조다. (shinko.co.jp)

내 판단으로 이 수요가 더 본격화되는 기점은
바로 Rubin·Kyber 같은 랙 고집적 세대다.
이 문장은 해석이지만,
근거가 되는 방향은 NVIDIA가 직접 밝힌
랙 구조 변화, cable-free midplane, 포토닉스 전략에 있다. (NVIDIA)


4. 그래서 ‘고급 PCB’의 본질은 무엇인가


핵심은 단순하다.
더 미세하고, 더 빠르고, 더 안정적으로 신호를 보내는 것이다.

AI 서버와 고성능 반도체로 갈수록
배선은 더 촘촘해지고, 층수는 늘어나고, 신호 속도는 더 빨라진다.
그래서 중요한 것은 단순한 판이 아니라
미세배선, 고다층 적층, 저손실 소재, 임피던스 제어, 열 관리, 뒤틀림 억제다. (교세라 KYOCERA Korea)

SHINKO의 i-THOP
유기 인터포저와 빌드업 기판을 통합한 2.3D 유기기판이다.
회사는 이를 2.5D 실리콘 인터포저의 대안으로 소개하며,
HBM, chiplet, 대형 패키지를 겨냥한다. (shinko.co.jp)

TOPPAN의 T-RECS도 같은 흐름 위에 있다.
TOPPAN은 이를 fine pitch, low CTE, rigidity를 갖춘
코어리스 유기 인터포저라고 설명한다.
즉 앞으로 중요해지는 것은
단순 메인보드가 아니라 칩 옆에서 신호를 받아내는 기판이다. (holdings.toppan.com)


5. 이 영역을 할 수 있는 글로벌 소수업체는 누구인가


보수적으로 보면,
현재 이 흐름에 가장 가깝게 올라와 있는 양산 축은
Ibiden, Kyocera, SHINKO, TOPPAN 정도로 좁혀볼 수 있다.
이 평가는 각 회사가 직접 공개한 제품 방향과 투자 내용을 바탕으로 한 해석이다. (Ibiden)

5-1. Ibiden: 양산 규모가 강한 축

Ibiden은 2026년 2월
AI 서버와 고성능 서버용 high-performance IC package substrates
생산능력 확대 투자를 공식 발표했다.
즉 이 회사는 이 시장에서
기술뿐 아니라 대량 양산 축을 담당하는 플레이어로 읽힌다. (Ibiden)

5-2. Kyocera: 패키지와 보드를 함께 보는 축

Kyocera는 FC-BGA에서
3,000개 이상 I/O의 high-end flip chip 대응을 설명하고,
AnyLayer PWB에서는 40μm/40μm line/space와
fine pitch, higher layer count를 강조한다.
즉, 패키지와 보드가 만나는 지점의 공정을
넓게 커버하는 회사다. (교세라 KYOCERA Korea)

5-3. SHINKO: 유기 인터포저형 대안을 밀고 가는 축

SHINKO는 i-THOP를 통해
유기 인터포저와 빌드업 기판을 통합한 구조를 제시한다.
회사는 이를 2.5D 대안으로 설명하며,
HBM, chiplet, 이종집적 패키지를 겨냥한다.
패키지와 보드의 경계가 흐려질수록
더 중요해질 가능성이 큰 플레이어다. (shinko.co.jp)

5-4. TOPPAN: 코어리스 구조 혁신 축

TOPPAN은 2024년
차세대 반도체용 coreless organic interposer를 공개했다.
회사 설명의 핵심은
fine pitch, low CTE, rigidity, 고신뢰성이다.
즉 범용 PCB 강자라기보다
차세대 인터포저형 기판에서 차별화된 업체다. (holdings.toppan.com)

정리하면 경쟁 구도는 이렇다.
Ibiden은 양산 규모,
Kyocera는 공정 범위,
SHINKO는 유기 인터포저형 대안,
TOPPAN은 코어리스 구조 혁신이 강점이다.
이 구분은 각 회사의 공식 자료를 비교해 정리한 해석이다. (Ibiden)


6. 여기서 FICT를 따로 봐야 하는 이유


위 4곳은
“고급 PCB·패키지·유기 인터포저”를 보는
보수적 양산 축이라고 볼 수 있다.

그런데 STF MLO와 고급 PCB의 연결성을 이해하려면
반드시 따로 봐야 하는 회사가 하나 있다.
바로 FICT다. (fict-g.com)

6-1. FICT는 어떤 회사인가


FICT는 일본의
고급 PCB, 패키지 서브스트레이트, 프로브카드 기판 회사다.
자사 홈페이지는 회사를
high-end PCBs and substrates manufacturer라고 설명하고,
적용처로 슈퍼컴퓨터, AI·빅데이터용 고성능 서버,
5G 통신장비, 반도체 테스트 장비를 든다. (fict-g.com)

즉 FICT는 단순 PCB 회사가 아니다.
보드, 패키지, 테스트 기판을 한 축에서 다뤄 온 회사다. (fict-g.com)

6-2. FICT의 뿌리와 연혁은 왜 중요할까


FICT의 공식 연혁에 따르면
이 회사의 뿌리는 1967년 Fujitsu의 PCB 사업이다.
이후 고다층 PCB, FC-BGA, 차세대 프로브카드,
Any Layer IVH 기반 F-ALCS, 슈퍼컴퓨터용 기판을 거쳐
2022년 현재의 FICT로 사명을 바꿨다.
2025년에는 MBK Partners와 FormFactor가 주주로 참여했다. (fict-g.com)

이 연혁이 중요한 이유는 단순하다.
FICT는 패키지 서브스트레이트와 프로브카드용 ST Organic을
같은 기술 계보 안에서 발전시켜 온 회사
이기 때문이다.
즉, 패키지와 테스트 인터페이스를
분리해서 보지 않고 같이 발전시켜 온 셈이다. (fict-g.com)

6-3. 그래서 왜 FICT의 말이 중요한가


FICT는 2024년 SWTest Asia에서
차세대 Space Transformer Organic 발표를 했다.
이 발표에서 회사는
기반 기술을 PKG substrate, Any Layer & Fine Pitch, High Layer PCB라고 적었고,
목표를 2026년 30μm 미만 pin pitch,
2030년 20 build-up layers 초과로 제시했다. (fict-g.com)

이 문장은 매우 중요하다.
왜냐하면 FICT가 직접
**“STF MLO의 미래는 패키지 서브스트레이트와 고다층 PCB 기술 위에 있다”**고
말한 것이기 때문이다.
즉, STF와 고급 PCB가 기술적으로 닿아 있다는 점을
가장 선명하게 설명하는 회사가 바로 FICT다. (fict-g.com)

여기에 FormFactor는
2025년 FICT 거래 종결 발표에서
이번 협력이 advanced probe cards와 advanced packaging 확산에 대응하는
공급망 강화라고 설명했다.
즉 글로벌 테스트 장비 핵심 업체도
FICT의 기술을 중요 자산으로 보고 있다는 뜻이다. (FormFactor, Inc.)

정리하면 FICT는
대형 패키지 기판 양산 강자라기보다,
패키지 기판과 STF MLO가 기술적으로 어디서 만나는지를 보여주는
가장 좋은 참조 회사
에 가깝다. (fict-g.com)




FICT는 비상장사라 공개 컨센서스가 없어 컨센서스 비교는 제외했고, 모델은 공개된 순이익·자산/자본, 회사 사업구조, 그리고 2024년 CEO 인터뷰의 “3년 후 매출 400억엔” 목표를 앵커로 둔 추정치임. 



가장 최근 지분매입 Value는 대량 3500억원.
 KRW/JPY 환율 9.36 기준
 2028년 fPER  7.5X.



7. 이제부터는 STF MLO에 대한 내 개인적 추정이다


여기서부터는 공개자료 위에 올린
내 해석과 가설이다.

현재 STF MLO
주로 프로브카드 상판과 테스트 인터페이스 보드에 쓰이는 기술이다.
국내 상장사 중 한 곳은 2024년
CPU, GPU, HBM용 버티컬 프로브카드와 테스트 인터페이스 보드용
STO-ML 개발을 공개했다.
또 특정업체는 자사 홈페이지에서
프로브카드, 인터페이스 보드, 테스트 소켓을 묶는
통합 테스트 아키텍처를 강조하고 있다. (ZDNet Korea)

즉 오늘 기준의 STF MLO는
런타임 서버 안의 부품이라기보다
테스트 인터페이스용 초정밀 유기 다층기판이다.
이 점은 분명히 구분해야 한다. (ZDNet Korea)

그런데 내가 주목하는 것은
이 기술의 현재 용도보다
그 안에 들어간 제조 역량이다.

고급 PCB의 본질은 결국
더 미세하고, 더 빠르고, 더 안정적으로 신호를 보내는 것이다.
AI 서버와 고성능 반도체로 갈수록
배선은 더 촘촘해지고, 층수는 늘어나며, 신호 속도는 더 빨라진다.
그래서 중요한 것은
미세배선, 고다층 적층, 저손실 소재, 저 CTE, 저 warpage,
고속 신호 무결성이다. (교세라 KYOCERA Korea)

그런데 STF도 본질적으로 비슷한 일을 한다.
Nidec SV Probe는 ST를
프로브 헤드와 PCB 사이의 핵심 부품이라고 설명하고,
여기에 MLO/Mini-PCB
Multi-Site MLO Reflow of Package Substrate를 포함시킨다.
즉 STF는 큰 배선을 더 작은 배선 세계로
정교하게 재배열하는 구조다. (FormFactor, Inc.)

그리고 FICT는
차세대 Space Transformer Organic의 기반 기술을
PKG substrate, Any Layer & Fine Pitch, High Layer PCB라고 직접 적었다.
이 말은 곧 STF MLO 안에 이미
고급 PCB와 패키지 기판이 어려워지는 이유가
그대로 들어 있다는 뜻이다. (fict-g.com)

그래서 내 생각은 이렇다.
STF MLO와 고급 PCB의 연결점은
제품이 같다는 데 있지 않다.
핵심은 필요한 제조 역량이 겹친다는 데 있다.
이 문장은 해석이지만,
FICT와 Nidec 자료가 그 해석을 강하게 뒷받침한다. (fict-g.com)


8. STO-ML은 어떻게 봐야 할까


현재 공개자료로 확인되는 사실은 분명하다.
특정업체는 STO-ML을 공개했고,
고성능 프로브카드와 고속 인터페이스 보드, 테스트 소켓을
함께 제공하는 구조를 갖고 있다고 설명한다. (ZDNet Korea)

이 정도만으로도
특정업체가 초정밀 빌드업 유기기판 영역
발을 들였다는 점은 의미가 있다.
특히 테스트 인터페이스 관점에서는 분명한 진전이다. (ZDNet Korea)

다만 아직 공개자료만으로
이 기술이 Rubin·Kyber용 실제 시스템 인터포저로 직접 들어간다고
말할 수는 없다.
그 선은 분명히 구분해야 한다.
이 문장은 보수적 판단이다. (NVIDIA)

그래서 내 결론은 이렇게 정리된다.
특정업체 STF MLO는 현재는 테스트 인터페이스 기술이다.
하지만 장기적으로는
고급 유기기판과 인터포저 인접 시장으로 확장될 수 있는
옵션 가치를 가진 기술일 가능성이 있다.
이 역시 내 해석이지만,
공개된 기술 계보를 볼 때 충분히 생각해볼 만한 가설이다. (fict-g.com)


9. 맺음말


Rubin·Kyber 세대부터 AI 인프라는
더 많은 칩을 더 좁은 공간에 넣고,
더 적은 케이블로 묶고, 더 낮은 전력으로 운영하는 방향으로 간다.
이 과정에서 병목은 연산보다 연결에서 더 크게 드러난다. (NVIDIA)

이 변화는 자연스럽게
칩과 패키지와 보드의 경계를 흐리게 만든다.
그리고 그 사이의 병목을 해결할
새로운 고급 PCB 수요를 만들어낸다.
앞으로 중요해지는 것은
그저 층수가 많은 PCB가 아니라
칩 바로 옆에서 초고속 신호를 받아낼 수 있는
고급 유기기판과 인터포저형 구조다. (NVIDIA)

그리고 내 개인적 견해로는
STF MLO는 바로 그 미래가 요구하는 제조 역량을
가장 압축적으로 보여주는 기술 가운데 하나
다.
제품의 현재 용도는 테스트용이지만,
기술의 결은 분명히 미래의 고급 기판 영역과 닿아 있다.
FICT가 중요한 이유도 바로 여기에 있다.
이 회사는 그 연결고리를 말로만 설명하는 것이 아니라,
반세기 넘는 패키지·보드·프로브카드 기술의 연속선 위에서
직접 보여주는 몇 안 되는 업체이기 때문이다. (fict-g.com)

한 줄로 줄이면 이렇다.

고급 PCB 시대가 온다는 것은
정밀 배선과 고속 신호 제어 능력의 가치가 올라간다는 뜻이고,
STF MLO는 그 능력을 가장 빡센 형태로 보여주는 기술일 수 있다.


특정업체
매수매도 추천아님

2026년 4월 9일 목요일

생각정리 223 (* Elon Musk, SpaceX IPO)



SpaceX 추정치
2조 달러 상장 value면 2028년 기준 Foward PER 159x임.



SpaceX IPO, 정말 들어가도 될까


이제는 로켓 회사만 보고 판단할 수 없는 이유



스페이스X의 최대 수익원인 스타링크, IPO 앞서 급등하고 있습니다



SpaceX를 떠올리면 우주 로켓을 먼저 생각한다.
하지만 지금의 SpaceX는 그보다 훨씬 복잡한 회사이다. (xAI)

최근 The Information은 SpaceX가 지난해 185억 달러가 넘는 매출을 올렸지만,
약 50억 달러 손실을 냈다고 보도했다. (The Information)

이 기사에서 더 중요한 부분은 따로 있다.
그 손실에 xAI가 포함돼 있었다는 점이다.

즉 이제 SpaceX를 본다는 것은,
로켓과 Starlink만이 아니라 xAI까지 함께 보는 일이 되었다는 뜻이다. 


1. 왜 SpaceX IPO를 볼 때 xAI를 먼저 봐야 하는가


과거의 SpaceX 투자 포인트는 비교적 단순했다.
발사 사업과 Starlink가 얼마나 빨리 커지느냐가 핵심이었다. (WTVB)

그런데 올해 구조가 크게 달라졌다.
SpaceX는 2026년 2월 xAI를 인수했다. 

이 인수는 단순한 계열사 정리가 아니다.
SpaceX는 이를 AI, 로켓, 위성인터넷을 묶는 결합으로 설명했다. 

그래서 IPO를 볼 때도 질문이 달라진다.
“SpaceX가 좋은 회사인가”보다 **“xAI가 붙은 SpaceX를 살 만한가”**가 더 중요해진다.


2. xAI는 정확히 무엇을 하는 회사인가


xAI를 단순한 챗봇 회사로 보면 그림이 잘 안 보인다.
xAI는 AI 서비스와 AI 인프라를 함께 키우는 회사이다. (xAI)

겉으로 가장 잘 보이는 제품은 Grok이다.
Grok은 X와 웹, 앱에서 쓰는 생성형 AI 서비스이다. 

하지만 수익 모델은 그보다 넓다.
개인용 구독, 기업용 Business, 대기업용 Enterprise, 개발자용 API가 함께 있다. 

즉 xAI의 목표는 “답변 잘하는 앱” 하나가 아니다.
기업이 자기 업무와 서비스에 붙일 수 있는 AI 플랫폼이 되는 일이다. 


3. 그런데 왜 xAI는 돈을 많이 쓰는가


이유는 단순하다.
지금의 xAI는 돈을 버는 속도보다 인프라를 까는 속도가 더 빠른 회사이기 때문이다. (Bloomberg)

Bloomberg는 xAI가 부채가 많고 매출은 아직 작다고 전했다.
또 현재 매출의 상당 부분이 머스크의 다른 회사들에서 나온다고 보도했다. (Bloomberg)

일부 보도에 따르면 xAI는 2025년 3분기에
매출 1억700만 달러, 순손실 14.6억 달러를 기록했다. (The Economic Times)

왜 이런 일이 벌어질까.
AI는 모델만 만든다고 끝나는 사업이 아니기 때문이다. (xAI)

데이터센터가 필요하다.
GPU와 전력도 필요하다. (xAI)

xAI는 Colossus라는 대형 AI 슈퍼컴퓨터를 내세우고 있다.
이런 투자는 초기에 엄청난 현금을 먹는 구조이다. (xAI)

그래서 지금 xAI의 핵심은
이 큰 고정비를 감당할 만큼 매출이 빨리 커질 수 있는가가 핵심이다. (Bloomberg)


4. xAI는 지금 어느 정도 위치에 있는가


여기서 가장 중요한 비교 대상은 두 회사이다.
Anthropic의 Claude와 OpenAI의 ChatGPT이다. (Anthropic)

먼저 Anthropic을 보자.
Anthropic은 최근 공식적으로 연환산 매출 run-rate가 300억 달러를 넘었다고 밝혔다. (Anthropic)




더 놀라운 점은 기업 고객의 질이다.
Anthropic은 연 100만 달러 이상 쓰는 고객이 1,000개를 넘었다고 밝혔다. (Anthropic)

이 말은 곧 Claude가 단순히 인기 있는 AI가 아니라,
이미 기업 예산을 크게 가져가는 제품이 되었다는 뜻이다. (Anthropic)

OpenAI도 여전히 매우 강하다.
OpenAI는 공식적으로 월 매출 20억 달러를 내고 있다고 밝혔다. (OpenAI)

이를 연환산하면 약 240억 달러 규모이다.
Reuters도 OpenAI의 연환산 매출이 2025년에 200억 달러를 넘었다고 전했다. (OpenAI)


https://epoch.ai/data/ai-companies/


즉 현재 상업화 체급만 놓고 보면,
Anthropic과 OpenAI는 이미 매우 큰 시장을 만들고 있는 회사들이다. (Anthropic)

반면 xAI는 아직 다르다.
xAI는 공식 ARR이나 공식 run-rate를 충분히 공개하지 않았다. (Bloomberg)

오히려 시장에 알려진 것은
“매출은 아직 작고, 투자와 적자는 매우 크다”는 점이다. (Bloomberg)

이 차이는 매우 중요하다.
Grok은 아직 상업화 규모에서 Claude와 ChatGPT보다 한참 뒤에 있다는 뜻이기 때문이다. (Anthropic)





5. 그럼에도 Grok이 완전히 약한 것은 아닌 이유


그렇다고 Grok을 가볍게 보면 안 된다.
Grok에는 분명한 장점도 있다. 

첫째는 유통 채널이다.
Grok은 X와 바로 붙어 있다는 점이 강점이다. 

둘째는 실시간성이다.
xAI는 웹 검색과 X 검색을 결합한 API와 도구를 함께 제공하고 있다. (xAI Docs)

셋째는 생태계 결합 가능성이다.
이제 xAI는 SpaceX 안에 들어와 있다.

이 말은 장기적으로 보면 Grok이
Starlink, 위성 네트워크, 머스크의 다른 서비스들과 연결될 수 있다는 뜻이다. 

즉 Grok의 강점은 현재 매출이 아니다.
앞으로 붙을 수 있는 연결 구조가 강점이다.



6. 경쟁 구도는 어떻게 봐야 하는가


아주 단순하게 정리하면 이렇다.
Claude는 기업용 침투가 가장 빠른 회사이다. (Anthropic)

ChatGPT는 소비자와 기업을 모두 잡은 가장 큰 플랫폼이다. (OpenAI)

Grok은 아직 추격자이지만, 실시간 데이터와 생태계 결합이라는 무기가 있는 회사이다. (xAI)

따라서 지금의 경쟁은
누가 더 똑똑한 모델인가만으로 끝나지 않는다. 

누가 더 많은 기업 예산을 가져오는가.
누가 더 큰 인프라를 확보하는가의 싸움이다. 

그 기준에서는 현재까지
Claude와 ChatGPT가 앞서 있고, Grok은 뒤쫓는 위치이다. 




7. 그래서 SpaceX IPO에 참여해야 하는가


여기서 답은 단순 찬반이 아니다.
무엇을 사는지부터 정확히 이해해야 한다. (xAI)

만약 투자자가 Starlink의 현금창출력
SpaceX의 독점적 발사 경쟁력을 높게 본다면, IPO는 충분히 매력적일 수 있다. (WTVB)

하지만 동시에 투자자는
아직 상업화 규모가 작은 xAI도 함께 사게 된다. (Bloomberg)

그리고 그 xAI는 지금
엄청난 인프라 투자와 큰 적자를 감수하는 단계에 있다. (Bloomberg)

즉 SpaceX IPO는 단순한 우주기업 투자가 아니다.
현금 잘 버는 우주사업 위에, 고위험 AI 옵션이 얹힌 투자에 가깝다. (The Information)


8. 여기서부터는 개인적인 의견이다


내가 이전 글에서 가장 중요하게 봤던 것은
엔비디아의 진짜 해자가 GPU 한 장이 아니라는 점이다.

엔비디아의 해자는 칩, 메모리, 네트워크, 소프트웨어,
시뮬레이션, 검증, 배포까지 묶은 폐쇄형 생태계에 있다.

그리고 그 구조는 고객사를 자연스럽게
엔비디아 스택 안에 묶어두는 락인 전략으로 이어진다.

나는 이 점 때문에 자율주행에서도
테슬라의 우위를 쉽게 단정하지 않는다.

테슬라는 가장 강한 예외일 수는 있다.
하지만 산업 전체의 표준을 누가 쥐느냐는 또 다른 문제이다.

자율주행이 칩 하나의 싸움이 아니라
도구, 데이터, 검증, 안전 체계의 싸움이 되면,

오히려 엔비디아처럼 먼저 생태계를 장악한 쪽이
더 오래 강할 가능성이 있다고 보기 때문이다.

9. 그래서 나는 SpaceX-xAI만으로는 결국 부족할 수 있다고 본다


여기서부터는 분명히 개인적인 추론이다.
나는 머스크가 결국 지금보다 훨씬 더 큰 자본을 필요로 할 가능성이 매우 높다고 본다.

이유는 단순하다.
머스크는 지금 한두 개 시장이 아니라 여러 전쟁(*경쟁)을 동시에 치르고 있기 때문이다.

한쪽에서는 Nvidia와 자율주행용 칩과 플랫폼 표준 경쟁을 해야 한다.
다른 한쪽에서는 OpenAI, Anthropic, 그리고 다른 AI 데이터센터 사업자들과도 싸워야 한다.

여기에 LLM 경쟁도 있다.
AI 데이터센터와 AI 하드웨어 투자 경쟁도 갈수록 커지고 있다.

즉 지금의 경쟁은 제품 하나의 싸움이 아니다.
모델, 칩, 데이터센터, 공급망, 표준을 모두 포함한 초대형 자본전이다.

이 점은 경쟁사 숫자만 봐도 드러난다.
Anthropic은 최근 run-rate revenue가 300억 달러를 넘었다고 밝혔다.

OpenAI도 월 매출 20억 달러를 공식적으로 공개했다.
이 숫자는 AI 시장이 이미 상상을 넘는 자본집약 산업이 됐다는 뜻이다.

xAI도 예외가 아니다.
xAI는 2026년 1월 200억 달러 Series E를 조달했다.

그리고 곧이어 2월에는 SpaceX에 인수됐다.
나는 이 흐름 자체가 자금수요의 크기를 보여준다고 본다.

그래서 내 생각에는
SpaceX와 xAI 두 축만으로는 앞으로 폭증할 AI 데이터센터와 AI 하드웨어 수요를 장기적으로 감당하기 버거울 수 있다.

특히 머스크가 정말로
AI 모델, AI 칩, 자율주행, 로보틱스, 우주 데이터 인프라까지 직접 끌고 가려 한다면 더 그렇다.

결국 필요한 것은 기술만이 아니다.
훨씬 더 큰 대차대조표와 더 큰 자본조달 능력이라고 본다.


10. 그래서 언젠가는 테슬라도 한 그릇에 담아야 할 수 있다고 본다



TESLA


그렇기에 내 생각에는 머스크가 언젠가
테슬라까지 SpaceX-xAI와 함께 더 강하게 묶는 방향을 고민해도 이상하지 않다.

이것이 지금 공개된 계획이라는 뜻은 아니다.
다만 최근 흐름은 그런 방향성을 떠올리게 만든다.

3월 머스크는 Terafab을 오스틴에 두고,
테슬라와 SpaceX가 공동으로 운영하겠다고 밝혔다.

4월에는 Intel도 이 프로젝트에 합류해
SpaceX, Tesla, xAI와 함께 프로세서 생산을 돕겠다고 밝혔다.

이 흐름을 보면 머스크는
AI 모델 회사, 우주 회사, 자동차 회사를 따로 보지 않는 것처럼 보인다.

오히려 세 회사를 하나의 공급망과
하나의 자본 집약적 인프라 체계로 묶으려는 것에 가깝다. (Bloomberg)

11. 테라팹은 단순한 공장 계획이 아니라 방향성의 신호일 수 있다


내가 테라팹을 중요하게 보는 이유도 여기에 있다.
이것은 단순한 반도체 공장 뉴스로 끝날 일이 아닐 수 있기 때문이다.

엔비디아가 칩을 넘어
공급망과 소프트웨어, 개발 표준까지 쥐려 했던 것처럼,

머스크도 결국
자체 공급망을 더 많이 확보하려는 방향으로 가고 있다고 본다.

테라팹은 그 시작점일 수 있다.
그리고 그 과정에서 필요한 것은 기술만이 아니다.

더 큰 대차대조표이다.
더 큰 자본조달 능력이다.

그래서 나는 앞으로도
머스크 진영 안에서 인수합병이나 지배구조 결합이 계속 이어질 가능성을 열어둔다.

SpaceX와 xAI의 결합이 끝이 아니라,
더 큰 복합기업 형태로 가는 중간 단계일 수 있다고 보기 때문이다.

물론 이것은 아직 확인된 사실이 아니다.
하지만 최근의 자본수요와 공급망 움직임을 보면 충분히 가능한 시나리오라고 생각한다.

12. 마지막으로 내가 SpaceX IPO를 보는 방식이다


그래서 나는 SpaceX IPO를
단순한 우주기업 상장으로 보지 않는다.

이 IPO는 로켓과 Starlink만 사는 일이 아니다.
xAI, 그리고 어쩌면 그 이후의 더 큰 결합 가능성 (*TSLA, Terafab)까지 함께 사는 일일지도 모르겠다. 

좋게 보면 이것은
우주, AI, 통신, 반도체, 자율주행,전기차를 한꺼번에 묶는 거대한 옵션이다.

반대로 보면 이것은
끝없이 커지는 자본수요까지 함께 떠안는 투자이다.

결국 투자자에게 있어 이번 IPO 참여여부는 SpaceX의 성장성을 사려는 것인가, 아니면 머스크식 복합 제국의 다음 단계까지 감수할 준비가 되어 있는가이지 않을까 한다. 


=끝