2026년 5월 6일 수요일

생각정리 241 (* LLM Compute Leverage, Memory )

OpenAI와 Anthropic의 2030년 수익모델을 추정하는 과정에서 생긴 질문들을 따라가다 보니, 리서치가 AI 데이터센터 용량, ARPU, 토큰 경제, CPU·메모리 병목으로 이어졌다.

이번 글의 결론부터 말하면 다음과 같다. LLM 기업은 Agent AI 기능에 광고와 커머스 수수료를 붙여 ARPU를 높일 유인이 크다. 동시에 Agent AI 도입으로 CPU와 GPU 수요가 선형적으로 증가하는 동안, CPU당 탑재되는 DRAM 용량과 메모리 사용량은 훨씬 더 가파르게 증가할 가능성이 있다.

아래는 그 흐름을 두서없이 정리한 글이다.

OpenAI와 Anthropic의 2030년 목표 실적: 병목은 데이터센터를 넘어 ARPU·CPU·메모리로 이동한다


OpenAI

OpenAI


Anthropic


Anthropic


22GW의 AI 데이터센터로 2030년 목표 실적을 만들 수 있는가


AI 데이터센터에서 말하는 GW는 전력 단위다. 쉽게 말하면 AI 모델을 학습시키고, 추론을 돌리고, AI 에이전트가 여러 작업을 처리하는 데 필요한 거대한 AI 공장의 전력 규모다.

이전 글에서는 OpenAI와 Anthropic의 visible AI 데이터센터 용량을 중복 제거 기준으로 약 22GW로 정리했다. 당시 OpenAI·Anthropic 22GW는 BIG5의 AI infra-equivalent capacity 80.8GW 대비 약 **27.2%**에 해당한다고 보았다. 

그런데 별도 수익모델에서 2030년 목표 실적을 맞추기 위해 이론적으로 필요한 AI 데이터센터 용량은 약 37.5GW에 가깝다. 즉 현재 보이는 22GW와 비교하면 약 15.5GW의 차이가 발생한다.

이 차이는 단순히 “데이터센터를 더 지으면 된다”는 문제로 끝나지 않는다. AI 데이터센터 병목이 구조화되는 상황에서는 같은 GW에서 더 많은 매출을 뽑아내는 능력, 즉 GW당 ARPU 효율이 중요해진다.




1. Anthropic은 10GW 모델이 상대적으로 자연스럽다


OpenAI와 Anthropic을 나눠 보면 차이가 더 분명해진다. Anthropic은 목표 실적을 달성하기 위해 필요한 AI 데이터센터 규모와 이전 글에서 추정한 visible capacity가 비교적 잘 맞는다.

Anthropic은 소비자 광고 플랫폼이라기보다 기업용 AI, API, Claude Code, workflow agent 중심의 회사에 가깝다. 기업 고객은 Claude를 단순한 챗봇으로 쓰지 않는다. 코드를 작성하고, 오류를 수정하고, 문서를 만들고, 데이터를 분석하고, 내부 업무 프로세스를 자동화하는 데 활용한다.

즉 Anthropic의 매출은 소수의 고ARPU 기업 고객이 많은 토큰과 연산을 소비하는 구조로 설명된다.

실제 Anthropic은 run-rate revenue가 $14bn에 도달했고, 연간 $100,000 이상 지출 고객 수가 1년 만에 7배 증가했다고 밝혔다. Claude Code의 run-rate revenue도 $2.5bn을 넘었고, 기업 사용이 Claude Code 매출의 절반 이상을 차지한다고 설명했다. (Anthropic)


https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation

따라서 Anthropic의 2030년 논리는 비교적 명확하다. 기업이 Claude를 더 많은 업무에 붙일수록 고객당 지출액이 커지고, 이는 AI 데이터센터 용량 대비 높은 매출로 연결된다. 소비자 광고를 크게 붙이지 않아도, Claude Code와 workflow agent가 기업 내부에 깊게 들어가면 목표 실적에 접근할 수 있다.




2. OpenAI는 12GW로 더 많은 매출을 만들어야 한다


OpenAI는 Anthropic보다 구조가 복잡하다. OpenAI는 ChatGPT라는 압도적인 소비자 접점을 가지고 있지만, 이론적 수익모델이 요구하는 AI 데이터센터 규모와 이전 글에서 보이는 visible capacity 사이의 차이가 크다.

이전 글에서는 OpenAI의 물리적 AI 데이터센터 용량을 중복 제거 기준으로 약 12GW로 보았다. Stargate 10GW와 AWS Trainium 관련 capacity를 반영하되, Broadcom, NVIDIA, AMD의 칩·시스템 물량은 같은 물리 데이터센터 안에 들어갈 수 있기 때문에 중복 계산하지 않는 방식이다. OpenAI·Oracle·SoftBank의 Stargate도 공식적으로 $500bn, 10GW commitment로 설명된다. (OpenAI)

문제는 OpenAI가 2030년 목표 실적을 달성하려면 12GW만으로 매우 높은 매출 효율을 만들어야 한다는 점이다. 단순히 유료 구독자를 늘리는 것만으로는 부족하다. OpenAI는 비자용 ChatGPT를 광고·커머스·결제·개인비서 기능이 결합된 agent platform으로 확장해야 한다.



OpenAI가 이 방향으로 움직일 가능성은 이미 보인다. OpenAI는 100만 개 이상의 business customers가 OpenAI를 사용하고 있으며, ChatGPT의 주간 사용자도 8억 명 이상이라고 밝혔다. 또한 Canva, Figma, Zillow, Spotify 같은 앱이 ChatGPT에 연결되고, Shopify, Etsy, Walmart, PayPal, Salesforce 등이 Agentic Commerce Protocol을 통해 ChatGPT 안에서 새로운 쇼핑 경험을 만들고 있다고 설명했다. (OpenAI)

즉 OpenAI의 2030년 모델은 B2C 광고·커머스와 B2B Codex·workflow agent가 동시에 커져야 성립하는 구조다. Anthropic이 기업용 고ARPU에 집중한다면, OpenAI는 소비자 접점을 기반으로 광고와 커머스를 붙이고, 동시에 기업용 Codex를 강화해야 한다.




3. OpenAI가 소비자용 광고·커머스에 집중할 수밖에 없는 이유


OpenAI가 12GW 수준의 visible capacity로 2030년 목표 실적에 접근하려면, 가장 중요한 수익화 지점은 소비자용 ChatGPT다. 단순 유료 구독만으로는 한계가 있다.

따라서 OpenAI는 ChatGPT를 검색창이 아니라 소비자 의사결정 인터페이스로 바꿔야 한다.

기존 검색 광고는 사용자가 검색어를 입력하면 광고를 보여주는 구조였다. 반면 agent AI는 훨씬 깊은 행동을 수행한다. 사용자가 “다음 주 도쿄 출장 일정을 짜줘”라고 요청하면 AI는 항공권, 호텔, 이동 경로, 식당, 일정, 결제 후보를 함께 비교한다. 사용자가 “노트북을 추천해줘”라고 요청하면 제품 스펙, 가격, 리뷰, 배송 조건, 구매처를 비교하고 최종 후보를 제안한다.

이 과정에서 AI는 단순히 정보를 보여주는 도구가 아니라 구매 전환 직전의 decision layer가 된다. 광고와 커머스는 이 지점에서 붙을 수 있다. 사용자는 더 편리한 agent 기능을 얻고, OpenAI는 광고, 추천, 제휴, 결제, 커머스 take-rate을 통해 구독료 외 매출을 붙일 수 있다.

따라서 OpenAI의 소비자용 ARPU 상승은 단순히 “구독료를 올린다”는 의미가 아니다. 사용자의 시간, 검색, 쇼핑, 여행, 일정관리, 결제 의사결정이 ChatGPT 안으로 들어오면서 수익화 면적이 넓어지는 것이다.




4. 토큰 경제 변화가 OpenAI의 12GW 모델을 방어한다


여기서 가장 중요한 전제는 토큰 경제다. 토큰은 AI가 문장을 읽고 쓰는 기본 단위다. 우리가 ChatGPT에 질문을 입력하면, 모델은 그 문장을 작은 단위로 쪼개 읽고, 다시 토큰 단위로 답변을 생성한다.

에이전트형 AI는 기존 챗봇보다 훨씬 많은 토큰을 소비한다. 사용자가 질문 하나를 던지고 답변 하나를 받는 구조가 아니라, AI가 여러 단계를 거쳐 생각하고, 검색하고, 외부 도구를 호출하고, 결과를 검증하기 때문이다.

최근 IB에서 나온 리포트를 요약해보면, 2030년까지 전 세계 토큰 소비량은 2026년 대비 24배 증가하고, 월간 토큰 소비량은 120조 개에 도달한다고 한다 .

소비자용 agent token demand는 2030년까지 12배, 기업용 agent token demand는 장기 peak에서 55배까지 증가할 수 있다고 한다. 

동시에 토큰당 계산 비용은 반도체 기술 발전, 모델 최적화, 캐싱, 저비용 모델 라우팅 덕분에 연 60~70% 하락한다고 가정해본다. 

이 경우 OpenAI의 12GW 모델은 단순히 비현실적인 모델이 아니라 조건부 고ARPU·고효율 모델로 바뀐다. 토큰 가격이 안정되고, 토큰당 계산 비용이 급락하며, 사용량이 폭증하면 매출과 마진이 동시에 개선될 수 있기 때문이다.








비용 하락 효과를 단순 계산하면 다음과 같다. 2026년 대비 2030년까지 4년 동안 토큰당 계산 비용이 매년 60% 하락하면, 2030년 token cost는 2026년의 2.56% 수준이 된다.

매년 70% 하락하면 0.81% 수준까지 내려간다. 여기에 사용량 24배를 반영해도 총 compute cost 부담은 2026년 대비 각각 61% 또는 19% 수준으로 계산된다.



이 계산이 중요한 이유는 분명하다. 토큰 사용량이 폭증해도 토큰당 원가가 더 빠르게 하락하면, AI 기업은 더 복잡한 에이전트 기능을 제공하면서도 마진을 방어할 수 있다.

낮아진 원가는 더 많은 agent use case를 만들고, 더 좋은 agent는 더 많은 사용량과 더 높은 ARPU를 만든다. 이것이 AI 산업의 경제적 플라이휠이다.

원가 하락 → 더 복잡한 agent 기능 → 토큰 사용량 증가 → ARPU 상승 → 더 큰 인프라 투자 → 다시 원가 하락의 구조다.





5. 에이전트 AI는 GPU뿐 아니라 CPU 수요를 자극한다


토큰 경제가 개선되더라도 물리적 인프라 병목은 사라지지 않는다. 오히려 에이전트형 AI가 확산될수록 병목은 GPU에서 CPU, 메모리, 네트워크, 스토리지, orchestration layer로 넓어진다.

기존 AI 인프라 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 그러나 agent AI는 workload 구조를 바꾼다. 에이전트는 한 번의 답변을 생성하는 데서 끝나지 않고, tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다.

AMD도 이 변화를 공개적으로 강조하기 시작했다. AMD는 2026년 1분기 실적 관련 코멘트에서 inference와 agentic AI가 고성능 CPU와 accelerator 수요를 높이고 있다고 설명했다. (Advanced Micro Devices, Inc.) 또한 AMD는 별도 글에서 agentic AI가 확산될수록 inference가 multistep workflow가 되고, CPU가 scheduling, data preparation, memory, I/O, control flow를 담당한다고 정리했다. (AMD)

쉽게 말하면 GPU가 AI의 “계산 엔진”이라면, CPU는 AI 데이터센터의 “작업 관리자”다. GPU가 답변 생성에 필요한 대규모 연산을 수행하는 동안, CPU는 어떤 작업을 먼저 처리할지 정하고, 데이터를 옮기고, 메모리를 관리하고, 외부 API 호출과 애플리케이션 연결을 조율한다.

에이전트 AI가 많아질수록 이 작업 관리 기능의 중요성이 커진다. 쇼핑 agent는 상품 DB를 조회하고, 가격을 비교하고, 리뷰를 요약하고, 결제 후보를 정리한다. 여행 agent는 항공권, 호텔, 일정, 지도, 날씨, 예약 시스템을 동시에 호출한다. 이 모든 작업은 단순 GPU 추론만으로 끝나지 않는다.






6. Arm Holdings도 CPU TAM 상승을 말하고 있다


Arm Holdings도 같은 방향의 메시지를 내고 있다. Arm은 agent-based inference가 AI 데이터센터 설계를 바꾸고 있으며, 더 많은 고효율·고코어 CPU 수요를 만들고 있다고 설명했다. Arm Neoverse CPU는 이미 10억 코어 이상 배포됐고, 상위 hyperscaler 내 Arm 점유율도 50%에 가까워질 것으로 예상한다고 밝혔다. (Arm Newsroom)

더 중요한 것은 Arm AGI CPU 발표다. Arm은 agentic AI infrastructure를 위한 data center CPU인 Arm AGI CPU를 공개했다. Arm은 AI가 모델을 한 번 학습시키는 시대에서, 계속 작동하는 AI agent를 배포하는 시대로 이동하고 있다고 설명한다. 이 변화는 reasoning, coordination, data movement를 처리할 CPU 수요를 크게 늘린다. 특히 Arm은 agent-driven application이 확산되면 데이터센터가 같은 GW 안에서 현재보다 4배 이상의 CPU capacity를 필요로 할 수 있다고 밝혔다. (Arm Newsroom)

Arm의 설명을 더 쉽게 풀면 이렇다. 에이전트 AI는 계속 켜져 있고, 여러 모델과 서비스를 호출하며, 실시간으로 의사결정을 한다. 이 과정에서 CPU는 수천 개의 분산 작업을 관리하고, accelerator를 조율하며, memory와 storage를 관리하고, 데이터 이동을 담당한다. Arm은 이런 이유로 CPU가 현대 AI 인프라의 핵심 조율 장치가 되고 있다고 설명한다. (Arm Newsroom)

즉 AMD와 Arm이 동시에 말하는 결론은 같다. AI 데이터센터는 GPU 중심 구조에서 GPU+CPU+메모리+네트워크가 결합된 balanced system으로 이동하고 있다.





7. Morgan Stanley 관점: CPU TAM은 세 갈래로 커진다


Morgan Stanley의 4월 19일자 요약 기준으로 보면, 에이전트 AI가 CPU TAM을 키우는 경로는 크게 세 가지다.

첫 번째는 head node CPU다. 이는 NVIDIA Grace, Vera처럼 GPU rack에 직접 연결되는 CPU다. 2030년까지 전 세계적으로 500만 개의 AI accelerator가 배포되고, 각 GPU board가 $5,000짜리 고급 CPU 두 개와 연결된다고 가정하면, 이 부분만으로 약 $50bn의 TAM이 발생한다.

두 번째는 orchestration CPU다. 이는 에이전트 AI가 만드는 새로운 수요다. 각 GPU에 2~3개의 추가 CPU-intensive node가 필요하고, 코어 수는 현재 Arm AGI CPU의 136개에서 2030년 200~300개로 증가하며, 단위당 평균 가격은 $3,000 수준으로 올라간다고 가정한다. 이 경우 orchestration CPU TAM은 약 $30bn~45bn으로 추정된다.

세 번째는 storage 및 network node에 들어가는 기타 CPU다. 이 영역은 약 $2.5bn~15bn 규모로 추정된다. 세 항목을 합치면 2030년 전체 데이터센터 CPU 시장은 약 $82.5bn~110bn에 달하고, 이 중 agent AI가 직접 추가하는 incremental TAM은 약 $32.5bn~60bn으로 계산된다.

이 수치의 핵심은 CPU가 단순히 GPU 옆에 붙는 보조 칩에 머물지 않는다는 점이다. 에이전트 AI에서는 GPU를 효율적으로 굴리기 위해 더 많은 CPU node가 필요하고, 이 CPU node는 점점 더 높은 core count와 더 큰 memory attach를 요구한다.








8. CPU TAM 상승보다 더 큰 것은 메모리 TAM 상승일 수 있다


CPU TAM 상승에서 더 중요한 2차 효과는 메모리 TAM 증가다. CPU가 늘어나면 CPU 칩만 더 팔리는 것이 아니다. CPU마다 대용량 DRAM이 붙고, agent workload가 복잡해질수록 memory capacity와 bandwidth 요구가 함께 증가한다.

Morgan Stanley 요약 기준으로는, 2030년까지 AI가 15~45EB의 DRAM 수요 증가를 유발할 수 있다. 이는 2027년 전체 DRAM 공급량의 **26~77%**에 해당하는 규모다. 더 중요한 점은 이 수치가 HBM을 제외한 순수 CPU용 DRAM 수요라는 점이다.

즉 GPU 옆에 붙는 HBM 병목과 별도로, CPU orchestration 확산만으로도 일반 DRAM 수요가 크게 늘어날 수 있다.

제품 스펙을 봐도 방향은 명확하다. NVIDIA Vera CPU는 1.5TB LPDDR5X를 지원하고, 전체 rack은 400TB 수준에 도달할 수 있다. AMD EPYC 9005는 칩당 6TB DDR5를 지원하며, CXL을 통해 8TB까지 확장 가능하다. 각 orchestration CPU가 2030년까지 평균 1.5TB에서 3TB의 DRAM을 탑재하고, 1,000만~1,500만 개의 신규 CPU가 추가된다면, CPU용 DRAM 수요는 단순 서버 교체 사이클을 넘어선다.

여기서 핵심은 CPU TAM보다 메모리 TAM의 탄성이 더 클 수 있다는 점이다. CPU는 개수와 ASP가 늘어나는 시장이지만, 메모리는 CPU당 attach capacity가 TB 단위로 증가한다. agent AI는 더 긴 context, 더 많은 memory retrieval, 더 많은 vector database, 더 많은 cache, 더 많은 intermediate state를 요구한다.

따라서 CPU가 늘어날 때 메모리는 선형이 아니라 더 가파르게 증가할 수 있다.






9. 결론: AI 데이터센터 경쟁은 GW 확보에서 GW당 ARPU와 시스템 효율 경쟁으로 이동한다


지금까지의 논리를 합치면 결론은 분명하다. OpenAI와 Anthropic의 2030년 목표 실적은 단순히 “AI 데이터센터를 몇 GW 확보하느냐”만으로 설명되지 않는다. visible capacity가 22GW에 그친다면, 두 회사는 같은 GW에서 더 높은 매출을 만들어야 한다.

Anthropic은 기업용 Claude Code와 workflow agent를 통해 고ARPU B2B 모델을 강화할 가능성이 높다. 기업 고객이 더 많은 업무에 Claude를 붙이면 고객당 매출이 커지고, 이는 높은 GW당 매출 효율로 연결된다.

OpenAI는 더 공격적인 구조다. 12GW 수준의 visible capacity로 목표 실적을 설명하려면 소비자용 ChatGPT가 광고·커머스·결제·개인비서 기능을 품은 agent platform으로 진화해야 한다. 동시에 Codex와 AgentKit을 통해 기업용 고ARPU 시장도 강화해야 한다.

OpenAI는 이미 Codex 사용량이 2025년 8월 이후 10배 증가했고, Cisco의 engineering workflow에서는 코드 리뷰 시간이 50% 줄었다고 설명했다. (OpenAI)

여기에 토큰 경제의 변화가 붙는다. 토큰 사용량은 폭발적으로 늘지만, 토큰당 계산 비용이 연 60~70% 하락하고 가격이 안정되면 AI 기업의 마진은 방어될 수 있다. 이 경우 OpenAI의 12GW 모델은 단순히 무리한 모델이 아니라, 고ARPU·고효율·고사용량이 동시에 필요한 bull case로 해석할 수 있다.

반도체 투자 관점에서도 결론은 달라진다. 과거에는 AI 데이터센터 병목을 GPU와 HBM 중심으로 봤다. 앞으로는 여기에 CPU, 일반 DRAM, networking, storage, ABF substrate, advanced packaging까지 함께 봐야 한다.

특히 agent AI 시대에는 CPU가 GPU를 보조하는 칩에 머물지 않는다. CPU는 에이전트의 작업을 조율하고, 데이터를 옮기고, 메모리를 관리하고, 외부 서비스 호출을 통제하는 핵심 인프라가 된다. AMD와 Arm Holdings가 동시에 CPU TAM 상승을 강조하는 이유가 여기에 있다.

마지막으로 더 중요한 2차 효과는 메모리다. CPU가 늘어나면 CPU마다 붙는 DRAM도 함께 늘어난다. 그리고 agent AI는 더 긴 context, 더 많은 cache, 더 많은 memory retrieval, 더 많은 intermediate state를 요구한다. 따라서 중장기적으로는 CPU TAM 상승보다 메모리 TAM 증가 효과가 더 클 가능성이 있다.

최종적으로 AI infra 경쟁의 질문은 이렇게 바뀐다.

누가 더 많은 GW를 확보하느냐에서, 누가 같은 GW로 더 높은 ARPU와 더 높은 시스템 효율을 만들어내느냐로 이동하고 있다.




앤트로픽의 다리오 아모데이 CEO는 회사가 기대했던 10배 성장이 아닌 1분기에 80배 성장하며 컴퓨트 수요를 따라잡기 어려운 상황이라고 밝혔다. 

https://www.mediapen.com/news/view/1097356


따라서 앞으로 AI 수요의 크기보다 더 중요한 질문은 수요를 실제 공급으로 바꾸는 구간에서 누가 가장 큰 희소성을 갖느냐이지 않을까 하며, 지금까지 사견으로는 위 질문에 대한 답은 '메모리'일 가능성이 높아보인다.


순수 Fabless는 제외


=끝

2026년 5월 5일 화요일

생각정리 240 (* chip, packaging bottleneck)

예전 여러 주식 운용사를 전전하던 시절, 잠깐이나마 내 주된 역할이 해외 리서치 담당이었던 때가 있었다.

당시 Amazon, Facebook, Nvidia, Microsoft, Alphabet 같은 빅테크 기업들을 분석해보라는 지시를 받았다. 여기에 삼성전기, 무라타까지 함께 보게 되면서, 1~2개월 동안 거의 아무것도 없는 맨바닥에서 위 기업들을 하나씩 파고들었던 기억이 있다.

당시에는 어린 마음에는 빨리 돈을 벌고 싶었다. 국내 스몰캡 기업을 빠르게 훑고, 남들보다 한발 앞서 투자 아이디어를 찾고 싶었다. 그래서 무겁고 낯선 해외 기업부터 공부해야 하는 그 포지션이 당시에는 그리 마음에 들지 않았다.

짧은 인턴 기간이 끝난 뒤 그 운용사를 나오게 되었지만, 이후에도 개인적으로 빅테크 기업들의 어닝콜은 분기마다 나름의 방식으로 정리해 어닝모델을 업데이트하며 계속 추적해왔다.

그때 특히 기억에 남았던 기업이 Nvidia였다. 당시 Nvidia의 무모해 보일 정도의 R&D 지출이 괜스레 마음에 걸렸다. “대박 아니면 쪽박”이라는 어정쩡한 생각으로 소액을 투자했다가, 어느 정도 수익이 나자 홀라당 팔아버린 기억도 있다.

7년이 지난 이제 와서 돌아보면, 짧은 인턴 기간 동안 접했던 빅테크 기업들과 이후 이어온 몇 분기, 몇 년간의 트래킹이 지금의 나에게 적지 않은 자산이 되었다는 생각이 든다.

늘 그렇듯, 뒤늦게야 감사한 일들이 보인다.


생각정리: AI Infra는 얼마나 커지고 있는가


OpenAI·Anthropic, Neocloud, Sovereign AI D/C까지 보면 병목은 결국 반도체 Physical Capa로 간다


이전 글에서는 Microsoft, Amazon, Alphabet, Meta 네 개사의 AI CapEx 사이클을 정리했다. 당시의 핵심은 분명했다. 2026~2027년에는 GPU, TPU, custom silicon, 데이터센터, 전력 인프라 투자가 먼저 집행되면서 FCF margin이 눌리고,

2028~2030년부터는 이미 깔린 AI capacity가 Azure, AWS, Google Cloud, Meta Ads의 매출 및 효율 개선으로 회수되는 구간에 들어간다는 점이었다. 기존 글에서도 Big Tech 4 합산 기준으로 2026~2028년은 AI 장비·칩·데이터센터 선투자와 감가상각 부담이 집중되고,

2028~2030년은 capacity monetization이 본격화되는 흐름으로 정리했다. 


https://uiyeonassociation.blogspot.com/2026/04/237-big-tech-ai-fcf-capex.html

이번에는 분석 범위를 더 넓혀보려 한다. 기존 Big Tech 4에 Oracle을 더한 BIG5를 기준으로, 여기에 OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 붙이면 전체 AI infra 수요와 공급이 얼마나 커지는지 계산해보는 것이다.

결론부터 말하면, BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓을 때, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 합산한 신규 visible AI infra pool은 약 36.9GW다. 이는 BIG5 대비 **약 45.7%**에 해당한다.

투자금액 기준으로도 Stargate의 $500B / 10GW, 즉 $50B/GW를 적용하면 약 $1.65~1.85T 규모이며, BIG5의 약 $4.04T 대비 40~46% 수준이다. Stargate는 OpenAI·Oracle·SoftBank가 추진하는 미국 AI 인프라 buildout으로, OpenAI는 이를 $500B, 10GW 규모라고 설명했다. (openai.com)

이 숫자가 중요한 이유는 단순하다. 불과 짧은 기간에 BIG5 외부에서도 30GW가 넘는 신규 AI D/C 수요처가 생겼다.

하지만 반도체, 메모리, 패키징, 전력, 냉각, 변압기, 토지, 인허가 같은 물리적 공급망은 수요 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. 따라서 AI infra cycle의 핵심은 “누가 D/C를 더 많이 짓느냐”에서 “어디서 물리적 병목이 먼저 터지느냐”로 이동하고 있다.


1. 계산 기준: BIG5와 Stargate 환산 단가


먼저 BIG5의 기준선을 잡는다.


기존 Big Tech 4 글의 차트는 2026~2030년 누적 기준으로 대략 3.79조 달러 수준의 CapEx 사이클을 가정하고 있다. 여기에 Oracle을 더한다. Oracle은 FY2026에 cloud 및 AI compute capacity 확대를 위해 약 500억 달러의 capital investment를 집행할 계획으로 알려져 있다. Oracle의 투자는 OpenAI, Meta, NVIDIA, AMD, xAI 등 대형 OCI 고객의 committed demand를 충족하기 위한 성격이 강하다. (channeldive.com)


Oracle의 2027~2030년 CapEx는 아직 불확실하다. 여기서는 보수적으로 Oracle이 FY2026의 500억 달러 수준을 5년간 유지한다고 가정한다.


다음으로 GW 환산 기준을 둔다. Stargate의 공식 발표 기준은 $500B / 10GW다. 이를 단순 환산하면 AI 인프라 1GW당 총 투자비는 약 $50B다. 이 기준은 데이터센터, 전력, 서버, 네트워크, 냉각, GPU·ASIC 시스템까지 포함한 거친 총액 기준으로 보는 것이 맞다. (openai.com)

따라서 BIG5의 2026~2030년 CapEx 4.04조 달러를 Stargate 기준으로 환산하면 다음과 같다.

BIG5 AI infra-equivalent capacity

= $4.04T ÷ $50B/GW
= 약 80.8GW

물론 BIG5 CapEx 전체가 AI 전용은 아니다. 기존 클라우드 증설, 서버 교체, 네트워크, 데이터센터 건물, 전력 인프라, 내부 서비스 투자가 함께 섞여 있다. 따라서 이 숫자는 정확한 물리적 전력 capacity라기보다, BIG5의 AI 인프라 투자 체급을 Stargate 기준으로 환산한 GW-equivalent로 보는 편이 맞다.


2. OpenAI·Anthropic: 중복 제거 후 22GW, 약 $0.9~1.1T


먼저 OpenAI와 Anthropic을 보자. 두 회사는 AI infra를 직접 모두 소유한다기보다, hyperscaler와 장기 cloud usage commitment를 맺는 anchor tenant에 가깝다.


Anthropic


Anthropic은 AWS와 Google 양쪽에서 대규모 custom cloud capacity를 확보하고 있다.

Amazon과 Anthropic은 확장 협력에서 Anthropic이 향후 10년간 AWS 기술에 $100B 이상을 지출하고, 최대 5GW의 Amazon Trainium capacity를 확보한다고 밝혔다. 이 capacity에는 Trainium 계열 custom silicon과 Graviton CPU가 포함된다. (aboutamazon.com)

Google 쪽은 공식 발표와 보도 수치를 구분해야 한다. Google 공식 발표는 Anthropic이 2027년부터 multiple gigawatts 규모의 TPU capacity를 확보한다는 내용까지 확인된다. 이 capacity는 Google Cloud services와 Broadcom을 통해 공급되는 Google-built TPU를 통해 제공된다. (googlecloudpresscorner.com)

다만 The Information을 인용한 Investing.com 보도에 따르면, 이 계약은 2027년부터 시작되는 5년간 약 $200B 규모이며, Google이 Anthropic에 제공하기로 한 서버 capacity는 5GW로 보도됐다. 같은 보도는 이 계약 규모가 Google의 cloud revenue backlog의 40% 이상에 해당한다고 설명했다. (investing.com)



Anthropic의 AWS 5GW와 Google 5GW는 서로 다른 cloud platform에 배치되는 capacity다. 따라서 두 물량은 중복으로 보기 어렵다. 다만 Google 5GW 계약은 보도 기준 5년짜리이므로, 10년 기준으로 연장해 보면 Anthropic의 장기 compute spend는 $500B까지 올라갈 수 있다.

OpenAI


OpenAI는 더 복잡하다. Stargate, Oracle, AWS, Broadcom, NVIDIA, AMD 물량이 모두 섞여 있기 때문이다. 여기서 중요한 점은 데이터센터·전력 capacity와 칩·시스템 capacity를 중복 계산하지 않는 것이다.

OpenAI, Oracle, SoftBank는 Stargate를 $500B / 10GW 규모의 미국 AI infrastructure buildout으로 발표했다. 또한 OpenAI와 Oracle은 Stargate의 일환으로 최대 4.5GW의 추가 capacity를 개발하는 계약을 맺었고, SoftBank 발표 기준으로 이 파트너십은 향후 5년간 $300B 이상 규모다. (openai.com, group.softbank)

OpenAI와 AWS도 전략적 파트너십을 확대했다. 공개 보도와 업계 자료 기준으로 OpenAI는 AWS Trainium capacity 약 2GW를 사용하고, 관련 계약 규모는 $100B / 8년으로 언급된다. (convergedigest.com)

반면 Broadcom 10GW, NVIDIA 10GW, AMD 6GW 같은 숫자는 칩·가속기·시스템 레이어다. 이 시스템들은 Stargate나 Oracle, AWS, 기타 partner facility 안에 들어갈 수 있다. 따라서 이를 Stargate 10GW와 그대로 더하면 같은 물리 capacity를 두 번 세는 오류가 생긴다.



따라서 OpenAI와 Anthropic을 합치면 다음과 같다.



BIG5의 80.8GW와 비교하면, OpenAI·Anthropic 22GW는 **27.2%**다. 금액 기준으로는 $0.9~1.1T로, BIG5 $4.04T 대비 22.3~27.2% 수준이다.


3. Neocloud 3사: BIG5 밖에서 약 8.4GW, 투자환산 약 $420B


여기서 끝내면 전체 AI infra 그림이 절반만 보인다. 2025~2026년 이후에는 BIG5 밖에서 Neocloud가 빠르게 커지고 있다.

Neocloud는 일반 클라우드와 다르다. 핵심 사업은 GPU·AI accelerator capacity를 대규모로 확보해 Microsoft, Meta, OpenAI, enterprise 고객에게 임대하는 것이다. CoreWeave, Nebius, Lambda가 대표적이다. 이들은 hyperscaler가 직접 모든 데이터센터를 짓는 대신, AI GPU cloud capacity를 외부에서 조달하는 통로가 되고 있다.

Neocloud 3사 capacity




CoreWeave는 Q3 기준 active power가 590MW, contracted power가 2.9GW로 확대됐고, 2025년 CapEx 가이던스는 $12~14B로 제시됐다. 회사는 backlog 확대와 AI cloud demand를 근거로 2026년 CapEx가 2025년의 두 배를 크게 넘을 수 있다고 설명했다. (convergedigest.com, fierce-network.com)

Nebius는 2026년 말까지 contracted power를 2.5GW로 늘리고, connected power를 800MW~1GW까지 확보하는 목표를 제시했다. 동시에 Microsoft와 최대 $19.4B 규모의 AI infrastructure deal, Meta와 $3B 규모의 5년 계약을 확보했다. (nebius.com, datacenterdynamics.com)

Lambda는 Microsoft와 수만 개 NVIDIA GPU 기반의 multibillion-dollar AI infrastructure agreement를 체결했다. 별도 보도에 따르면 Lambda는 장기적으로 100만 개 이상의 NVIDIA GPU와 3GW liquid-cooled data center capacity 배치를 목표로 하고 있다. (lambda.ai, datacenterdynamics.com)

따라서 Neocloud 3사만 단순 capacity target으로 보면 다음과 같다.

CoreWeave 2.9GW + Nebius 2.5GW + Lambda 3.0GW = 약 8.4GW

Stargate 기준 $50B/GW를 적용하면 투자환산 금액은 다음과 같다.

8.4GW × $50B/GW = 약 $420B

다만 이 8.4GW를 OpenAI·Anthropic 또는 BIG5 수요에 그대로 더하면 안 된다. Nebius와 Lambda의 대형 고객은 Microsoft이고, CoreWeave도 OpenAI·Microsoft·NVIDIA ecosystem과 깊게 연결돼 있다. 따라서 Neocloud capacity는 글로벌 AI 총수요에 그대로 더하는 항목이라기보다, BIG5 balance sheet 밖에서 AI CapEx를 대신 집행하는 공급층으로 보는 편이 맞다.


4. Sovereign AI D/C: UAE와 Saudi만 봐도 약 6.5GW, 투자환산 약 $325B


Neocloud 다음으로 봐야 할 축은 Sovereign AI D/C다.


Sovereign AI D/C는 기업 단위 cloud 수요보다 국가 단위의 AI 주권, 데이터 주권, 전력 인프라, 산업정책이 결합된 구조다. 미국 hyperscaler나 OpenAI가 들어가더라도, 프로젝트의 본질은 국가가 전력·부지·자본·규제를 묶어 AI compute hub를 만드는 데 있다.

현재 실행 가시성이 높은 프로젝트는 UAE와 Saudi다.



UAE-US AI Campus는 Abu Dhabi에 5GW 규모의 AI data center capacity를 구축하는 프로젝트다. OpenAI는 Stargate UAE를 1GW cluster로 설명했고, 2026년에 200MW가 우선 가동될 예정이라고 밝혔다. Gulf News도 Stargate UAE가 5GW UAE-US AI Campus 안에서 개발되는 1GW AI infrastructure cluster라고 보도했다. (openai.com, gulfnews.com)

Saudi는 HUMAIN을 중심으로 움직이고 있다. NVIDIA와 HUMAIN은 사우디아라비아에 향후 5년간 최대 500MW 규모의 AI factories를 구축한다고 발표했다. 첫 단계는 NVIDIA GB300 Grace Blackwell 기반 supercomputer 배치다. (nvidianews.nvidia.com)

여기에 AMD·Cisco·HUMAIN JV가 붙는다. 이 JV는 2030년까지 최대 1GW의 AI infrastructure를 배치하고, 2026년에 사우디에서 100MW 규모의 1차 배치를 시작할 계획이다. (newsroom.cisco.com)

따라서 실행 가시성이 높은 UAE와 Saudi만 합쳐도 다음과 같다.

UAE 5GW + Saudi 1.5GW = 약 6.5GW

Stargate 기준으로 환산하면 투자금액은 다음과 같다.

6.5GW × $50B/GW = 약 $325B

France, India, EU AI gigafactory까지 넣으면 숫자는 더 커질 수 있다. 다만 일부 프로젝트는 MoU, 정책 발표, 또는 실행 변동 가능성이 크기 때문에 기본 계산에는 넣지 않고 upside pipeline으로 처리하는 편이 안전하다.


5. BIG5 대비 신규 AI infra pool 비교


이제 전체 그림을 합쳐보자.

기준은 BIG5다.



즉 BIG5의 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C만으로도 약 36.9GW의 신규 visible pool이 형성된다. 이는 BIG5 대비 **45.7%**다.

금액 기준으로도 OpenAI·Anthropic의 발표·보도 금액 $0.9~1.1T, Neocloud의 Stargate 환산 $0.42T, Sovereign AI D/C의 Stargate 환산 $0.325T를 더하면 약 $1.645~1.845T다. 이는 BIG5의 $4.04T 대비 **40.7~45.7%**에 해당한다.

여기서 핵심은 이 숫자를 단순 합산 수요로 보면 안 된다는 점이다. Neocloud capacity의 최종 고객은 Microsoft, Meta, OpenAI일 수 있고, Sovereign AI D/C에도 OpenAI, Oracle, NVIDIA, Cisco, AMD 같은 기존 플레이어가 들어간다. 따라서 이 숫자는 “완전히 독립적인 신규 수요”라기보다, BIG5 바깥에서 새롭게 등장한 AI infra 공급·수요의 visible expansion으로 해석해야 한다.

그럼에도 결론은 분명하다.

짧은 기간에 BIG5 대비 40~46%에 해당하는 AI infra 수요처와 공급 프로젝트가 새로 보이기 시작했다.

이 정도 속도라면 병목은 수요가 아니라 공급에서 먼저 나타날 가능성이 높다.


6. 해석: 신규 AI D/C 수요처는 빠르게 생기지만, 물리적 공급망은 그렇게 빨리 늘지 못한다


OpenAI·Anthropic의 장기 cloud commitment, CoreWeave·Nebius·Lambda의 Neocloud 증설, UAE·Saudi의 Sovereign AI D/C 프로젝트를 합치면 AI infra 수요는 매우 빠르게 확산되고 있다.

문제는 공급망이다.

AI D/C 수요는 몇 개월 만에 새로 생길 수 있다. 정부가 AI campus를 발표하고, LLM 기업이 hyperscaler와 5년·10년 계약을 맺고, Neocloud가 private credit과 vendor financing으로 GPU cluster를 조달하면 신규 수요처는 빠르게 생긴다.

하지만 물리적 공급망은 다르다.

선단공정 파운드리 capacity, HBM wafer capacity, CoWoS advanced packaging capacity, ABF substrate, optical interconnect, networking switch, liquid cooling, 변압기, 전력망, 데이터센터 부지와 인허가는 단기간에 같은 속도로 늘어나기 어렵다.

특히 반도체 공급망은 장비 발주, 클린룸 증설, 공정 안정화, 수율 개선에 시간이 필요하다. 따라서 수요 증가 속도와 공급 증가 속도 사이의 mismatch는 점점 커질 수 있다.


7. 가장 큰 병목은 칩: 선단공정, HBM, Advanced Packaging


AI infra의 병목은 전력과 냉각에서도 나타나겠지만, 가장 중요한 bottleneck은 결국 칩이다.

첫 번째는 선단공정 파운드리다. NVIDIA GPU, AMD GPU, Google TPU, AWS Trainium, OpenAI custom accelerator, Broadcom ASIC은 모두 TSMC의 선단공정과 선단 패키징 생태계에 크게 의존한다. AI accelerator 수요가 늘어날수록 3nm, 4nm, 5nm급 wafer allocation 경쟁이 심화된다.

두 번째는 HBM이다. AI accelerator는 일반 DRAM이 아니라 HBM을 대량으로 필요로 한다. 최근 보도에 따르면 Samsung과 SK hynix는 AI-driven memory shortage가 2027년 이후까지 이어질 수 있다고 경고했고, 고객들이 이미 수년치 물량을 선점하고 있다는 내용도 전해졌다. HBM 공급은 SK hynix, Samsung, Micron에 집중돼 있어 신규 AI D/C 수요가 늘어날수록 병목이 더 뚜렷해진다. (tomshardware.com)

세 번째는 advanced packaging이다. 최신 AI accelerator는 GPU 또는 ASIC die와 HBM을 같은 package 안에서 고대역폭으로 연결해야 한다. 이 과정에서 CoWoS, CoWoS-L, hybrid bonding, interposer, substrate 같은 advanced packaging capacity가 필수다. TrendForce는 TSMC의 CoWoS capacity가 2026년 약 130만 units, 2027년 200만 units까지 확대될 수 있다고 보도했지만, 이 역시 빠르게 늘어나는 AI accelerator 수요를 따라잡기 위한 증설이지 공급 과잉을 의미하기는 어렵다. (trendforce.com)

결국 AI D/C가 10GW, 20GW, 30GW 단위로 늘어날 때 가장 먼저 물어야 할 질문은 “전력이 있느냐”만이 아니다. 더 중요한 질문은 그 D/C를 채울 GPU·ASIC·HBM·패키징 capacity가 실제로 있느냐다.


8. Agent AI가 오면 CPU 병목까지 부각된다


여기에 새로운 변수가 붙는다. 바로 Agent AI다.

기존 AI infra 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 하지만 Agent AI는 workload 구조를 바꾼다. Agent는 한 번의 답변을 생성하는 데서 끝나지 않는다. 여러 tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다. 이 과정에서 GPU뿐 아니라 CPU, memory, storage, networking, orchestration layer의 부담이 함께 증가한다.

최근 보도에서도 agentic AI가 확산되면서 AI data center의 CPU demand가 커지고, 일부 AI deployment에서는 CPU-GPU ratio가 기존보다 훨씬 높아질 수 있다는 분석이 나온다. Intel과 AMD의 server CPU 공급이 tight해지고 가격 인상 가능성이 부각되는 배경도 이 흐름과 연결된다. (trendforce.com, tomshardware.com)

이 점이 중요하다. CPU도 결국 선단공정 또는 준선단공정을 사용한다. 고성능 server CPU는 GPU와 동일한 선단공정 capacity를 직접적으로 공유하거나, 최소한 동일한 foundry ecosystem, advanced packaging, substrate, memory supply chain을 공유한다. 따라서 Agent AI가 본격화되면 병목은 GPU에서 끝나지 않는다. GPU와 선단공정을 share하는 CPU까지 병목에 들어오면서, 파운드리와 패키징의 physical capacity bottleneck이 더 부각될 가능성이 높다.


9. 투자 관점에서의 결론


이번 계산의 핵심은 수요가 얼마나 빠르게 늘고 있는지를 숫자로 확인하는 데 있다.

BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C에서 새롭게 보이는 visible pool은 약 36.9GW다. 이는 BIG5 대비 45.7%다. 금액 기준으로도 약 $1.65~1.85T로, BIG5 대비 40~46% 수준이다.



해석은 명확하다.

단기간에 AI D/C 수요처는 폭발적으로 늘었다. OpenAI와 Anthropic은 hyperscaler의 anchor tenant가 됐고, Neocloud는 BIG5 바깥에서 GPU cloud capacity를 빠르게 증설하고 있으며, UAE와 Saudi는 AI를 국가 전략 인프라로 보고 GW급 sovereign AI D/C를 추진하고 있다.

그러나 물리적 공급망은 신규 수요처 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. AI D/C는 발표할 수 있지만, 그 안에 들어갈 accelerator, HBM, advanced package, substrate, networking, 전력 설비는 실제 공장과 장비와 수율의 제약을 받는다.

따라서 앞으로 AI infra cycle의 핵심 병목은 다음 순서로 부각될 가능성이 높다.



결국 AI infra의 투자 결론은 단순히 “클라우드 기업이 많이 투자한다”가 아니다.

AI D/C 수요는 OpenAI·Anthropic, Neocloud, Sovereign AI까지 확산되며 BIG5 대비 40~46%에 해당하는 신규 visible pool을 만들고 있다. 하지만 그 수요를 실제 capacity로 전환하는 병목은 선단공정 파운드리, HBM, advanced packaging, 그리고 agent AI로 인해 다시 중요해지는 server CPU에 있다.

따라서 이번 cycle에서 가장 중요한 투자 포인트는 hyperscaler의 CapEx 규모만 보는 것이 아니다. 더 중요한 것은 그 CapEx가 실제 물리적 capacity로 전환되는 경로에서 누가 bottleneck pricing power를 갖는가다.

그 관점에서 보면 향후 가장 부각될 영역은 분명하다.

파운드리, HBM, advanced packaging, substrate, optical interconnect, 그리고 AI server CPU까지 포함한 반도체 physical capa bottleneck이다.



TSMC


INTEL


GlobalFoundries


Amkor Technology


ASE Technology


UMC






이전 전력반도체 기업군들과의 통합비교


=끝

2026년 5월 3일 일요일

생각정리 239 (* Defense supply bottleneck-2)

이전글에 이어 한국 K 미사일 시장에 대한 전망 리서치를 기록해본다.


한국 방공·타격 미사일 산업의 2030년 성장 전망


서방 공급망 병목이 K-미사일 수요로 전이되는 구조


핵심 결론부터 정리하면, 서방 미사일·방공 공급망 병목이 2030년까지 지속될 경우 한국산 방공·타격 미사일 산업은 글로벌 시장에서 의미 있는 점유율을 확보할 가능성이 높다. 2030년 연간 기준 한국산 방공·타격 미사일 통합 시장 기회는 Base Case 70억~95억 달러, 원화 환산 10.3조~14.0조원 수준으로 추정된다. Bull Case에서는 115억~150억 달러, 원화 17.0조~22.1조원까지 확대될 수 있다. 환율은 1달러=1,475원으로 고정한 추정이다. 추정의 기본 골격은 기존 방공·요격 미사일 전망에 천무 중심의 타격용 미사일·장거리 정밀화력 시장을 통합한 시나리오에 기반한다.

글로벌 시장점유율은 분모를 어떻게 설정하느냐에 따라 달라진다. 보수적으로 통합 방공·미사일방어 시장과 정밀유도무기 시장을 함께 보면 Base Case 점유율은 6~8% 수준이다. 순수 미사일 시장을 기준으로 보면 7.5~10% 수준까지 상승한다. 한국이 실제로 접근 가능한 중동·유럽·아시아 우방국 시장만 보면 Base Case 점유율은 20% 안팎, Bull Case에서는 30% 이상도 가능하다.





1. 글로벌 미사일 시장 현황


글로벌 미사일 시장은 요격용 미사일 부족타격용 장거리 정밀화력 재무장이 동시에 진행되는 구간이다. 러시아-우크라이나 전쟁, 이란·이스라엘 충돌, 홍해·호르무즈 해협 불확실성, 미국의 유럽 안보공약 약화 가능성이 겹치면서 각국은 방공망뿐 아니라 적 지휘소·포병·방공망을 선제 타격할 수 있는 장거리 화력까지 확충하고 있다.

현재 가장 큰 병목은 미국산 고성능 요격탄 재고 부족이다. PAC-3 MSE, THAAD, SM-3, SM-6 같은 고성능 요격탄은 현대전에서 가장 희소한 자산으로 평가된다. 방공·미사일 방어 요격탄은 더 이상 선택 장비가 아니라 현대전의 필수 진입비용이다. 유럽과 중동은 미국산 방공체계와 요격탄 의존도가 높기 때문에, 우크라이나 지원과 중동 방어 수요가 겹칠 경우 자국 방공망 보강에도 병목이 생기는 구조이다.

동시에 타격용 시장도 빠르게 커지고 있다. 우크라이나 전쟁은 장거리 정밀화력이 단순 화력 지원이 아니라 적 후방 지휘소, 탄약고, 방공망, 병참망을 마비시키는 핵심 전력임을 보여줬다. 이 때문에 유럽 NATO 국가들은 HIMARS, M270, K239 천무, PULS·EuroPULS 같은 장거리 정밀화력 체계를 경쟁적으로 도입하고 있다.



한국산 체계의 포지션은 두 갈래이다. 첫째, 천궁-II·L-SAM은 방공·요격 시장에서 미국 Patriot·THAAD의 보완재로 부상하고 있다. 둘째, K239 천무는 타격용 장거리 정밀화력 시장에서 HIMARS의 대안으로 유럽 레퍼런스를 쌓고 있다. 한국산 체계는 가격, 납기, 패키지형 수출, 현지생산 협력에서 강점을 갖는다.


2. 전체 미사일 시장의 2030년 성장 전망


미사일 시장은 단일 시장으로 보면 안 된다. 투자 관점에서는 방공·요격 시장타격용 미사일·로켓 시장을 나눠야 한다. 방공·요격 시장은 천궁-II와 L-SAM의 수출 가능성과 연결되고, 타격용 시장은 천무와 유도로켓, 전술미사일, 장거리 정밀화력 수요와 연결된다.

전체 미사일 시장은 2023년 557억 달러에서 2030년 936억 달러로 성장할 전망이다. 환율 1,475원 기준으로는 82.2조원에서 138.0조원으로 확대되는 시장이다. 통합 방공·미사일방어 시장은 더 빠르게 성장한다. IAMD 시장은 2025년 379억 달러에서 2030년 684억 달러로 성장할 전망이며, 원화 기준으로는 55.9조원에서 100.9조원으로 확대되는 시장이다. 정밀유도무기 시장은 2025년 372억 달러에서 2030년 497억 달러로 성장할 전망이다.


주의할 점은 위 시장을 단순 합산하면 안 된다는 점이다. IAMD에는 요격미사일 외에 레이더·센서·지휘통제·발사대가 포함된다. 정밀유도무기에는 요격미사일과 타격용 미사일, 로켓, 배회탄이 함께 들어간다. 따라서 기업 실적 전망에는 시장조사 TAM보다 실제 계약 기반 SOM이 더 중요하다.



3. 지역별·국가별 미사일 성장 전망


지역별로 보면 방공·요격은 중동, 타격용 미사일·로켓은 유럽이 중심이다. 중동은 이란의 탄도미사일·드론 위협 때문에 다층 방공망 수요가 명확하다. 유럽은 러시아 위협 때문에 방공망과 장거리 정밀화력을 동시에 확충해야 한다.



중동은 한국산 방공체계의 가장 확실한 시장이다. UAE, 사우디, 이라크가 이미 천궁-II 레퍼런스를 제공했다. 향후에는 후속 포대, 예비탄, MRO, 업그레이드 수요가 붙을 가능성이 높다. 특히 걸프 지역은 이란의 미사일·드론 위협에 대응하기 위해 Patriot, THAAD, 천궁-II, 향후 L-SAM까지 조합하는 다층 방공망을 구축할 필요가 있다.

유럽은 방공과 타격용 시장이 동시에 커지는 지역이다. NATO 회원국들의 방위비 지출 확대는 방공망, 탄약, 장거리 화력, 지휘통제 투자를 동시에 확대시키는 배경이다. 한국산 천무는 폴란드, 노르웨이, 에스토니아 계약을 통해 유럽 장거리 정밀화력 시장에서 레퍼런스를 축적하고 있다. 특히 폴란드 현지생산 계약은 단순 수출이 아니라 유럽 내 생산 기반 구축이라는 점에서 의미가 크다.




4. 한국산 방공·타격 미사일 TAM/SAM/SOM 전망


TAM/SAM/SOM은 다음과 같이 정의한다.



2030년 연간 기준으로 보면, 한국산 방공·타격 미사일 통합 SOM은 Base Case 70억~95억 달러, 원화 10.3조~14.0조원 수준이다. 이 중 방공·요격은 50억~65억 달러, 타격용 미사일·로켓은 20억~30억 달러로 추정된다. Bull Case에서는 방공·요격 80억~100억 달러, 타격용 35억~50억 달러, 합산 115억~150억 달러까지 가능하다.



2026~2030년 누적 신규 수주 기준으로 보면 Base Case는 더 중요하다. 방산 기업 실적과 주가에는 단일 연도 매출보다 수년 누적 신규수주와 백로그 전환 속도가 더 큰 영향을 주기 때문이다. 한국산 방공·타격 미사일 통합 Base Case 신규수주 풀은 350억~500억 달러, 원화 51.6조~73.8조원으로 추정된다. Bull Case에서는 550억~800억 달러, 원화 81.1조~118.0조원까지 확대될 수 있다.


지역별로 보면 기존 방공·요격 시장은 중동 중심이고, 새로 추가되는 타격용 미사일·로켓 시장은 유럽 중심이다. 따라서 통합 수주 풀에서는 중동의 천궁-II 후속 수요유럽의 천무 확산이 양대 축이다.





5. 글로벌 점유율 추정


K-미사일 시장점유율은 분모를 어떻게 정의하느냐에 따라 달라진다. 전체 IAMD+PGM 시장을 분모로 쓰면 점유율은 낮아지고, 순수 미사일 시장이나 한국 접근 가능 시장을 분모로 쓰면 점유율은 높아진다.

Base Case 기준으로 K-미사일은 2030년 글로벌 보수적 시장 기준 5.9~8.0%, 순수 미사일 시장 기준 7.5~10.1%를 차지할 수 있다. 한국 접근 가능 SAM 기준으로는 **17~33%**까지 가능하다. 이 수치는 글로벌 전체 시장을 한국이 먹는다는 의미가 아니다. 한국이 접근 가능한 중동·유럽·아시아 우방국 시장에서 높은 침투율을 달성할 수 있다는 의미이다.



가장 적절한 표현은 다음과 같다. 2030년 K-미사일 방산은 글로벌 전체 시장 기준으로 Base Case 6~10%, Bull Case 10~15% 수준의 점유율을 확보할 수 있다. 접근 가능한 중동·유럽·아시아 우방국 시장만 놓고 보면 Base Case 20% 안팎, Bull Case에서는 30% 이상도 가능하다.

여기서 30% 이상은 글로벌 전체 시장이 아니라 한국이 실제로 경쟁 가능한 비미국·비중국·비러시아 우방국 시장에 한정한 수치이다. 미국 본토 조달, 중국·러시아권, 이스라엘 자체 체계 중심 시장은 한국 업체가 의미 있게 침투하기 어렵기 때문이다.


6. 한국 기업별 방공·타격 미사일 매출 및 이익 풀 전망


기업별 역할은 명확하게 갈린다. LIG넥스원은 방공·요격 체계의 주계약자, 한화시스템은 방공 레이더와 센서, 한화에어로스페이스는 천무·장거리 정밀화력과 방공 하위체계에서 수혜를 받는 구조이다.



중요한 점은 방공·요격 계약에서 LIG넥스원과 한화 계열사의 매출이 일부 중복된다는 점이다. LIG넥스원이 주계약자로 총액을 인식하고, 그 안에서 한화시스템과 한화에어로스페이스가 하위체계 매출을 인식하는 구조이다. 반면 천무는 한화에어로스페이스 중심의 별도 매출 풀이다.

계약 10억 달러당 민감도를 보면 한화에어로스페이스는 타격용 미사일·로켓 시장을 포함할 때 이익 레버리지가 크게 확대된다. LIG넥스원은 방공·요격 시장에서 매출 직접성이 가장 높고, 한화시스템은 레이더와 센서의 고부가 하위체계 수혜가 핵심이다.


2026~2030년 누적 매출·이익 풀 Base Case에서는 LIG넥스원이 방공·요격 시장에서 가장 직접적인 수혜를 받는다. 다만 천무·타격용 시장을 포함하면 한화에어로스페이스의 누적 매출 풀과 이익 풀 확대가 가장 크다.



2030년 연간 매출 run-rate 기준으로도 같은 결론이다. LIG넥스원은 방공·요격 시장에서 가장 직접적인 매출 레버리지를 가진다. 반면 한화에어로스페이스는 방공 발사대·발사관에 더해 천무·유도로켓·장거리 정밀화력 매출이 붙기 때문에, 통합 미사일·로켓 시장에서는 이익 풀 확대 폭이 가장 크다.




7. 시나리오별 핵심 가정


Base Case는 공격적이지만 무리한 가정은 아니다. 이미 중동 방공 레퍼런스와 유럽 천무 레퍼런스가 확인됐기 때문이다. UAE, 사우디, 이라크는 천궁-II 레퍼런스를 제공했고, 폴란드·노르웨이·에스토니아는 천무 레퍼런스를 제공했다. 여기에 서방 요격탄과 장거리 정밀화력 공급 병목이 장기화될 경우 한국산 체계는 가격·납기·패키지 수출 경쟁력을 바탕으로 추가 점유율을 확보할 수 있다.





최종 정리


기존 한국 방공·요격 미사일 시장만 보면 LIG넥스원의 수혜가 가장 직접적이다. 그러나 천무·타격용 미사일 시장을 통합하면 결론이 확장된다. 한국 미사일 산업의 2030년 투자 포인트는 중동의 천궁-II 후속 수요, 유럽의 천무 확산, L-SAM 수출 레퍼런스 확보, 미국산 요격탄·HIMARS 계열 공급 병목으로 압축된다.



기업별로는 LIG넥스원은 방공·요격 시장의 주계약자, 한화시스템은 레이더 고부가 하위체계, 한화에어로스페이스는 천무·장거리 정밀화력까지 포함한 통합 미사일·로켓 수혜주이다. 특히 타격용 시장을 포함하면 한화에어로스페이스의 2026~2030년 누적 미사일·로켓 매출 풀은 Base Case 기준 20.3조~32.5조원까지 확대될 수 있다.

최종적으로 한국산 미사일 산업은 글로벌 전체 시장을 장악하는 구조가 아니라, 서방 공급 병목이 발생한 중동·유럽·아시아 우방국 시장에서 빠른 납기와 가격 경쟁력으로 점유율을 흡수하는 구조이다. 따라서 2030년까지 K-미사일 방산의 핵심 변수는 단순 수요가 아니라 생산능력 확장, 수출금융, 현지생산 협력, L-SAM 레퍼런스 확보, 천무 유도탄 반복수요이다.


LIG디펜스앤에어로스페이스

=끝