2026년 5월 7일 목요일

이모저모

조직문화, 납득, 그리고 환경의 힘

최근 즐겨 보던 주식·자산운용사 관련 판타지 웹소설이 아쉽게도 비공개로 전환되었다.

그 작품에는 ESG와 기업지배구조 개선을 명분으로 자산운용사가 기업에 변화를 요구하는 에피소드가 있었다. 처음에는 웹소설 속 하나의 장면으로 가볍게 읽고 있었지만, 어느 순간 그 이야기가 예전 직장생활에서 오래도록 마음에 남아 있던 경험과 겹쳐 보였다.

그때의 감정이 다시 떠올랐다. 그래서 이번 글에서는 그 기억을 바탕으로 조직문화, 일하는 방식, 그리고 개인의 커리어에 대한 생각을 기록해보고자 한다.

개인적으로 조직은 지시와 압박만으로 오래 유지되기 어렵다고 생각한다. 업무를 잘해내는 것도 물론 중요하다. 하지만 그보다 더 중요한 것은 구성원들이 그 일을 스스로 납득하고 움직일 수 있는 분위기라고 느낀다. 아무리 방향이 옳고 목표가 좋아도, 그것이 일방적인 방식으로만 전달되면 조직 안에는 서서히 피로감이 쌓이기 마련이다.

예전에 몸담았던 운용사에는 ROE라는 지표를 매우 중요하게 보는 매니저가 있었다. ROE는 기업을 분석할 때 분명 중요한 지표이다. 기업의 수익성과 자본 효율성을 판단하는 데 필요한 기준이기도 하다.

다만 기업을 바라볼 때는 ROE 하나만으로 설명하기 어려운 요소들이 많다. 기술에 대한 이해, 산업의 경쟁 구도, 장기 성장성, 거시환경 변화, 경영진의 자본배분 능력 등이 함께 고려되어야 한다. 당시에는 이런 다양한 맥락보다 특정 지표에 대한 강조가 더 크게 느껴졌고, 그 과정에서 주니어 직원들이 감당해야 하는 부담도 적지 않았다.

그 부담은 시간이 지날수록 조직의 분위기에도 영향을 주었다. 구성원들 사이에는 피로감이 누적되었고, 주니어 직원들끼리는 자연스럽게 업무 방식에 대한 아쉬움을 나누는 일이 많아졌다. 능력 있는 사람들 중 일부는 더 잘 맞는 환경을 찾아 하나둘 자리를 옮기기 시작했다.

돌이켜보면 그 시기는 특정한 한 사람의 문제로만 설명하기 어렵다. 오히려 조직 안에서 신뢰와 소통 방식이 얼마나 중요한지를 체감했던 시간에 가까웠다.

당시에는 불필요한 요청을 받아줄 사람이 점점 줄어들다 보니, 자연스럽게 일이 내게 몰리는 경우가 많았다. 이메일이 오면 내용을 확인하기도 전에 마음이 무거워졌던 기억이 있다. 나 역시 최선을 다하려 했지만, 어느 순간부터는 일의 의미를 충분히 납득하기보다 요구되는 수준에 맞춰 기계적으로 자료를 만들어내는 데 집중하게 되었다.

업무를 처리할 수 있는 환경 자체가 부족했던 것은 아니었다. 당시에는 블룸버그 단말기와 데이터가이드 같은 유료 데이터 툴을 충분히 활용할 수 있었기 때문에 필요한 자료를 찾고 정리하는 일은 어느 정도 가능했다.

그러나 시간이 갈수록 마음속에는 한 가지 질문이 남았다. 이 일을 왜 하고 있는지, 이 과정이 나와 조직 모두에게 어떤 의미가 있는지에 대한 답을 찾기 어려웠다. 결국 업무의 양보다 더 힘들었던 것은, 그 일을 해야 하는 이유에 대한 공감이 부족했다는 점이었다.

이 경험을 떠올리다 보니 최근 한국 시장에서 전개되고 있는 ESG와 기업지배구조 개선 논의도 조금 다른 시선으로 바라보게 된다. 기업 오너와 이사회에 변화를 요구하고, 그 뒤에서 관련 논리와 자료를 준비하는 운용사 내부 구성원들 역시 각자의 위치에서 적지 않은 부담과 복잡한 감정을 느끼고 있을 수 있겠다는 생각이 든다.

사람의 성향과 조직의 문화는 단기간에 쉽게 바뀌지 않는다. 개인에게 오랜 시간 축적된 사고방식과 행동양식이 있듯, 기업에도 긴 시간에 걸쳐 형성된 문화와 의사결정 방식이 존재한다.

그렇기 때문에 외부에서 변화를 요구할 때는 그 조직이 지나온 시간과 맥락을 함께 이해하려는 태도가 필요하다. 동시에 타자가 요구하는 변화에 대한 본능적인 거부감을 넘어서는 일 자체가 결코 쉽지 않다는 점도 함께 고려해야 한다.

운용사 내부 직원 입장에서도 상황은 단순하지 않다. 회사의 방향과 상사의 지시에 따라 맡은 일을 수행해야 하지만, 그 일이 자신의 커리어와 가치관에 얼마나 부합하는지는 또 다른 문제이다. 겉으로는 주어진 역할을 해내고 있어도, 마음 한편에서는 전혀 다른 고민을 하고 있을 수 있다.

결국 일은 직책으로 수행하지만, 커리어는 개인의 납득과 방향성 위에서 쌓여간다.

특히 지금은 AI가 산업과 생태계 전반을 빠르게 바꾸고 있는 시기이다. 기업분석과 투자업계 역시 예외가 아니다. 데이터 처리 방식, 리서치 방법론, 산업의 성장축이 모두 달라지고 있다. 이런 큰 변화의 한가운데에서 개인이 어디에 시간을 쓰고, 무엇에 집중해야 하는지 고민하는 것은 자연스러운 일이다.

그런 점에서 AI가 만들어내는 거대한 변화의 시기에, 누군가의 성향과 조직문화에 정면으로 부딪힐 수밖에 없는 문제를 다루는 일이 투자업에 발을 들인 사람들에게 얼마나 자연스럽게 받아들여질 수 있을지 생각하게 된다.

특히 본질적으로 기업과 산업을 분석하고, 좋은 투자기회를 찾는 일을 좋아해 이 업계에 들어온 사람이라면 더욱 그럴 수 있다. 갈등과 법적 공방의 성격이 강한 업무를 계속 감당하는 과정에서 적지 않은 고민을 느낄 수도 있겠다는 생각이 든다.

물론 이런 생각을 글로 남기는 나 역시 누군가의 일을 바깥에서 쉽게 말하고 있는 것은 아닌지 조심스럽다. 다만 웹소설 속 에피소드를 읽다가 오래전 경험이 떠올랐고, 그때 느꼈던 피로감과 고민이 지금의 여러 장면과 겹쳐 보여 이렇게 기록으로 남겨본다.



사람은 자신이 속한 환경의 영향을 크게 받는다고 한다. 어떤 사람들과 일하는지, 어떤 언어를 주고받는지, 어떤 기준이 반복되는지에 따라 생각과 태도도 조금씩 달라진다. 좋은 환경은 사람을 성장시키지만, 피로가 누적되는 환경은 사람을 서서히 지치게 만든다.

그래서 자신의 판단이 틀렸다고 느끼거나, 자신이 속한 조직과 환경이 기대했던 방향과 다르게 흘러가고 있음을 인지했다면, 그 사실을 빠르게 인정하고 다른 길을 모색할 수 있어야 한다고 생각한다.

한 방향만 고집스럽게 붙잡기보다, 지금의 선택이 나 자신과 주변 사람들에게 어떤 영향을 주고 있는지 차분히 돌아보는 태도가 필요하다.

결국 오래 지속되는 관계와 조직은 강한 지시보다 신뢰, 압박보다 납득, 명분보다 진정성 위에서 만들어진다.

마지막으로 쇼펜하우어의 『인생수업』에서 좋아하는 문구로 글을 마무리해본다.

모든 사물은 원래 무색무취로 세상에 나오지만,
무엇과 함께 있었는지에 따라 그 향과 냄새를 지닌 존재로 바뀐다.

향을 쌌던 종이는 시간이 지나도 향기를 품고,
생선을 꿰었던 새끼줄은 아무리 씻어도 비린내를 버리지 못하듯이 말이다.

사람도 마찬가지다.

어떤 인연과 환경 속에 오래 머무느냐에 따라 삶의 방향과 결이 조금씩 달라진다.

내 곁에 있는 사람들의 총합이 내 미래가 된다.

그들의 말투가 나의 말투가 되고,
그들의 방식이 나의 습관이 되며,
그들의 수준이 나의 미래가 된다.

결국 중요한 것은 내가 어떤 환경에 머물고 있는지, 그리고 내 곁에 어떤 사람들이 있는지 돌아보는 일이다.

지금 내 주변의 사람들이 나를 더 나은 방향으로 이끌고 있는지,
나 역시 누군가에게 좋은 영향을 주는 사람이 되고 있는지 한 번쯤 차분히 생각해볼 필요가 있지않나 싶다.

=끝

생각정리 242 (* Agent AI, CPU market)

이전글에 이어 agent ai시대의 cpu 시장에 대해 추가 리서치를 이어나가본다.

Agent AI 시대의 CPU 시장


TAM 상향보다 중요한 것은 “누가 실제로 만들 수 있느냐”다


CPU 시장을 다시 봐야 하는 이유는 단순하다. 최근 Arm과 AMD가 거의 같은 시점에 CPU TAM을 크게 상향했고, 두 회사 모두 공통적으로 수요보다 공급망 확보가 더 큰 변수라는 메시지를 내고 있기 때문이다.

Agent AI가 확산되면 CPU 수요는 서버 안에서만 늘어나는 문제가 아니다. 데이터센터의 head node, control plane, inference orchestration뿐 아니라 PC, 워크스테이션, 스마트폰, IoT까지 확장될 가능성이 있다. 결국 투자 포인트는 “CPU 수요가 늘어날 것인가”를 넘어, 그 수요를 누가 실제 웨이퍼·패키징·테스트 캐파로 받아낼 수 있느냐로 이동하고 있다.


Arm: AGI CPU는 TAM을 다시 쓰는 사건이다


Arm은 2026년 3월 Arm AGI CPU를 공개했다. 이 제품은 Arm이 단순 IP 라이선스와 로열티 모델을 넘어 직접 데이터센터용 CPU 실리콘을 공급하겠다는 첫 번째 본격 사례라는 점에서 의미가 크다.  (Arm Newsroom)

Arm의 핵심 메시지는 명확하다. Agent AI 데이터센터에서는 CPU가 단순 보조 연산 장치에 머물지 않고, accelerator management, control plane processing, API hosting, task hosting 같은 역할을 담당하게 된다. Arm이 공식 자료에서 AGI CPU의 주요 사용처를 이 영역으로 제시했다는 점은 CPU 수요가 “기존 서버 교체 수요”보다 훨씬 넓은 범위에서 발생할 수 있음을 보여준다. (Arm Newsroom)

최근 실적 관련 보도에서는 이 숫자가 더 구체화됐다. Arm은 FY2027~FY2028 합산 기준 20억 달러 이상의 AGI CPU 고객 수요를 확보했으며, 이는 최초 발표 당시보다 두 배 이상 커진 수준으로 보도됐다. 동시에 회사는 현재 확보 가능한 공급으로는 약 10억 달러 수준의 수요를 대응할 수 있다고 언급하면서, 추가 매출 인식의 관건이 수요가 아니라 제조·메모리·패키징 공급망 확보에 있다고 설명했다. (마켓워치)

이 지점이 중요하다. Arm이 말하는 장기 1,000억 달러 이상의 데이터센터 CPU TAM은 공격적인 숫자지만, 시장이 주목해야 할 핵심은 숫자 그 자체보다 직접 칩 판매가 Arm의 TAM을 구조적으로 재정의한다는 점이다. 기존에는 Arm 기반 칩이 많이 팔려도 Arm은 로열티 중심으로 수익을 가져갔다. 이제는 데이터센터 CPU 시장에서 직접 제품 매출이 발생할 수 있는 구조로 바뀌고 있다.


#ARM 

NOW



2M before



AMD: 서버 CPU TAM 전망이 다시 올라갔다


AMD도 같은 방향을 보고 있다. AMD는 2026년 1분기 실적 발표에서 Agent AI에 따른 CPU compute requirement 증가를 근거로 서버 CPU TAM 전망을 크게 높였다. 리사 수 CEO는 2025년 11월 Financial Analyst Day에서 제시했던 연평균 약 18% 성장률 전망을 상향해, 서버 CPU TAM이 2030년까지 연평균 35% 이상 성장하며 1,200억 달러 이상에 도달할 수 있다고 밝혔다. (야후 금융)

이 발언은 Arm의 메시지와 맞닿아 있다. Agent AI가 확산되면 데이터센터는 GPU만 더 붙이는 구조로 끝나지 않는다. GPU/XPU를 효율적으로 활용하려면 더 많은 CPU 코어가 필요하고, workload orchestration, scheduling, networking, memory coordination, storage access 같은 영역에서 CPU의 부담이 커진다.

여기서 중요한 것은 AMD가 단순히 CPU 제품 경쟁력을 강조한 것이 아니라, 장기 고객 수요와 캐파 플래닝 논의가 동시에 깊어지고 있다고 언급했다는 점이다. 수요 전망의 상향과 공급망 논의가 같이 등장한다는 것은 시장의 병목이 점차 “설계”에서 “실제 공급”으로 이동하고 있음을 의미한다.


#AMD

NOW


2M Before



서버 CPU만 보면 그림이 작다


CPU 시장을 데이터센터 서버에만 국한해서 보면 이 변화의 폭을 과소평가할 수 있다. Agent AI는 일부 작업을 클라우드에서 처리하더라도, 점차 더 많은 연산과 실행 환경을 엣지 디바이스로 밀어낼 가능성이 있다.

이미 Apple Mac에서 초기 신호가 보인다. 9to5Mac은 2026년 4월 말 Apple 실적 발표를 인용해 Mac mini와 Mac Studio의 공급 부족이 수개월간 이어질 수 있다고 보도했다. 팀 쿡은 두 제품이 AI와 agentic tools를 위한 훌륭한 플랫폼으로 인식되면서 수요가 예상보다 빠르게 늘었다고 설명했다. 동시에 Apple은 advanced node와 메모리 부품 제약을 공급 부족의 주요 원인으로 언급했다. (9to5Mac)

이 사례는 서버 밖 CPU 수요를 이해하는 데 중요하다. 로컬 AI 모델, 개발자용 에이전트, 코드 자동화 도구, 개인화된 온디바이스 워크로드가 늘어나면 PC와 워크스테이션의 요구 사양도 올라갈 수밖에 없다. 지금은 메모리 가격과 부품 부족 때문에 일부 디바이스 출하가 눌리는 국면일 수 있지만, 중장기적으로는 Agent AI가 PC·노트북·스마트폰·IoT 전반의 사양 업그레이드 사이클을 자극할 가능성이 높다.


그래서 투자 포인트는 “기술 우위”보다 “물리적 병목”이다


CPU 시장의 기술 경쟁력만 보면 Arm과 AMD가 Intel보다 더 매력적으로 보이는 부분이 많다. Arm은 전력 효율과 생태계 확장성이 강하고, AMD는 EPYC 기반으로 서버 CPU 시장에서 점유율을 꾸준히 확대해왔다. 반면 Intel은 공정 경쟁력 회복과 서버 CPU 점유율 방어라는 과제를 동시에 안고 있다.

그럼에도 지금의 상위 투자 포인트는 기술 우위보다 physical bottleneck에 더 가깝다. AI 인프라 수요가 서버에서 PC와 엣지까지 번지면, 시장은 결국 “누가 더 좋은 CPU를 설계하느냐”만 보지 않는다. 누가 웨이퍼를 확보하고, 첨단 패키징을 처리하고, 테스트까지 통과시켜 실제 제품을 출하할 수 있느냐를 보게 된다.

Arm이 강한 수요에도 불구하고 가이던스를 보수적으로 유지한 이유도 이 지점에 있다. 수요는 이미 확인됐지만, 웨이퍼·메모리·패키징·테스트 장비를 확보해야 매출로 연결된다. AMD 역시 서버 CPU TAM을 크게 올려 잡으면서 동시에 장기 캐파 플래닝을 강조했다. 이 두 회사의 발언을 종합하면, CPU 시장의 다음 병목은 단순 설계 경쟁이 아니라 생산 가능 캐파와 후공정 처리 능력이다.


Intel을 다시 봐야 하는 이유: EMIB와 후공정 캐파


이 관점에서 보면 Intel의 상대적 매력이 다시 부각된다. Intel의 약점은 명확하다. x86 CPU 시장 점유율 방어, 공정 리더십 회복, 파운드리 고객 확보 모두 아직 검증이 필요하다. 그러나 AI 인프라 병목이 첨단 패키징과 물리적 캐파로 이동하는 국면에서는 Intel의 강점도 뚜렷해진다.

TrendForce는 Intel이 EMIB 첨단 패키징 캐파를 미국 오리건과 베트남을 중심으로 확장하고 있으며, 대만 장비업체에 대규모 발주를 진행해 2026년 하반기 납품이 예정돼 있다고 보도했다. 또한 Intel이 코스타리카의 일부 조립·패키징·테스트 기능을 베트남 SHTP로 이전하고, 베트남 생산이 데이터센터 서버용 칩에 집중될 것이라고 전했다. (TrendForce)

[뉴스] 인텔은 미국과 베트남에서 EMIB 확장 확대를 확대하고 있으며, 대만 공구 주문은 2026년 2분반 인도 예정 예정입니다

EMIB 수율 관련 보도도 주목할 만하다. TrendForce는 Wccftech 보도를 인용해 Intel EMIB가 약 90% 수준의 수율에 도달했고, Google과 Meta가 잠재 채택 후보로 거론되고 있다고 전했다. 다만 대량 양산을 위해서는 90%에서 98% 수준까지 끌어올리는 과정이 훨씬 어렵다는 지적도 함께 제시했다. 이 부분은 Intel 투자 아이디어의 업사이드와 리스크를 동시에 보여준다. (TrendForce)

즉, Intel의 강점은 “지금 당장 CPU 기술에서 Arm·AMD를 압도한다”는 논리가 아니다. 핵심은 첨단 패키징 병목이 심해질수록 Intel이 대체 캐파 공급자로 호출될 가능성이다. TSMC CoWoS가 타이트하고, 고성능 CPU·GPU·XPU·ASIC 수요가 동시에 늘어나는 구간에서는 고객사들이 두 번째, 세 번째 공급 옵션을 확보하려 할 수밖에 없다.


#Intel

NOW


4M before



Apple의 움직임도 같은 방향을 가리킨다


Apple 역시 TSMC 의존도를 낮추기 위한 공급망 다변화 가능성이 보도됐다. Bloomberg를 인용한 보도들에 따르면 Apple은 미국 내 주요 디바이스 칩 생산을 위해 Intel과 초기 논의를 진행했고, Samsung의 텍사스 공장도 검토한 것으로 알려졌다. 아직 확정 주문은 아니지만, Apple이 TSMC 외 대안을 탐색한다는 사실 자체가 현재 첨단 노드와 패키징 캐파가 얼마나 전략적 자산이 됐는지를 보여준다. (TrendForce)








이 움직임은 단순히 Apple의 공급망 이슈로 볼 문제가 아니다. AI 데이터센터 수요가 첨단 노드와 패키징 캐파를 빨아들이고, 동시에 Mac 같은 고성능 엣지 디바이스 수요도 올라오면, Apple 입장에서는 TSMC 단일 의존 리스크를 줄일 필요가 커진다. 이때 Intel과 Samsung은 기술적 완성도와 수율 검증이 필요하지만, 전략적 대안으로서의 가치는 높아질 수 있다.


#APPLE






결론: CPU 시장의 핵심 질문이 바뀌고 있다


CPU 시장은 다시 성장 국면에 들어섰다. Arm은 AGI CPU를 통해 데이터센터 CPU 시장에서 직접 매출 기회를 만들고 있고, AMD는 Agent AI를 근거로 서버 CPU TAM 전망을 2030년 1,200억 달러 이상으로 상향했다. Apple Mac 사례는 Agent AI 수요가 서버 밖 디바이스 시장까지 확산될 수 있다는 신호를 제공한다.

다만 이 시장을 볼 때 가장 중요한 질문은 “누가 가장 좋은 CPU를 만드느냐”에만 머물러서는 안 된다. 지금은 누가 실제 생산 캐파를 확보할 수 있느냐, 누가 첨단 패키징 병목을 완화할 수 있느냐, 누가 고객사들의 공급망 다변화 수요를 받아낼 수 있느냐가 더 중요한 구간이다.

그 관점에서 보면 시장이 Arm과 AMD를 먼저 보는 것은 자연스럽다. 두 회사 모두 CPU 수요 증가의 직접 수혜가 크고, 제품 경쟁력도 분명하다. 그러나 physical bottleneck을 상위 투자 포인트로 놓고 보면 Intel 역시 과소평가하기 어렵다. 특히 EMIB, 미국·베트남 후공정 확장, 잠재 hyperscaler 고객 확보 가능성은 Intel이 단순 CPU 점유율 방어주가 아니라 AI 인프라 병목 완화 플레이어로 재평가될 수 있는 근거다.

AI가 촉발한 수요는 이제 GPU에서 멈추지 않는다. CPU, 메모리, 패키징, 테스트, 전력, 엣지 디바이스까지 연쇄적으로 번지고 있다. 앞으로의 관전 포인트는 이 수요의 크기보다, 그 수요를 실제 제품으로 바꿀 수 있는 물리적 공급망을 누가 갖고 있는가에 있다.


AI가 촉발한 수요의 불씨가 거대한 산불이 되어 어디까지 확산될지 지켜볼 뿐이다..















=끝

2026년 5월 6일 수요일

생각정리 241 (* LLM Compute Leverage, Memory )

OpenAI와 Anthropic의 2030년 수익모델을 추정하는 과정에서 생긴 질문들을 따라가다 보니, 리서치가 AI 데이터센터 용량, ARPU, 토큰 경제, CPU·메모리 병목으로 이어졌다.

이번 글의 결론부터 말하면 다음과 같다. LLM 기업은 Agent AI 기능에 광고와 커머스 수수료를 붙여 ARPU를 높일 유인이 크다. 동시에 Agent AI 도입으로 CPU와 GPU 수요가 선형적으로 증가하는 동안, CPU당 탑재되는 DRAM 용량과 메모리 사용량은 훨씬 더 가파르게 증가할 가능성이 있다.

아래는 그 흐름을 두서없이 정리한 글이다.

OpenAI와 Anthropic의 2030년 목표 실적: 병목은 데이터센터를 넘어 ARPU·CPU·메모리로 이동한다


OpenAI

OpenAI


Anthropic


Anthropic


22GW의 AI 데이터센터로 2030년 목표 실적을 만들 수 있는가


AI 데이터센터에서 말하는 GW는 전력 단위다. 쉽게 말하면 AI 모델을 학습시키고, 추론을 돌리고, AI 에이전트가 여러 작업을 처리하는 데 필요한 거대한 AI 공장의 전력 규모다.

이전 글에서는 OpenAI와 Anthropic의 visible AI 데이터센터 용량을 중복 제거 기준으로 약 22GW로 정리했다. 당시 OpenAI·Anthropic 22GW는 BIG5의 AI infra-equivalent capacity 80.8GW 대비 약 **27.2%**에 해당한다고 보았다. 

그런데 별도 수익모델에서 2030년 목표 실적을 맞추기 위해 이론적으로 필요한 AI 데이터센터 용량은 약 37.5GW에 가깝다. 즉 현재 보이는 22GW와 비교하면 약 15.5GW의 차이가 발생한다.

이 차이는 단순히 “데이터센터를 더 지으면 된다”는 문제로 끝나지 않는다. AI 데이터센터 병목이 구조화되는 상황에서는 같은 GW에서 더 많은 매출을 뽑아내는 능력, 즉 GW당 ARPU 효율이 중요해진다.




1. Anthropic은 10GW 모델이 상대적으로 자연스럽다


OpenAI와 Anthropic을 나눠 보면 차이가 더 분명해진다. Anthropic은 목표 실적을 달성하기 위해 필요한 AI 데이터센터 규모와 이전 글에서 추정한 visible capacity가 비교적 잘 맞는다.

Anthropic은 소비자 광고 플랫폼이라기보다 기업용 AI, API, Claude Code, workflow agent 중심의 회사에 가깝다. 기업 고객은 Claude를 단순한 챗봇으로 쓰지 않는다. 코드를 작성하고, 오류를 수정하고, 문서를 만들고, 데이터를 분석하고, 내부 업무 프로세스를 자동화하는 데 활용한다.

즉 Anthropic의 매출은 소수의 고ARPU 기업 고객이 많은 토큰과 연산을 소비하는 구조로 설명된다.

실제 Anthropic은 run-rate revenue가 $14bn에 도달했고, 연간 $100,000 이상 지출 고객 수가 1년 만에 7배 증가했다고 밝혔다. Claude Code의 run-rate revenue도 $2.5bn을 넘었고, 기업 사용이 Claude Code 매출의 절반 이상을 차지한다고 설명했다. (Anthropic)


https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation

따라서 Anthropic의 2030년 논리는 비교적 명확하다. 기업이 Claude를 더 많은 업무에 붙일수록 고객당 지출액이 커지고, 이는 AI 데이터센터 용량 대비 높은 매출로 연결된다. 소비자 광고를 크게 붙이지 않아도, Claude Code와 workflow agent가 기업 내부에 깊게 들어가면 목표 실적에 접근할 수 있다.




2. OpenAI는 12GW로 더 많은 매출을 만들어야 한다


OpenAI는 Anthropic보다 구조가 복잡하다. OpenAI는 ChatGPT라는 압도적인 소비자 접점을 가지고 있지만, 이론적 수익모델이 요구하는 AI 데이터센터 규모와 이전 글에서 보이는 visible capacity 사이의 차이가 크다.

이전 글에서는 OpenAI의 물리적 AI 데이터센터 용량을 중복 제거 기준으로 약 12GW로 보았다. Stargate 10GW와 AWS Trainium 관련 capacity를 반영하되, Broadcom, NVIDIA, AMD의 칩·시스템 물량은 같은 물리 데이터센터 안에 들어갈 수 있기 때문에 중복 계산하지 않는 방식이다. OpenAI·Oracle·SoftBank의 Stargate도 공식적으로 $500bn, 10GW commitment로 설명된다. (OpenAI)

문제는 OpenAI가 2030년 목표 실적을 달성하려면 12GW만으로 매우 높은 매출 효율을 만들어야 한다는 점이다. 단순히 유료 구독자를 늘리는 것만으로는 부족하다. OpenAI는 비자용 ChatGPT를 광고·커머스·결제·개인비서 기능이 결합된 agent platform으로 확장해야 한다.



OpenAI가 이 방향으로 움직일 가능성은 이미 보인다. OpenAI는 100만 개 이상의 business customers가 OpenAI를 사용하고 있으며, ChatGPT의 주간 사용자도 8억 명 이상이라고 밝혔다. 또한 Canva, Figma, Zillow, Spotify 같은 앱이 ChatGPT에 연결되고, Shopify, Etsy, Walmart, PayPal, Salesforce 등이 Agentic Commerce Protocol을 통해 ChatGPT 안에서 새로운 쇼핑 경험을 만들고 있다고 설명했다. (OpenAI)

즉 OpenAI의 2030년 모델은 B2C 광고·커머스와 B2B Codex·workflow agent가 동시에 커져야 성립하는 구조다. Anthropic이 기업용 고ARPU에 집중한다면, OpenAI는 소비자 접점을 기반으로 광고와 커머스를 붙이고, 동시에 기업용 Codex를 강화해야 한다.




3. OpenAI가 소비자용 광고·커머스에 집중할 수밖에 없는 이유


OpenAI가 12GW 수준의 visible capacity로 2030년 목표 실적에 접근하려면, 가장 중요한 수익화 지점은 소비자용 ChatGPT다. 단순 유료 구독만으로는 한계가 있다.

따라서 OpenAI는 ChatGPT를 검색창이 아니라 소비자 의사결정 인터페이스로 바꿔야 한다.

기존 검색 광고는 사용자가 검색어를 입력하면 광고를 보여주는 구조였다. 반면 agent AI는 훨씬 깊은 행동을 수행한다. 사용자가 “다음 주 도쿄 출장 일정을 짜줘”라고 요청하면 AI는 항공권, 호텔, 이동 경로, 식당, 일정, 결제 후보를 함께 비교한다. 사용자가 “노트북을 추천해줘”라고 요청하면 제품 스펙, 가격, 리뷰, 배송 조건, 구매처를 비교하고 최종 후보를 제안한다.

이 과정에서 AI는 단순히 정보를 보여주는 도구가 아니라 구매 전환 직전의 decision layer가 된다. 광고와 커머스는 이 지점에서 붙을 수 있다. 사용자는 더 편리한 agent 기능을 얻고, OpenAI는 광고, 추천, 제휴, 결제, 커머스 take-rate을 통해 구독료 외 매출을 붙일 수 있다.

따라서 OpenAI의 소비자용 ARPU 상승은 단순히 “구독료를 올린다”는 의미가 아니다. 사용자의 시간, 검색, 쇼핑, 여행, 일정관리, 결제 의사결정이 ChatGPT 안으로 들어오면서 수익화 면적이 넓어지는 것이다.




4. 토큰 경제 변화가 OpenAI의 12GW 모델을 방어한다


여기서 가장 중요한 전제는 토큰 경제다. 토큰은 AI가 문장을 읽고 쓰는 기본 단위다. 우리가 ChatGPT에 질문을 입력하면, 모델은 그 문장을 작은 단위로 쪼개 읽고, 다시 토큰 단위로 답변을 생성한다.

에이전트형 AI는 기존 챗봇보다 훨씬 많은 토큰을 소비한다. 사용자가 질문 하나를 던지고 답변 하나를 받는 구조가 아니라, AI가 여러 단계를 거쳐 생각하고, 검색하고, 외부 도구를 호출하고, 결과를 검증하기 때문이다.

최근 IB에서 나온 리포트를 요약해보면, 2030년까지 전 세계 토큰 소비량은 2026년 대비 24배 증가하고, 월간 토큰 소비량은 120조 개에 도달한다고 한다 .

소비자용 agent token demand는 2030년까지 12배, 기업용 agent token demand는 장기 peak에서 55배까지 증가할 수 있다고 한다. 

동시에 토큰당 계산 비용은 반도체 기술 발전, 모델 최적화, 캐싱, 저비용 모델 라우팅 덕분에 연 60~70% 하락한다고 가정해본다. 

이 경우 OpenAI의 12GW 모델은 단순히 비현실적인 모델이 아니라 조건부 고ARPU·고효율 모델로 바뀐다. 토큰 가격이 안정되고, 토큰당 계산 비용이 급락하며, 사용량이 폭증하면 매출과 마진이 동시에 개선될 수 있기 때문이다.








비용 하락 효과를 단순 계산하면 다음과 같다. 2026년 대비 2030년까지 4년 동안 토큰당 계산 비용이 매년 60% 하락하면, 2030년 token cost는 2026년의 2.56% 수준이 된다.

매년 70% 하락하면 0.81% 수준까지 내려간다. 여기에 사용량 24배를 반영해도 총 compute cost 부담은 2026년 대비 각각 61% 또는 19% 수준으로 계산된다.



이 계산이 중요한 이유는 분명하다. 토큰 사용량이 폭증해도 토큰당 원가가 더 빠르게 하락하면, AI 기업은 더 복잡한 에이전트 기능을 제공하면서도 마진을 방어할 수 있다.

낮아진 원가는 더 많은 agent use case를 만들고, 더 좋은 agent는 더 많은 사용량과 더 높은 ARPU를 만든다. 이것이 AI 산업의 경제적 플라이휠이다.

원가 하락 → 더 복잡한 agent 기능 → 토큰 사용량 증가 → ARPU 상승 → 더 큰 인프라 투자 → 다시 원가 하락의 구조다.





5. 에이전트 AI는 GPU뿐 아니라 CPU 수요를 자극한다


토큰 경제가 개선되더라도 물리적 인프라 병목은 사라지지 않는다. 오히려 에이전트형 AI가 확산될수록 병목은 GPU에서 CPU, 메모리, 네트워크, 스토리지, orchestration layer로 넓어진다.

기존 AI 인프라 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 그러나 agent AI는 workload 구조를 바꾼다. 에이전트는 한 번의 답변을 생성하는 데서 끝나지 않고, tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다.

AMD도 이 변화를 공개적으로 강조하기 시작했다. AMD는 2026년 1분기 실적 관련 코멘트에서 inference와 agentic AI가 고성능 CPU와 accelerator 수요를 높이고 있다고 설명했다. (Advanced Micro Devices, Inc.) 또한 AMD는 별도 글에서 agentic AI가 확산될수록 inference가 multistep workflow가 되고, CPU가 scheduling, data preparation, memory, I/O, control flow를 담당한다고 정리했다. (AMD)

쉽게 말하면 GPU가 AI의 “계산 엔진”이라면, CPU는 AI 데이터센터의 “작업 관리자”다. GPU가 답변 생성에 필요한 대규모 연산을 수행하는 동안, CPU는 어떤 작업을 먼저 처리할지 정하고, 데이터를 옮기고, 메모리를 관리하고, 외부 API 호출과 애플리케이션 연결을 조율한다.

에이전트 AI가 많아질수록 이 작업 관리 기능의 중요성이 커진다. 쇼핑 agent는 상품 DB를 조회하고, 가격을 비교하고, 리뷰를 요약하고, 결제 후보를 정리한다. 여행 agent는 항공권, 호텔, 일정, 지도, 날씨, 예약 시스템을 동시에 호출한다. 이 모든 작업은 단순 GPU 추론만으로 끝나지 않는다.






6. Arm Holdings도 CPU TAM 상승을 말하고 있다


Arm Holdings도 같은 방향의 메시지를 내고 있다. Arm은 agent-based inference가 AI 데이터센터 설계를 바꾸고 있으며, 더 많은 고효율·고코어 CPU 수요를 만들고 있다고 설명했다. Arm Neoverse CPU는 이미 10억 코어 이상 배포됐고, 상위 hyperscaler 내 Arm 점유율도 50%에 가까워질 것으로 예상한다고 밝혔다. (Arm Newsroom)

더 중요한 것은 Arm AGI CPU 발표다. Arm은 agentic AI infrastructure를 위한 data center CPU인 Arm AGI CPU를 공개했다. Arm은 AI가 모델을 한 번 학습시키는 시대에서, 계속 작동하는 AI agent를 배포하는 시대로 이동하고 있다고 설명한다. 이 변화는 reasoning, coordination, data movement를 처리할 CPU 수요를 크게 늘린다. 특히 Arm은 agent-driven application이 확산되면 데이터센터가 같은 GW 안에서 현재보다 4배 이상의 CPU capacity를 필요로 할 수 있다고 밝혔다. (Arm Newsroom)

Arm의 설명을 더 쉽게 풀면 이렇다. 에이전트 AI는 계속 켜져 있고, 여러 모델과 서비스를 호출하며, 실시간으로 의사결정을 한다. 이 과정에서 CPU는 수천 개의 분산 작업을 관리하고, accelerator를 조율하며, memory와 storage를 관리하고, 데이터 이동을 담당한다. Arm은 이런 이유로 CPU가 현대 AI 인프라의 핵심 조율 장치가 되고 있다고 설명한다. (Arm Newsroom)

즉 AMD와 Arm이 동시에 말하는 결론은 같다. AI 데이터센터는 GPU 중심 구조에서 GPU+CPU+메모리+네트워크가 결합된 balanced system으로 이동하고 있다.





7. Morgan Stanley 관점: CPU TAM은 세 갈래로 커진다


Morgan Stanley의 4월 19일자 요약 기준으로 보면, 에이전트 AI가 CPU TAM을 키우는 경로는 크게 세 가지다.

첫 번째는 head node CPU다. 이는 NVIDIA Grace, Vera처럼 GPU rack에 직접 연결되는 CPU다. 2030년까지 전 세계적으로 500만 개의 AI accelerator가 배포되고, 각 GPU board가 $5,000짜리 고급 CPU 두 개와 연결된다고 가정하면, 이 부분만으로 약 $50bn의 TAM이 발생한다.

두 번째는 orchestration CPU다. 이는 에이전트 AI가 만드는 새로운 수요다. 각 GPU에 2~3개의 추가 CPU-intensive node가 필요하고, 코어 수는 현재 Arm AGI CPU의 136개에서 2030년 200~300개로 증가하며, 단위당 평균 가격은 $3,000 수준으로 올라간다고 가정한다. 이 경우 orchestration CPU TAM은 약 $30bn~45bn으로 추정된다.

세 번째는 storage 및 network node에 들어가는 기타 CPU다. 이 영역은 약 $2.5bn~15bn 규모로 추정된다. 세 항목을 합치면 2030년 전체 데이터센터 CPU 시장은 약 $82.5bn~110bn에 달하고, 이 중 agent AI가 직접 추가하는 incremental TAM은 약 $32.5bn~60bn으로 계산된다.

이 수치의 핵심은 CPU가 단순히 GPU 옆에 붙는 보조 칩에 머물지 않는다는 점이다. 에이전트 AI에서는 GPU를 효율적으로 굴리기 위해 더 많은 CPU node가 필요하고, 이 CPU node는 점점 더 높은 core count와 더 큰 memory attach를 요구한다.








8. CPU TAM 상승보다 더 큰 것은 메모리 TAM 상승일 수 있다


CPU TAM 상승에서 더 중요한 2차 효과는 메모리 TAM 증가다. CPU가 늘어나면 CPU 칩만 더 팔리는 것이 아니다. CPU마다 대용량 DRAM이 붙고, agent workload가 복잡해질수록 memory capacity와 bandwidth 요구가 함께 증가한다.

Morgan Stanley 요약 기준으로는, 2030년까지 AI가 15~45EB의 DRAM 수요 증가를 유발할 수 있다. 이는 2027년 전체 DRAM 공급량의 **26~77%**에 해당하는 규모다. 더 중요한 점은 이 수치가 HBM을 제외한 순수 CPU용 DRAM 수요라는 점이다.

즉 GPU 옆에 붙는 HBM 병목과 별도로, CPU orchestration 확산만으로도 일반 DRAM 수요가 크게 늘어날 수 있다.

제품 스펙을 봐도 방향은 명확하다. NVIDIA Vera CPU는 1.5TB LPDDR5X를 지원하고, 전체 rack은 400TB 수준에 도달할 수 있다. AMD EPYC 9005는 칩당 6TB DDR5를 지원하며, CXL을 통해 8TB까지 확장 가능하다. 각 orchestration CPU가 2030년까지 평균 1.5TB에서 3TB의 DRAM을 탑재하고, 1,000만~1,500만 개의 신규 CPU가 추가된다면, CPU용 DRAM 수요는 단순 서버 교체 사이클을 넘어선다.

여기서 핵심은 CPU TAM보다 메모리 TAM의 탄성이 더 클 수 있다는 점이다. CPU는 개수와 ASP가 늘어나는 시장이지만, 메모리는 CPU당 attach capacity가 TB 단위로 증가한다. agent AI는 더 긴 context, 더 많은 memory retrieval, 더 많은 vector database, 더 많은 cache, 더 많은 intermediate state를 요구한다.

따라서 CPU가 늘어날 때 메모리는 선형이 아니라 더 가파르게 증가할 수 있다.






9. 결론: AI 데이터센터 경쟁은 GW 확보에서 GW당 ARPU와 시스템 효율 경쟁으로 이동한다


지금까지의 논리를 합치면 결론은 분명하다. OpenAI와 Anthropic의 2030년 목표 실적은 단순히 “AI 데이터센터를 몇 GW 확보하느냐”만으로 설명되지 않는다. visible capacity가 22GW에 그친다면, 두 회사는 같은 GW에서 더 높은 매출을 만들어야 한다.

Anthropic은 기업용 Claude Code와 workflow agent를 통해 고ARPU B2B 모델을 강화할 가능성이 높다. 기업 고객이 더 많은 업무에 Claude를 붙이면 고객당 매출이 커지고, 이는 높은 GW당 매출 효율로 연결된다.

OpenAI는 더 공격적인 구조다. 12GW 수준의 visible capacity로 목표 실적을 설명하려면 소비자용 ChatGPT가 광고·커머스·결제·개인비서 기능을 품은 agent platform으로 진화해야 한다. 동시에 Codex와 AgentKit을 통해 기업용 고ARPU 시장도 강화해야 한다.

OpenAI는 이미 Codex 사용량이 2025년 8월 이후 10배 증가했고, Cisco의 engineering workflow에서는 코드 리뷰 시간이 50% 줄었다고 설명했다. (OpenAI)

여기에 토큰 경제의 변화가 붙는다. 토큰 사용량은 폭발적으로 늘지만, 토큰당 계산 비용이 연 60~70% 하락하고 가격이 안정되면 AI 기업의 마진은 방어될 수 있다. 이 경우 OpenAI의 12GW 모델은 단순히 무리한 모델이 아니라, 고ARPU·고효율·고사용량이 동시에 필요한 bull case로 해석할 수 있다.

반도체 투자 관점에서도 결론은 달라진다. 과거에는 AI 데이터센터 병목을 GPU와 HBM 중심으로 봤다. 앞으로는 여기에 CPU, 일반 DRAM, networking, storage, ABF substrate, advanced packaging까지 함께 봐야 한다.

특히 agent AI 시대에는 CPU가 GPU를 보조하는 칩에 머물지 않는다. CPU는 에이전트의 작업을 조율하고, 데이터를 옮기고, 메모리를 관리하고, 외부 서비스 호출을 통제하는 핵심 인프라가 된다. AMD와 Arm Holdings가 동시에 CPU TAM 상승을 강조하는 이유가 여기에 있다.

마지막으로 더 중요한 2차 효과는 메모리다. CPU가 늘어나면 CPU마다 붙는 DRAM도 함께 늘어난다. 그리고 agent AI는 더 긴 context, 더 많은 cache, 더 많은 memory retrieval, 더 많은 intermediate state를 요구한다. 따라서 중장기적으로는 CPU TAM 상승보다 메모리 TAM 증가 효과가 더 클 가능성이 있다.

최종적으로 AI infra 경쟁의 질문은 이렇게 바뀐다.

누가 더 많은 GW를 확보하느냐에서, 누가 같은 GW로 더 높은 ARPU와 더 높은 시스템 효율을 만들어내느냐로 이동하고 있다.




앤트로픽의 다리오 아모데이 CEO는 회사가 기대했던 10배 성장이 아닌 1분기에 80배 성장하며 컴퓨트 수요를 따라잡기 어려운 상황이라고 밝혔다. 

https://www.mediapen.com/news/view/1097356


따라서 앞으로 AI 수요의 크기보다 더 중요한 질문은 수요를 실제 공급으로 바꾸는 구간에서 누가 가장 큰 희소성을 갖느냐이지 않을까 하며, 지금까지 사견으로는 위 질문에 대한 답은 '메모리'일 가능성이 높아보인다.


순수 Fabless는 제외

순수 Fabless는 제외



=끝

2026년 5월 5일 화요일

생각정리 240 (* chip, packaging bottleneck)

예전 여러 주식 운용사를 전전하던 시절, 잠깐이나마 내 주된 역할이 해외 리서치 담당이었던 때가 있었다.

당시 Amazon, Facebook, Nvidia, Microsoft, Alphabet 같은 빅테크 기업들을 분석해보라는 지시를 받았다. 여기에 삼성전기, 무라타까지 함께 보게 되면서, 1~2개월 동안 거의 아무것도 없는 맨바닥에서 위 기업들을 하나씩 파고들었던 기억이 있다.

당시에는 어린 마음에는 빨리 돈을 벌고 싶었다. 국내 스몰캡 기업을 빠르게 훑고, 남들보다 한발 앞서 투자 아이디어를 찾고 싶었다. 그래서 무겁고 낯선 해외 기업부터 공부해야 하는 그 포지션이 당시에는 그리 마음에 들지 않았다.

짧은 인턴 기간이 끝난 뒤 그 운용사를 나오게 되었지만, 이후에도 개인적으로 빅테크 기업들의 어닝콜은 분기마다 나름의 방식으로 정리해 어닝모델을 업데이트하며 계속 추적해왔다.

그때 특히 기억에 남았던 기업이 Nvidia였다. 당시 Nvidia의 무모해 보일 정도의 R&D 지출이 괜스레 마음에 걸렸다. “대박 아니면 쪽박”이라는 어정쩡한 생각으로 소액을 투자했다가, 어느 정도 수익이 나자 홀라당 팔아버린 기억도 있다.

7년이 지난 이제 와서 돌아보면, 짧은 인턴 기간 동안 접했던 빅테크 기업들과 이후 이어온 몇 분기, 몇 년간의 트래킹이 지금의 나에게 적지 않은 자산이 되었다는 생각이 든다.

늘 그렇듯, 뒤늦게야 감사한 일들이 보인다.


생각정리: AI Infra는 얼마나 커지고 있는가


OpenAI·Anthropic, Neocloud, Sovereign AI D/C까지 보면 병목은 결국 반도체 Physical Capa로 간다


이전 글에서는 Microsoft, Amazon, Alphabet, Meta 네 개사의 AI CapEx 사이클을 정리했다. 당시의 핵심은 분명했다. 2026~2027년에는 GPU, TPU, custom silicon, 데이터센터, 전력 인프라 투자가 먼저 집행되면서 FCF margin이 눌리고,

2028~2030년부터는 이미 깔린 AI capacity가 Azure, AWS, Google Cloud, Meta Ads의 매출 및 효율 개선으로 회수되는 구간에 들어간다는 점이었다. 기존 글에서도 Big Tech 4 합산 기준으로 2026~2028년은 AI 장비·칩·데이터센터 선투자와 감가상각 부담이 집중되고,

2028~2030년은 capacity monetization이 본격화되는 흐름으로 정리했다. 


https://uiyeonassociation.blogspot.com/2026/04/237-big-tech-ai-fcf-capex.html

이번에는 분석 범위를 더 넓혀보려 한다. 기존 Big Tech 4에 Oracle을 더한 BIG5를 기준으로, 여기에 OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 붙이면 전체 AI infra 수요와 공급이 얼마나 커지는지 계산해보는 것이다.

결론부터 말하면, BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓을 때, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 합산한 신규 visible AI infra pool은 약 36.9GW다. 이는 BIG5 대비 **약 45.7%**에 해당한다.

투자금액 기준으로도 Stargate의 $500B / 10GW, 즉 $50B/GW를 적용하면 약 $1.65~1.85T 규모이며, BIG5의 약 $4.04T 대비 40~46% 수준이다. Stargate는 OpenAI·Oracle·SoftBank가 추진하는 미국 AI 인프라 buildout으로, OpenAI는 이를 $500B, 10GW 규모라고 설명했다. (openai.com)

이 숫자가 중요한 이유는 단순하다. 불과 짧은 기간에 BIG5 외부에서도 30GW가 넘는 신규 AI D/C 수요처가 생겼다.

하지만 반도체, 메모리, 패키징, 전력, 냉각, 변압기, 토지, 인허가 같은 물리적 공급망은 수요 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. 따라서 AI infra cycle의 핵심은 “누가 D/C를 더 많이 짓느냐”에서 “어디서 물리적 병목이 먼저 터지느냐”로 이동하고 있다.


1. 계산 기준: BIG5와 Stargate 환산 단가


먼저 BIG5의 기준선을 잡는다.


기존 Big Tech 4 글의 차트는 2026~2030년 누적 기준으로 대략 3.79조 달러 수준의 CapEx 사이클을 가정하고 있다. 여기에 Oracle을 더한다. Oracle은 FY2026에 cloud 및 AI compute capacity 확대를 위해 약 500억 달러의 capital investment를 집행할 계획으로 알려져 있다. Oracle의 투자는 OpenAI, Meta, NVIDIA, AMD, xAI 등 대형 OCI 고객의 committed demand를 충족하기 위한 성격이 강하다. (channeldive.com)


Oracle의 2027~2030년 CapEx는 아직 불확실하다. 여기서는 보수적으로 Oracle이 FY2026의 500억 달러 수준을 5년간 유지한다고 가정한다.


다음으로 GW 환산 기준을 둔다. Stargate의 공식 발표 기준은 $500B / 10GW다. 이를 단순 환산하면 AI 인프라 1GW당 총 투자비는 약 $50B다. 이 기준은 데이터센터, 전력, 서버, 네트워크, 냉각, GPU·ASIC 시스템까지 포함한 거친 총액 기준으로 보는 것이 맞다. (openai.com)

따라서 BIG5의 2026~2030년 CapEx 4.04조 달러를 Stargate 기준으로 환산하면 다음과 같다.

BIG5 AI infra-equivalent capacity

= $4.04T ÷ $50B/GW
= 약 80.8GW

물론 BIG5 CapEx 전체가 AI 전용은 아니다. 기존 클라우드 증설, 서버 교체, 네트워크, 데이터센터 건물, 전력 인프라, 내부 서비스 투자가 함께 섞여 있다. 따라서 이 숫자는 정확한 물리적 전력 capacity라기보다, BIG5의 AI 인프라 투자 체급을 Stargate 기준으로 환산한 GW-equivalent로 보는 편이 맞다.


2. OpenAI·Anthropic: 중복 제거 후 22GW, 약 $0.9~1.1T


먼저 OpenAI와 Anthropic을 보자. 두 회사는 AI infra를 직접 모두 소유한다기보다, hyperscaler와 장기 cloud usage commitment를 맺는 anchor tenant에 가깝다.


Anthropic


Anthropic은 AWS와 Google 양쪽에서 대규모 custom cloud capacity를 확보하고 있다.

Amazon과 Anthropic은 확장 협력에서 Anthropic이 향후 10년간 AWS 기술에 $100B 이상을 지출하고, 최대 5GW의 Amazon Trainium capacity를 확보한다고 밝혔다. 이 capacity에는 Trainium 계열 custom silicon과 Graviton CPU가 포함된다. (aboutamazon.com)

Google 쪽은 공식 발표와 보도 수치를 구분해야 한다. Google 공식 발표는 Anthropic이 2027년부터 multiple gigawatts 규모의 TPU capacity를 확보한다는 내용까지 확인된다. 이 capacity는 Google Cloud services와 Broadcom을 통해 공급되는 Google-built TPU를 통해 제공된다. (googlecloudpresscorner.com)

다만 The Information을 인용한 Investing.com 보도에 따르면, 이 계약은 2027년부터 시작되는 5년간 약 $200B 규모이며, Google이 Anthropic에 제공하기로 한 서버 capacity는 5GW로 보도됐다. 같은 보도는 이 계약 규모가 Google의 cloud revenue backlog의 40% 이상에 해당한다고 설명했다. (investing.com)



Anthropic의 AWS 5GW와 Google 5GW는 서로 다른 cloud platform에 배치되는 capacity다. 따라서 두 물량은 중복으로 보기 어렵다. 다만 Google 5GW 계약은 보도 기준 5년짜리이므로, 10년 기준으로 연장해 보면 Anthropic의 장기 compute spend는 $500B까지 올라갈 수 있다.

OpenAI


OpenAI는 더 복잡하다. Stargate, Oracle, AWS, Broadcom, NVIDIA, AMD 물량이 모두 섞여 있기 때문이다. 여기서 중요한 점은 데이터센터·전력 capacity와 칩·시스템 capacity를 중복 계산하지 않는 것이다.

OpenAI, Oracle, SoftBank는 Stargate를 $500B / 10GW 규모의 미국 AI infrastructure buildout으로 발표했다. 또한 OpenAI와 Oracle은 Stargate의 일환으로 최대 4.5GW의 추가 capacity를 개발하는 계약을 맺었고, SoftBank 발표 기준으로 이 파트너십은 향후 5년간 $300B 이상 규모다. (openai.com, group.softbank)

OpenAI와 AWS도 전략적 파트너십을 확대했다. 공개 보도와 업계 자료 기준으로 OpenAI는 AWS Trainium capacity 약 2GW를 사용하고, 관련 계약 규모는 $100B / 8년으로 언급된다. (convergedigest.com)

반면 Broadcom 10GW, NVIDIA 10GW, AMD 6GW 같은 숫자는 칩·가속기·시스템 레이어다. 이 시스템들은 Stargate나 Oracle, AWS, 기타 partner facility 안에 들어갈 수 있다. 따라서 이를 Stargate 10GW와 그대로 더하면 같은 물리 capacity를 두 번 세는 오류가 생긴다.



따라서 OpenAI와 Anthropic을 합치면 다음과 같다.



BIG5의 80.8GW와 비교하면, OpenAI·Anthropic 22GW는 **27.2%**다. 금액 기준으로는 $0.9~1.1T로, BIG5 $4.04T 대비 22.3~27.2% 수준이다.


3. Neocloud 3사: BIG5 밖에서 약 8.4GW, 투자환산 약 $420B


여기서 끝내면 전체 AI infra 그림이 절반만 보인다. 2025~2026년 이후에는 BIG5 밖에서 Neocloud가 빠르게 커지고 있다.

Neocloud는 일반 클라우드와 다르다. 핵심 사업은 GPU·AI accelerator capacity를 대규모로 확보해 Microsoft, Meta, OpenAI, enterprise 고객에게 임대하는 것이다. CoreWeave, Nebius, Lambda가 대표적이다. 이들은 hyperscaler가 직접 모든 데이터센터를 짓는 대신, AI GPU cloud capacity를 외부에서 조달하는 통로가 되고 있다.

Neocloud 3사 capacity




CoreWeave는 Q3 기준 active power가 590MW, contracted power가 2.9GW로 확대됐고, 2025년 CapEx 가이던스는 $12~14B로 제시됐다. 회사는 backlog 확대와 AI cloud demand를 근거로 2026년 CapEx가 2025년의 두 배를 크게 넘을 수 있다고 설명했다. (convergedigest.com, fierce-network.com)

Nebius는 2026년 말까지 contracted power를 2.5GW로 늘리고, connected power를 800MW~1GW까지 확보하는 목표를 제시했다. 동시에 Microsoft와 최대 $19.4B 규모의 AI infrastructure deal, Meta와 $3B 규모의 5년 계약을 확보했다. (nebius.com, datacenterdynamics.com)

Lambda는 Microsoft와 수만 개 NVIDIA GPU 기반의 multibillion-dollar AI infrastructure agreement를 체결했다. 별도 보도에 따르면 Lambda는 장기적으로 100만 개 이상의 NVIDIA GPU와 3GW liquid-cooled data center capacity 배치를 목표로 하고 있다. (lambda.ai, datacenterdynamics.com)

따라서 Neocloud 3사만 단순 capacity target으로 보면 다음과 같다.

CoreWeave 2.9GW + Nebius 2.5GW + Lambda 3.0GW = 약 8.4GW

Stargate 기준 $50B/GW를 적용하면 투자환산 금액은 다음과 같다.

8.4GW × $50B/GW = 약 $420B

다만 이 8.4GW를 OpenAI·Anthropic 또는 BIG5 수요에 그대로 더하면 안 된다. Nebius와 Lambda의 대형 고객은 Microsoft이고, CoreWeave도 OpenAI·Microsoft·NVIDIA ecosystem과 깊게 연결돼 있다. 따라서 Neocloud capacity는 글로벌 AI 총수요에 그대로 더하는 항목이라기보다, BIG5 balance sheet 밖에서 AI CapEx를 대신 집행하는 공급층으로 보는 편이 맞다.


4. Sovereign AI D/C: UAE와 Saudi만 봐도 약 6.5GW, 투자환산 약 $325B


Neocloud 다음으로 봐야 할 축은 Sovereign AI D/C다.


Sovereign AI D/C는 기업 단위 cloud 수요보다 국가 단위의 AI 주권, 데이터 주권, 전력 인프라, 산업정책이 결합된 구조다. 미국 hyperscaler나 OpenAI가 들어가더라도, 프로젝트의 본질은 국가가 전력·부지·자본·규제를 묶어 AI compute hub를 만드는 데 있다.

현재 실행 가시성이 높은 프로젝트는 UAE와 Saudi다.



UAE-US AI Campus는 Abu Dhabi에 5GW 규모의 AI data center capacity를 구축하는 프로젝트다. OpenAI는 Stargate UAE를 1GW cluster로 설명했고, 2026년에 200MW가 우선 가동될 예정이라고 밝혔다. Gulf News도 Stargate UAE가 5GW UAE-US AI Campus 안에서 개발되는 1GW AI infrastructure cluster라고 보도했다. (openai.com, gulfnews.com)

Saudi는 HUMAIN을 중심으로 움직이고 있다. NVIDIA와 HUMAIN은 사우디아라비아에 향후 5년간 최대 500MW 규모의 AI factories를 구축한다고 발표했다. 첫 단계는 NVIDIA GB300 Grace Blackwell 기반 supercomputer 배치다. (nvidianews.nvidia.com)

여기에 AMD·Cisco·HUMAIN JV가 붙는다. 이 JV는 2030년까지 최대 1GW의 AI infrastructure를 배치하고, 2026년에 사우디에서 100MW 규모의 1차 배치를 시작할 계획이다. (newsroom.cisco.com)

따라서 실행 가시성이 높은 UAE와 Saudi만 합쳐도 다음과 같다.

UAE 5GW + Saudi 1.5GW = 약 6.5GW

Stargate 기준으로 환산하면 투자금액은 다음과 같다.

6.5GW × $50B/GW = 약 $325B

France, India, EU AI gigafactory까지 넣으면 숫자는 더 커질 수 있다. 다만 일부 프로젝트는 MoU, 정책 발표, 또는 실행 변동 가능성이 크기 때문에 기본 계산에는 넣지 않고 upside pipeline으로 처리하는 편이 안전하다.


5. BIG5 대비 신규 AI infra pool 비교


이제 전체 그림을 합쳐보자.

기준은 BIG5다.



즉 BIG5의 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C만으로도 약 36.9GW의 신규 visible pool이 형성된다. 이는 BIG5 대비 **45.7%**다.

금액 기준으로도 OpenAI·Anthropic의 발표·보도 금액 $0.9~1.1T, Neocloud의 Stargate 환산 $0.42T, Sovereign AI D/C의 Stargate 환산 $0.325T를 더하면 약 $1.645~1.845T다. 이는 BIG5의 $4.04T 대비 **40.7~45.7%**에 해당한다.

여기서 핵심은 이 숫자를 단순 합산 수요로 보면 안 된다는 점이다. Neocloud capacity의 최종 고객은 Microsoft, Meta, OpenAI일 수 있고, Sovereign AI D/C에도 OpenAI, Oracle, NVIDIA, Cisco, AMD 같은 기존 플레이어가 들어간다. 따라서 이 숫자는 “완전히 독립적인 신규 수요”라기보다, BIG5 바깥에서 새롭게 등장한 AI infra 공급·수요의 visible expansion으로 해석해야 한다.

그럼에도 결론은 분명하다.

짧은 기간에 BIG5 대비 40~46%에 해당하는 AI infra 수요처와 공급 프로젝트가 새로 보이기 시작했다.

이 정도 속도라면 병목은 수요가 아니라 공급에서 먼저 나타날 가능성이 높다.


6. 해석: 신규 AI D/C 수요처는 빠르게 생기지만, 물리적 공급망은 그렇게 빨리 늘지 못한다


OpenAI·Anthropic의 장기 cloud commitment, CoreWeave·Nebius·Lambda의 Neocloud 증설, UAE·Saudi의 Sovereign AI D/C 프로젝트를 합치면 AI infra 수요는 매우 빠르게 확산되고 있다.

문제는 공급망이다.

AI D/C 수요는 몇 개월 만에 새로 생길 수 있다. 정부가 AI campus를 발표하고, LLM 기업이 hyperscaler와 5년·10년 계약을 맺고, Neocloud가 private credit과 vendor financing으로 GPU cluster를 조달하면 신규 수요처는 빠르게 생긴다.

하지만 물리적 공급망은 다르다.

선단공정 파운드리 capacity, HBM wafer capacity, CoWoS advanced packaging capacity, ABF substrate, optical interconnect, networking switch, liquid cooling, 변압기, 전력망, 데이터센터 부지와 인허가는 단기간에 같은 속도로 늘어나기 어렵다.

특히 반도체 공급망은 장비 발주, 클린룸 증설, 공정 안정화, 수율 개선에 시간이 필요하다. 따라서 수요 증가 속도와 공급 증가 속도 사이의 mismatch는 점점 커질 수 있다.


7. 가장 큰 병목은 칩: 선단공정, HBM, Advanced Packaging


AI infra의 병목은 전력과 냉각에서도 나타나겠지만, 가장 중요한 bottleneck은 결국 칩이다.

첫 번째는 선단공정 파운드리다. NVIDIA GPU, AMD GPU, Google TPU, AWS Trainium, OpenAI custom accelerator, Broadcom ASIC은 모두 TSMC의 선단공정과 선단 패키징 생태계에 크게 의존한다. AI accelerator 수요가 늘어날수록 3nm, 4nm, 5nm급 wafer allocation 경쟁이 심화된다.

두 번째는 HBM이다. AI accelerator는 일반 DRAM이 아니라 HBM을 대량으로 필요로 한다. 최근 보도에 따르면 Samsung과 SK hynix는 AI-driven memory shortage가 2027년 이후까지 이어질 수 있다고 경고했고, 고객들이 이미 수년치 물량을 선점하고 있다는 내용도 전해졌다. HBM 공급은 SK hynix, Samsung, Micron에 집중돼 있어 신규 AI D/C 수요가 늘어날수록 병목이 더 뚜렷해진다. (tomshardware.com)

세 번째는 advanced packaging이다. 최신 AI accelerator는 GPU 또는 ASIC die와 HBM을 같은 package 안에서 고대역폭으로 연결해야 한다. 이 과정에서 CoWoS, CoWoS-L, hybrid bonding, interposer, substrate 같은 advanced packaging capacity가 필수다. TrendForce는 TSMC의 CoWoS capacity가 2026년 약 130만 units, 2027년 200만 units까지 확대될 수 있다고 보도했지만, 이 역시 빠르게 늘어나는 AI accelerator 수요를 따라잡기 위한 증설이지 공급 과잉을 의미하기는 어렵다. (trendforce.com)

결국 AI D/C가 10GW, 20GW, 30GW 단위로 늘어날 때 가장 먼저 물어야 할 질문은 “전력이 있느냐”만이 아니다. 더 중요한 질문은 그 D/C를 채울 GPU·ASIC·HBM·패키징 capacity가 실제로 있느냐다.


8. Agent AI가 오면 CPU 병목까지 부각된다


여기에 새로운 변수가 붙는다. 바로 Agent AI다.

기존 AI infra 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 하지만 Agent AI는 workload 구조를 바꾼다. Agent는 한 번의 답변을 생성하는 데서 끝나지 않는다. 여러 tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다. 이 과정에서 GPU뿐 아니라 CPU, memory, storage, networking, orchestration layer의 부담이 함께 증가한다.

최근 보도에서도 agentic AI가 확산되면서 AI data center의 CPU demand가 커지고, 일부 AI deployment에서는 CPU-GPU ratio가 기존보다 훨씬 높아질 수 있다는 분석이 나온다. Intel과 AMD의 server CPU 공급이 tight해지고 가격 인상 가능성이 부각되는 배경도 이 흐름과 연결된다. (trendforce.com, tomshardware.com)

이 점이 중요하다. CPU도 결국 선단공정 또는 준선단공정을 사용한다. 고성능 server CPU는 GPU와 동일한 선단공정 capacity를 직접적으로 공유하거나, 최소한 동일한 foundry ecosystem, advanced packaging, substrate, memory supply chain을 공유한다. 따라서 Agent AI가 본격화되면 병목은 GPU에서 끝나지 않는다. GPU와 선단공정을 share하는 CPU까지 병목에 들어오면서, 파운드리와 패키징의 physical capacity bottleneck이 더 부각될 가능성이 높다.


9. 투자 관점에서의 결론


이번 계산의 핵심은 수요가 얼마나 빠르게 늘고 있는지를 숫자로 확인하는 데 있다.

BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C에서 새롭게 보이는 visible pool은 약 36.9GW다. 이는 BIG5 대비 45.7%다. 금액 기준으로도 약 $1.65~1.85T로, BIG5 대비 40~46% 수준이다.



해석은 명확하다.

단기간에 AI D/C 수요처는 폭발적으로 늘었다. OpenAI와 Anthropic은 hyperscaler의 anchor tenant가 됐고, Neocloud는 BIG5 바깥에서 GPU cloud capacity를 빠르게 증설하고 있으며, UAE와 Saudi는 AI를 국가 전략 인프라로 보고 GW급 sovereign AI D/C를 추진하고 있다.

그러나 물리적 공급망은 신규 수요처 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. AI D/C는 발표할 수 있지만, 그 안에 들어갈 accelerator, HBM, advanced package, substrate, networking, 전력 설비는 실제 공장과 장비와 수율의 제약을 받는다.

따라서 앞으로 AI infra cycle의 핵심 병목은 다음 순서로 부각될 가능성이 높다.



결국 AI infra의 투자 결론은 단순히 “클라우드 기업이 많이 투자한다”가 아니다.

AI D/C 수요는 OpenAI·Anthropic, Neocloud, Sovereign AI까지 확산되며 BIG5 대비 40~46%에 해당하는 신규 visible pool을 만들고 있다. 하지만 그 수요를 실제 capacity로 전환하는 병목은 선단공정 파운드리, HBM, advanced packaging, 그리고 agent AI로 인해 다시 중요해지는 server CPU에 있다.

따라서 이번 cycle에서 가장 중요한 투자 포인트는 hyperscaler의 CapEx 규모만 보는 것이 아니다. 더 중요한 것은 그 CapEx가 실제 물리적 capacity로 전환되는 경로에서 누가 bottleneck pricing power를 갖는가다.

그 관점에서 보면 향후 가장 부각될 영역은 분명하다.

파운드리, HBM, advanced packaging, substrate, optical interconnect, 그리고 AI server CPU까지 포함한 반도체 physical capa bottleneck이다.



TSMC


INTEL


GlobalFoundries


Amkor Technology


ASE Technology


UMC






이전 전력반도체 기업군들과의 통합비교


=끝