OpenAI와 Anthropic의 2030년 수익모델을 추정하는 과정에서 생긴 질문들을 따라가다 보니, 리서치가 AI 데이터센터 용량, ARPU, 토큰 경제, CPU·메모리 병목으로 이어졌다.
아래는 그 흐름을 두서없이 정리한 글이다.
OpenAI와 Anthropic의 2030년 목표 실적: 병목은 데이터센터를 넘어 ARPU·CPU·메모리로 이동한다
| OpenAI |
| OpenAI |
| Anthropic |
| Anthropic |
22GW의 AI 데이터센터로 2030년 목표 실적을 만들 수 있는가
AI 데이터센터에서 말하는 GW는 전력 단위다. 쉽게 말하면 AI 모델을 학습시키고, 추론을 돌리고, AI 에이전트가 여러 작업을 처리하는 데 필요한 거대한 AI 공장의 전력 규모다.
이전 글에서는 OpenAI와 Anthropic의 visible AI 데이터센터 용량을 중복 제거 기준으로 약 22GW로 정리했다. 당시 OpenAI·Anthropic 22GW는 BIG5의 AI infra-equivalent capacity 80.8GW 대비 약 **27.2%**에 해당한다고 보았다.
그런데 별도 수익모델에서 2030년 목표 실적을 맞추기 위해 이론적으로 필요한 AI 데이터센터 용량은 약 37.5GW에 가깝다. 즉 현재 보이는 22GW와 비교하면 약 15.5GW의 차이가 발생한다.
이 차이는 단순히 “데이터센터를 더 지으면 된다”는 문제로 끝나지 않는다. AI 데이터센터 병목이 구조화되는 상황에서는 같은 GW에서 더 많은 매출을 뽑아내는 능력, 즉 GW당 ARPU 효율이 중요해진다.
1. Anthropic은 10GW 모델이 상대적으로 자연스럽다
OpenAI와 Anthropic을 나눠 보면 차이가 더 분명해진다. Anthropic은 목표 실적을 달성하기 위해 필요한 AI 데이터센터 규모와 이전 글에서 추정한 visible capacity가 비교적 잘 맞는다.
Anthropic은 소비자 광고 플랫폼이라기보다 기업용 AI, API, Claude Code, workflow agent 중심의 회사에 가깝다. 기업 고객은 Claude를 단순한 챗봇으로 쓰지 않는다. 코드를 작성하고, 오류를 수정하고, 문서를 만들고, 데이터를 분석하고, 내부 업무 프로세스를 자동화하는 데 활용한다.
즉 Anthropic의 매출은 소수의 고ARPU 기업 고객이 많은 토큰과 연산을 소비하는 구조로 설명된다.
실제 Anthropic은 run-rate revenue가 $14bn에 도달했고, 연간 $100,000 이상 지출 고객 수가 1년 만에 7배 증가했다고 밝혔다. Claude Code의 run-rate revenue도 $2.5bn을 넘었고, 기업 사용이 Claude Code 매출의 절반 이상을 차지한다고 설명했다. (Anthropic)
| https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation |
따라서 Anthropic의 2030년 논리는 비교적 명확하다. 기업이 Claude를 더 많은 업무에 붙일수록 고객당 지출액이 커지고, 이는 AI 데이터센터 용량 대비 높은 매출로 연결된다. 소비자 광고를 크게 붙이지 않아도, Claude Code와 workflow agent가 기업 내부에 깊게 들어가면 목표 실적에 접근할 수 있다.
2. OpenAI는 12GW로 더 많은 매출을 만들어야 한다
OpenAI는 Anthropic보다 구조가 복잡하다. OpenAI는 ChatGPT라는 압도적인 소비자 접점을 가지고 있지만, 이론적 수익모델이 요구하는 AI 데이터센터 규모와 이전 글에서 보이는 visible capacity 사이의 차이가 크다.
이전 글에서는 OpenAI의 물리적 AI 데이터센터 용량을 중복 제거 기준으로 약 12GW로 보았다. Stargate 10GW와 AWS Trainium 관련 capacity를 반영하되, Broadcom, NVIDIA, AMD의 칩·시스템 물량은 같은 물리 데이터센터 안에 들어갈 수 있기 때문에 중복 계산하지 않는 방식이다. OpenAI·Oracle·SoftBank의 Stargate도 공식적으로 $500bn, 10GW commitment로 설명된다. (OpenAI)
문제는 OpenAI가 2030년 목표 실적을 달성하려면 12GW만으로 매우 높은 매출 효율을 만들어야 한다는 점이다. 단순히 유료 구독자를 늘리는 것만으로는 부족하다. OpenAI는 소비자용 ChatGPT를 광고·커머스·결제·개인비서 기능이 결합된 agent platform으로 확장해야 한다.
OpenAI가 이 방향으로 움직일 가능성은 이미 보인다. OpenAI는 100만 개 이상의 business customers가 OpenAI를 사용하고 있으며, ChatGPT의 주간 사용자도 8억 명 이상이라고 밝혔다. 또한 Canva, Figma, Zillow, Spotify 같은 앱이 ChatGPT에 연결되고, Shopify, Etsy, Walmart, PayPal, Salesforce 등이 Agentic Commerce Protocol을 통해 ChatGPT 안에서 새로운 쇼핑 경험을 만들고 있다고 설명했다. (OpenAI)
즉 OpenAI의 2030년 모델은 B2C 광고·커머스와 B2B Codex·workflow agent가 동시에 커져야 성립하는 구조다. Anthropic이 기업용 고ARPU에 집중한다면, OpenAI는 소비자 접점을 기반으로 광고와 커머스를 붙이고, 동시에 기업용 Codex를 강화해야 한다.
3. OpenAI가 소비자용 광고·커머스에 집중할 수밖에 없는 이유
OpenAI가 12GW 수준의 visible capacity로 2030년 목표 실적에 접근하려면, 가장 중요한 수익화 지점은 소비자용 ChatGPT다. 단순 유료 구독만으로는 한계가 있다.
따라서 OpenAI는 ChatGPT를 검색창이 아니라 소비자 의사결정 인터페이스로 바꿔야 한다.
기존 검색 광고는 사용자가 검색어를 입력하면 광고를 보여주는 구조였다. 반면 agent AI는 훨씬 깊은 행동을 수행한다. 사용자가 “다음 주 도쿄 출장 일정을 짜줘”라고 요청하면 AI는 항공권, 호텔, 이동 경로, 식당, 일정, 결제 후보를 함께 비교한다. 사용자가 “노트북을 추천해줘”라고 요청하면 제품 스펙, 가격, 리뷰, 배송 조건, 구매처를 비교하고 최종 후보를 제안한다.
이 과정에서 AI는 단순히 정보를 보여주는 도구가 아니라 구매 전환 직전의 decision layer가 된다. 광고와 커머스는 이 지점에서 붙을 수 있다. 사용자는 더 편리한 agent 기능을 얻고, OpenAI는 광고, 추천, 제휴, 결제, 커머스 take-rate을 통해 구독료 외 매출을 붙일 수 있다.
따라서 OpenAI의 소비자용 ARPU 상승은 단순히 “구독료를 올린다”는 의미가 아니다. 사용자의 시간, 검색, 쇼핑, 여행, 일정관리, 결제 의사결정이 ChatGPT 안으로 들어오면서 수익화 면적이 넓어지는 것이다.
4. 토큰 경제 변화가 OpenAI의 12GW 모델을 방어한다
여기서 가장 중요한 전제는 토큰 경제다. 토큰은 AI가 문장을 읽고 쓰는 기본 단위다. 우리가 ChatGPT에 질문을 입력하면, 모델은 그 문장을 작은 단위로 쪼개 읽고, 다시 토큰 단위로 답변을 생성한다.
에이전트형 AI는 기존 챗봇보다 훨씬 많은 토큰을 소비한다. 사용자가 질문 하나를 던지고 답변 하나를 받는 구조가 아니라, AI가 여러 단계를 거쳐 생각하고, 검색하고, 외부 도구를 호출하고, 결과를 검증하기 때문이다.
최근 IB에서 나온 리포트를 요약해보면, 2030년까지 전 세계 토큰 소비량은 2026년 대비 24배 증가하고, 월간 토큰 소비량은 120조 개에 도달한다고 한다 .
소비자용 agent token demand는 2030년까지 12배, 기업용 agent token demand는 장기 peak에서 55배까지 증가할 수 있다고 한다.
동시에 토큰당 계산 비용은 반도체 기술 발전, 모델 최적화, 캐싱, 저비용 모델 라우팅 덕분에 연 60~70% 하락한다고 가정해본다.
이 경우 OpenAI의 12GW 모델은 단순히 비현실적인 모델이 아니라 조건부 고ARPU·고효율 모델로 바뀐다. 토큰 가격이 안정되고, 토큰당 계산 비용이 급락하며, 사용량이 폭증하면 매출과 마진이 동시에 개선될 수 있기 때문이다.
비용 하락 효과를 단순 계산하면 다음과 같다. 2026년 대비 2030년까지 4년 동안 토큰당 계산 비용이 매년 60% 하락하면, 2030년 token cost는 2026년의 2.56% 수준이 된다.
매년 70% 하락하면 0.81% 수준까지 내려간다. 여기에 사용량 24배를 반영해도 총 compute cost 부담은 2026년 대비 각각 61% 또는 19% 수준으로 계산된다.
이 계산이 중요한 이유는 분명하다. 토큰 사용량이 폭증해도 토큰당 원가가 더 빠르게 하락하면, AI 기업은 더 복잡한 에이전트 기능을 제공하면서도 마진을 방어할 수 있다.
낮아진 원가는 더 많은 agent use case를 만들고, 더 좋은 agent는 더 많은 사용량과 더 높은 ARPU를 만든다. 이것이 AI 산업의 경제적 플라이휠이다.
원가 하락 → 더 복잡한 agent 기능 → 토큰 사용량 증가 → ARPU 상승 → 더 큰 인프라 투자 → 다시 원가 하락의 구조다.
5. 에이전트 AI는 GPU뿐 아니라 CPU 수요를 자극한다
토큰 경제가 개선되더라도 물리적 인프라 병목은 사라지지 않는다. 오히려 에이전트형 AI가 확산될수록 병목은 GPU에서 CPU, 메모리, 네트워크, 스토리지, orchestration layer로 넓어진다.
기존 AI 인프라 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 그러나 agent AI는 workload 구조를 바꾼다. 에이전트는 한 번의 답변을 생성하는 데서 끝나지 않고, tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다.
AMD도 이 변화를 공개적으로 강조하기 시작했다. AMD는 2026년 1분기 실적 관련 코멘트에서 inference와 agentic AI가 고성능 CPU와 accelerator 수요를 높이고 있다고 설명했다. (Advanced Micro Devices, Inc.) 또한 AMD는 별도 글에서 agentic AI가 확산될수록 inference가 multistep workflow가 되고, CPU가 scheduling, data preparation, memory, I/O, control flow를 담당한다고 정리했다. (AMD)
쉽게 말하면 GPU가 AI의 “계산 엔진”이라면, CPU는 AI 데이터센터의 “작업 관리자”다. GPU가 답변 생성에 필요한 대규모 연산을 수행하는 동안, CPU는 어떤 작업을 먼저 처리할지 정하고, 데이터를 옮기고, 메모리를 관리하고, 외부 API 호출과 애플리케이션 연결을 조율한다.
에이전트 AI가 많아질수록 이 작업 관리 기능의 중요성이 커진다. 쇼핑 agent는 상품 DB를 조회하고, 가격을 비교하고, 리뷰를 요약하고, 결제 후보를 정리한다. 여행 agent는 항공권, 호텔, 일정, 지도, 날씨, 예약 시스템을 동시에 호출한다. 이 모든 작업은 단순 GPU 추론만으로 끝나지 않는다.
6. Arm Holdings도 CPU TAM 상승을 말하고 있다
Arm Holdings도 같은 방향의 메시지를 내고 있다. Arm은 agent-based inference가 AI 데이터센터 설계를 바꾸고 있으며, 더 많은 고효율·고코어 CPU 수요를 만들고 있다고 설명했다. Arm Neoverse CPU는 이미 10억 코어 이상 배포됐고, 상위 hyperscaler 내 Arm 점유율도 50%에 가까워질 것으로 예상한다고 밝혔다. (Arm Newsroom)
더 중요한 것은 Arm AGI CPU 발표다. Arm은 agentic AI infrastructure를 위한 data center CPU인 Arm AGI CPU를 공개했다. Arm은 AI가 모델을 한 번 학습시키는 시대에서, 계속 작동하는 AI agent를 배포하는 시대로 이동하고 있다고 설명한다. 이 변화는 reasoning, coordination, data movement를 처리할 CPU 수요를 크게 늘린다. 특히 Arm은 agent-driven application이 확산되면 데이터센터가 같은 GW 안에서 현재보다 4배 이상의 CPU capacity를 필요로 할 수 있다고 밝혔다. (Arm Newsroom)
Arm의 설명을 더 쉽게 풀면 이렇다. 에이전트 AI는 계속 켜져 있고, 여러 모델과 서비스를 호출하며, 실시간으로 의사결정을 한다. 이 과정에서 CPU는 수천 개의 분산 작업을 관리하고, accelerator를 조율하며, memory와 storage를 관리하고, 데이터 이동을 담당한다. Arm은 이런 이유로 CPU가 현대 AI 인프라의 핵심 조율 장치가 되고 있다고 설명한다. (Arm Newsroom)
즉 AMD와 Arm이 동시에 말하는 결론은 같다. AI 데이터센터는 GPU 중심 구조에서 GPU+CPU+메모리+네트워크가 결합된 balanced system으로 이동하고 있다.
7. Morgan Stanley 관점: CPU TAM은 세 갈래로 커진다
Morgan Stanley의 4월 19일자 요약 기준으로 보면, 에이전트 AI가 CPU TAM을 키우는 경로는 크게 세 가지다.
첫 번째는 head node CPU다. 이는 NVIDIA Grace, Vera처럼 GPU rack에 직접 연결되는 CPU다. 2030년까지 전 세계적으로 500만 개의 AI accelerator가 배포되고, 각 GPU board가 $5,000짜리 고급 CPU 두 개와 연결된다고 가정하면, 이 부분만으로 약 $50bn의 TAM이 발생한다.
두 번째는 orchestration CPU다. 이는 에이전트 AI가 만드는 새로운 수요다. 각 GPU에 2~3개의 추가 CPU-intensive node가 필요하고, 코어 수는 현재 Arm AGI CPU의 136개에서 2030년 200~300개로 증가하며, 단위당 평균 가격은 $3,000 수준으로 올라간다고 가정한다. 이 경우 orchestration CPU TAM은 약 $30bn~45bn으로 추정된다.
세 번째는 storage 및 network node에 들어가는 기타 CPU다. 이 영역은 약 $2.5bn~15bn 규모로 추정된다. 세 항목을 합치면 2030년 전체 데이터센터 CPU 시장은 약 $82.5bn~110bn에 달하고, 이 중 agent AI가 직접 추가하는 incremental TAM은 약 $32.5bn~60bn으로 계산된다.
이 수치의 핵심은 CPU가 단순히 GPU 옆에 붙는 보조 칩에 머물지 않는다는 점이다. 에이전트 AI에서는 GPU를 효율적으로 굴리기 위해 더 많은 CPU node가 필요하고, 이 CPU node는 점점 더 높은 core count와 더 큰 memory attach를 요구한다.
8. CPU TAM 상승보다 더 큰 것은 메모리 TAM 상승일 수 있다
CPU TAM 상승에서 더 중요한 2차 효과는 메모리 TAM 증가다. CPU가 늘어나면 CPU 칩만 더 팔리는 것이 아니다. CPU마다 대용량 DRAM이 붙고, agent workload가 복잡해질수록 memory capacity와 bandwidth 요구가 함께 증가한다.
Morgan Stanley 요약 기준으로는, 2030년까지 AI가 15~45EB의 DRAM 수요 증가를 유발할 수 있다. 이는 2027년 전체 DRAM 공급량의 **26~77%**에 해당하는 규모다. 더 중요한 점은 이 수치가 HBM을 제외한 순수 CPU용 DRAM 수요라는 점이다.
즉 GPU 옆에 붙는 HBM 병목과 별도로, CPU orchestration 확산만으로도 일반 DRAM 수요가 크게 늘어날 수 있다.
제품 스펙을 봐도 방향은 명확하다. NVIDIA Vera CPU는 1.5TB LPDDR5X를 지원하고, 전체 rack은 400TB 수준에 도달할 수 있다. AMD EPYC 9005는 칩당 6TB DDR5를 지원하며, CXL을 통해 8TB까지 확장 가능하다. 각 orchestration CPU가 2030년까지 평균 1.5TB에서 3TB의 DRAM을 탑재하고, 1,000만~1,500만 개의 신규 CPU가 추가된다면, CPU용 DRAM 수요는 단순 서버 교체 사이클을 넘어선다.
여기서 핵심은 CPU TAM보다 메모리 TAM의 탄성이 더 클 수 있다는 점이다. CPU는 개수와 ASP가 늘어나는 시장이지만, 메모리는 CPU당 attach capacity가 TB 단위로 증가한다. agent AI는 더 긴 context, 더 많은 memory retrieval, 더 많은 vector database, 더 많은 cache, 더 많은 intermediate state를 요구한다.
따라서 CPU가 늘어날 때 메모리는 선형이 아니라 더 가파르게 증가할 수 있다.
9. 결론: AI 데이터센터 경쟁은 GW 확보에서 GW당 ARPU와 시스템 효율 경쟁으로 이동한다
지금까지의 논리를 합치면 결론은 분명하다. OpenAI와 Anthropic의 2030년 목표 실적은 단순히 “AI 데이터센터를 몇 GW 확보하느냐”만으로 설명되지 않는다. visible capacity가 22GW에 그친다면, 두 회사는 같은 GW에서 더 높은 매출을 만들어야 한다.
Anthropic은 기업용 Claude Code와 workflow agent를 통해 고ARPU B2B 모델을 강화할 가능성이 높다. 기업 고객이 더 많은 업무에 Claude를 붙이면 고객당 매출이 커지고, 이는 높은 GW당 매출 효율로 연결된다.
OpenAI는 더 공격적인 구조다. 12GW 수준의 visible capacity로 목표 실적을 설명하려면 소비자용 ChatGPT가 광고·커머스·결제·개인비서 기능을 품은 agent platform으로 진화해야 한다. 동시에 Codex와 AgentKit을 통해 기업용 고ARPU 시장도 강화해야 한다.
OpenAI는 이미 Codex 사용량이 2025년 8월 이후 10배 증가했고, Cisco의 engineering workflow에서는 코드 리뷰 시간이 50% 줄었다고 설명했다. (OpenAI)
여기에 토큰 경제의 변화가 붙는다. 토큰 사용량은 폭발적으로 늘지만, 토큰당 계산 비용이 연 60~70% 하락하고 가격이 안정되면 AI 기업의 마진은 방어될 수 있다. 이 경우 OpenAI의 12GW 모델은 단순히 무리한 모델이 아니라, 고ARPU·고효율·고사용량이 동시에 필요한 bull case로 해석할 수 있다.
반도체 투자 관점에서도 결론은 달라진다. 과거에는 AI 데이터센터 병목을 GPU와 HBM 중심으로 봤다. 앞으로는 여기에 CPU, 일반 DRAM, networking, storage, ABF substrate, advanced packaging까지 함께 봐야 한다.
특히 agent AI 시대에는 CPU가 GPU를 보조하는 칩에 머물지 않는다. CPU는 에이전트의 작업을 조율하고, 데이터를 옮기고, 메모리를 관리하고, 외부 서비스 호출을 통제하는 핵심 인프라가 된다. AMD와 Arm Holdings가 동시에 CPU TAM 상승을 강조하는 이유가 여기에 있다.
마지막으로 더 중요한 2차 효과는 메모리다. CPU가 늘어나면 CPU마다 붙는 DRAM도 함께 늘어난다. 그리고 agent AI는 더 긴 context, 더 많은 cache, 더 많은 memory retrieval, 더 많은 intermediate state를 요구한다. 따라서 중장기적으로는 CPU TAM 상승보다 메모리 TAM 증가 효과가 더 클 가능성이 있다.
최종적으로 AI infra 경쟁의 질문은 이렇게 바뀐다.
누가 더 많은 GW를 확보하느냐에서, 누가 같은 GW로 더 높은 ARPU와 더 높은 시스템 효율을 만들어내느냐로 이동하고 있다.
앤트로픽의 다리오 아모데이 CEO는 회사가 기대했던 10배 성장이 아닌 1분기에 80배 성장하며 컴퓨트 수요를 따라잡기 어려운 상황이라고 밝혔다.
| https://www.mediapen.com/news/view/1097356 |
따라서 앞으로 AI 수요의 크기보다 더 중요한 질문은 수요를 실제 공급으로 바꾸는 구간에서 누가 가장 큰 희소성을 갖느냐이지 않을까 하며, 지금까지 사견으로는 위 질문에 대한 답은 '메모리'일 가능성이 높아보인다.
| 순수 Fabless는 제외 |
=끝