2026년 5월 10일 일요일

이모저모

문득 떠오른 오래전 면접 기억


가끔 블로그 글 중 어떤 글이 가장 많이 읽혔는지 확인해볼 때가 있다. 그럴 때마다 압도적으로 많이 읽힌 글은, 이제 10년쯤 지난 자산운용사 면접 이야기다.

왜 그 글이 아직도 꾸준히 읽히는지는 잘 모르겠다. 다만 누군가에게는 그 시절의 나처럼, 운용사 면접을 앞두고 어떤 회사를 선택해야 할지 고민하는 시간이 있을지도 모르겠다는 생각이 든다.

그러다 문득 오래전 일이 떠올랐다. 대단한 교훈을 남기려는 것은 아니고, 그때의 장면들이 이상하게 선명하게 남아 있어 한 번쯤 기록해두고 싶어졌다.

운이 좋게도 한때 세 군데 자산운용사에 동시에 합격했던 적이 있다. 한 곳은 면접 당시 분위기가 썩 좋지 않았다. 서로 맞지 않는다는 느낌이 분명했고, 나 역시 자연스럽게 일찍부터 거절의 의사를 내비쳤던 기억이 있다.

마지막까지 남은 곳은 두 군데였다. 한 곳은 대형사였고, 다른 한 곳은 이제 막 출발하려던 신생 자산운용사였다.

당시 나는 잠시 업계를 떠났다가, 주식운용업계를 빙 돌아 겨우 다시 돌아온 시점이었다. 그래서 무엇보다 안정성을 우선할 수밖에 없었다. 다시 업계 안에 자리를 잡는 것이 중요했고, 그때의 나에게 대형사를 선택하는 것은 가장 현실적인 판단이었다.

지금 돌아봐도 그 선택을 후회한 적은 없다. 그때의 선택이 이어졌기 때문에 지금의 운용사에 몸담을 수 있었고, 지금의 회사와도 인연을 맺을 수 있었다. 나는 지금의 자리에도 매우 만족하고 있다.

다만 마지막까지 마음에 걸렸던 곳이 있었다. 바로 그 신생 자산운용사였다.

면접을 보러 오라는 연락을 받고 찾아갔는데, 그 사무실 풍경이 아직도 꽤 선명하게 기억난다. 정말 텅 빈 사무실 한가운데에 내 또래로 보이는 덩치 큰 친구가 책상 하나와 컴퓨터 한 대를 두고 주식창을 띄워놓고 있었다.

그 맞은편에는 백오피스 지원부서로 보이는 두 분이 분주하게 여기저기를 오가고 있었다. 모든 것이 막 시작되는 회사 특유의 어수선함과 긴장감을 그대로 품고 있었다.

대표로 보이는 분께서 사무실 한쪽에 덩그러니 놓인 소파를 가리키며 앉으라고 손짓하셨다. 그리고 별다른 인사말도 없이 대뜸 물으셨다.

“이거 삼성전기 보고서 직접 썼어요?”

갑작스러운 질문에 조금 당황해서 답했다.

“네? 아, 네…”

그러자 그분이 짧게 말씀하셨다.

“그 보고서가 살아있어.”

나는 얼떨결에 “감사합니다”라고 답했다.

곧바로 이어진 질문은 더 직접적이었다.

“언제 입사 가능해요?”

그때는 아직 다른 곳 면접도 남아 있었기에 조심스럽게 말씀드렸다.

“그… 아직 제가 면접 보는 곳이 또 따로 있어서요.”

그러자 대표님은 조금 더 솔직하게 말씀하셨다.

“우리가 지금 운용사 인가를 앞두고 있는데, 투자자산운용사 보유 운용등록인력이 한 명 부족해서 그래요. 그냥 빨리 우리 회사로 합류하면 안 될까?”

나는 결국 머뭇거리다 죄송하다고 말씀드렸다.

“그… 저… 죄송하게 됐습니다.”

이후 나는 최종적으로 대형사 입사를 결정했다. 그리고 전화로 아쉽지만 입사하지 못할 것 같다고 연락드렸다. 전화 너머로 “아쉽게 됐다”는 말씀과 함께, 한숨 비슷한 소리가 들려왔던 기억이 난다.

그 뒤로 그 일은 꽤 오랫동안 까맣게 잊고 살았다.

그런데 한참 시간이 지난 뒤, 헤지펀드 리그테이블에서 그때의 그 신생운용사가 엄청난 수익률로 갑자기 등장한 것을 보고 깜짝 놀랐다.

그때 텅 빈 사무실에서 컴퓨터 한 대를 앞에 두고 주식창을 보고 있던, 내 또래처럼 보였던 덩치 큰 친구. 그리고 그 대표님. 그분들이 그렇게 운용을 잘하는 사람들이었을 줄 누가 알았겠는가.

아마 그때의 나는 운용사의 겉모습을 먼저 봤던 것 같다. AUM, 브랜드, 사무실 규모, 조직의 안정성, 시장에서의 인지도 같은 것들이 먼저 눈에 들어왔다. 당시 내 상황에서는 충분히 자연스러운 판단이었다. 다시 업계로 돌아온 입장에서 안정적인 선택지가 더 크게 보일 수밖에 없었다.

그런데 시간이 지나고 보니, 운용업에서 중요한 것은 꼭 밖에서 보이는 크기와 일치하지는 않았다. 운용을 잘하는 사람은 생각보다 조용한 곳에 있을 수 있고, 아직 간판이 크지 않은 회사 안에도 좋은 철학과 실력 있는 운용자가 있을 수 있다. 텅 빈 사무실, 책상 하나, 컴퓨터 한 대로 시작한 회사가 훗날 리그테이블 상단에 이름을 올릴 수도 있다.

최근 들어서는 이 생각이 더 자주 든다. 특히 agent AI 시대로 넘어오면서, 큰 조직이 항상 유리하지만은 않을 수 있다는 생각을 하게 된다.

예전에는 큰 조직이 더 많은 리서치 자원, 더 넓은 네트워크, 더 강한 시스템을 갖고 있다는 점에서 분명한 우위를 가졌다. 그런데 AI를 리서치와 운용에 깊이 적용할수록, 오히려 큰 조직의 복잡성이 병목으로 작용할 가능성이 커지고 있다.

조직이 커질수록 의사결정 단계가 늘어난다. 보고와 검토, 합의와 조율에 시간이 들어간다. 새로운 도구를 도입하고 실제 운용 프로세스에 녹여내는 속도도 느려질 수 있다. 특히 AI처럼 활용 방식이 빠르게 바뀌는 기술에서는 이 속도 차이가 생각보다 큰 격차를 만든다.

무엇보다 큰 조직일수록 BM 인덱스와 시장 수익률을 의식할 수밖에 없다. 조직이 크고 운용 규모가 클수록, 개인의 판단보다 조직의 평균적인 의사결정이 앞에 놓이기 쉽다. 성과 평가의 기준이 촘촘해질수록 시장 수익률에서 크게 벗어나기 어렵고, 특정 테마가 단기적으로 밀릴 때 내부 설득의 부담도 커진다.

이 생각은 내가 AI 관련 주식을 바라보며 겪었던 시간과도 자연스럽게 이어진다.

2023년 이후 AI가 본격적으로 부상하면서 여러 테크 주식의 부침이 상당했던 시기가 있었다. AI라는 거대한 흐름이 시작되는 듯했지만, 초반의 결과물은 생각보다 기대에 못 미쳤다. 세상이 당장 바뀔 것처럼 보이다가도, 막상 눈앞의 결과물은 어딘가 부족해 보였다.

시장도 흔들렸다. AI 테크 주식이 연일 크게 밀렸고, 여기에 트럼프 관세 이슈까지 겹치며 투자심리는 더 나빠졌다. 반면 그 시기에는 K뷰티, K라면 같은 B2C 주식들이 계속 날아갔다. 지금과는 정반대의 분위기였다. 그 흐름을 보면서 나 역시 FOMO를 느끼지 않았다고 하면 거짓말일 것이다.

회사에서 나와 지하철역까지 걷는 15분 남짓한 시간 동안, 매일 같은 질문을 되뇌었다.

“내가 잘못 보고 있는 걸까.”

그 짧은 길 위에서 수없이 같은 질문을 반복했다. 집에 도착해서도 마찬가지였다. 잠깐 눈을 붙이고 일어나도, 다시 잠들 때까지 머릿속에서는 같은 물음이 이어졌다.

AI를 믿어도 되는 걸까.
시장이 틀린 걸까, 내가 틀린 걸까.
내가 너무 앞서 보고 있는 걸까, 아니면 엉뚱한 곳을 보고 있는 걸까.

답 없는 질문이 계속 머릿속을 맴돌았다. 잠들며 AI를 생각했고, 다음 날 눈을 뜨면 다시 그 생각을 이어갔다. 말 그대로 무한 도돌이표 같은 시간이었다.

지금 돌아보면 그 시간은 단순히 한 테마를 붙들고 버틴 시간이 아니었다. AI라는 변화가 실제 산업과 실적, 밸류체인과 포트폴리오에 어떤 방식으로 연결될지 계속 확인하고, 의심하고, 다시 점검하는 시간이었다.

만약 그때 내가 조직이 크고, BM 인덱스 펀드를 중시하는 대형사 안에 있었다면 어땠을까 하는 생각을 해본다. 아마 매일같이 “내가 잘못 보고 있는 걸까”라는 고민을 오래 붙들고 있기는 어려웠을 것이다. 조직의 방향, BM 대비 성과, 내부 설득의 부담, 단기 수익률 압박 속에서 결국 시장 수익률만 좇다가 어정쩡한 펀드 수익률을 기록했을지도 모른다.

그런 점에서 lean한 조직의 강점은 단순히 의사결정이 빠르다는 데서 끝나지 않는다. 작은 조직은 때로 더 오래 고민할 수 있다. 서로의 투자 철학을 이해하고 있다면, 단기 성과 압박 속에서도 일정한 인내를 유지할 수 있다. 시장이 잠시 반대로 움직일 때도 왜 이 포지션을 들고 있는지, 무엇을 확인해야 판단을 바꿀지, 어디까지를 변동성으로 보고 어디부터를 오류로 볼지 더 솔직하게 토론할 수 있다.

개인적으로도 AI를 최대한 활용해 리서치와 운용에 적용할수록 이 차이를 매일 실감한다.

AI가 단순히 자료 검색을 빠르게 해주는 도구에 그치지 않고, 산업 구조를 재정리하고, 기업 간 비교를 확장하고, 가설을 점검하고, 실적 모델과 시장 시나리오를 반복적으로 업데이트하는 역할까지 수행하기 시작하면 조직의 크기보다 활용 속도와 밀도가 더 중요해진다.

소수의 결이 맞는 사람들로 구성된 조직은 아이디어가 리서치로 이어지고, 리서치가 포트폴리오 판단으로 연결되는 시간이 짧다. 커뮤니케이션 비용이 낮고, 시행착오를 빠르게 반복할 수 있으며, 시장 변화에 맞춰 관점과 포지션을 기민하게 조정할 수 있다. 적은 인원으로도 더 넓은 커버리지를 가져갈 수 있고, 고정비 부담을 낮게 유지하면서도 판단의 속도와 깊이를 동시에 높일 수 있다.




여의도 바닥은 좁다. 한두 다리만 건너도 증권사 브로커나, 어쩌다 오가며 안면을 튼 사람들을 통해 이런저런 이야기가 들린다. 최근 여의도 주식형 펀드에서 두각을 나타내는 매니저들의 연령대가 대체로 90년대 초반생이 많다는 이야기도 들었다.

그들도 비슷한 시기에 나와 같은 고민을 하며, 지금의 P/F를 구성하게 이르게 된 걸까?

주식운용 매니저의 전성기는 보통 30대 중후반부터 40대 중후반까지라고들 한다. 생각해보면 우리 역시 운 좋게도 딱 그 연령대에 접어드는 시점에 AI라는 거대한 흐름을 좋은 인연으로 맺은 회사와 함께 마주할 수 있게 돼었다. 

조금 늦었다고 생각했던 순간도 있었고, 이미 지나간 기회를 놓쳤다고 느꼈던 때도 있었다. 그런데 돌이켜보면 어쩌면 우리는 그나마 막차라도 탈 수 있는 시점에 시장 안에 남아 있었던 것인지도 모른다.

최근 NVIDIA의 젠슨 황이 졸업생들에게 AI는 지금까지 기득권층에게 몰려 있던 지식과 경험의 세팅값을 모두 ‘0’으로 되돌리는 효과가 있다고 말했다고 한다. 모두가 다시 같은 출발선 위에 서게 된다는 취지의 말이었다.

어쩌면 지금의 AI 변화는 운용업에서도 비슷한 장면을 만들고 있는지 모른다. 과거의 경력, 조직의 규모, 기존의 리서치 방식, 오래 축적된 네트워크는 여전히 중요하다. 다만 그것만으로 충분하지 않은 시간이 오고 있다. AI를 얼마나 빨리 받아들이고, 얼마나 깊게 활용하며, 그것을 실제 포트폴리오 판단으로 연결할 수 있는지가 새로운 차이를 만들고 있다.

나는 앞으로도 AI를 최대한 활용해 리서치와 운용에 적용해보고 싶다. AI의 발전 방향을 빠르게 따라가고, 그 변화가 실제 산업과 기업 실적, 그리고 포트폴리오에 어떤 방식으로 반영될 수 있을지 계속 확인해보고 싶다.

어느 정도의 지식과 경험은 쌓였고, 동시에 아직 새로운 변화에 반응할 수 있는 체력도 남아 있는 지금의 시기가 어쩌면 커리어 전체를 통틀어 꽤 소중한 구간일 수 있다는 생각이 든다.

운 좋게  찾아온 이 거대한 AI WAVE가 조금 더 길게 이어졌으면 하는 바람이 있다. 동시에 그 파도가 이어지는 동안, 나 역시 조금이라도 더 오래 그 위에 올라타 있을 수 있었으면 한다.

예전 면접 글이 아직도 꾸준히 읽히는 것을 보며, 갑자기 그때의 장면들이 떠올랐다.

텅 빈 사무실, 컴퓨터 한 대, 그리고 주식창을 바라보던 내 또래의 친구 한 명. 이상하게도 그 모습이 지금의 내 모습과 겹쳐 보였다. 어쩌면 그때 그 사람도 지금의 나처럼 매일 시장을 보고, 스스로의 판단을 의심하고, 다시 확인하며 버티고 있었을지도 모르겠다는 생각이 들었다.

그 기억이 오래전 일처럼 그냥 지나가지만은 않았다.
그래서 이렇게 한 번 적어두고 싶었다.

생각정리 243 (* 해외투자점검 6)

실적 시즌이 거의 마무리되어 가는 시점에서, 해외투자점검5에 이어 지난 5개월간의 변화 해외투자점검6을 기록해본다.

이번 포트폴리오 조정은 그동안 블로그에서 정리해왔던 AI 기술 변화의 방향성에서 크게 벗어나지 않는다. 다만 시간이 지나며 해당 흐름에 대한 확신이 더 강해졌고, 그 결과 포트폴리오는 이전보다 훨씬 더 압축된 집중 P/F 형태로 변화했다.

AI 포트폴리오는 어떻게 바뀌었나


AI 생태계 전반에서 하드웨어 병목 구간으로 이동한 과정


2025년 12월 중순부터 최근까지의 포트폴리오 변화를 보면 방향은 분명하다. 초기에는 AI 인프라 전반을 넓게 담는 구조였지만, 시간이 지나면서 AI 하드웨어 병목 구간에 집중하는 구조로 바뀌었다.

여기서 AI 인프라는 우리가 화면에서 보는 AI 서비스만을 의미하지 않는다. AI가 실제로 작동하려면 데이터센터, 반도체, 메모리, 네트워크 장비, 광통신 부품, 전력 인프라, 장비와 소재가 모두 필요하다. 사용자는 AI 소프트웨어를 경험하지만, 그 뒤에서는 막대한 하드웨어 공급망이 움직인다.

이번 포트폴리오 변화의 핵심은 AI 산업의 성장 자체보다, 그 성장 과정에서 어디에 병목이 생기고 그 병목의 가격 결정권을 누가 가져갈 것인가에 대한 판단이 더 구체화되었다는 점이다.


월별 포트폴리오 기업군 변화


아래 표는 포트폴리오를 산업군과 기능별로 다시 묶은 것이다. 

기업군 / 기능군2025.12 2026.01 2026.02 2026.03 2026.04 2026.05
메모리 IDM·NAND·스토리지13%31%53%50%43%43%
광학 네트워킹 H/W13%5%18%36%26%26%
네트워킹 ASIC/IP·통신 S/W/H/W13%0%0%6%6%6%
비메모리 IDM·파운드리·패키징·전력반도체5%5%5%0%24%24%
반도체 장비·검사·계측19%24%5%0%0%0%
소재·기판·특수소재·테스트 인터페이스 부품3%3%3%11%13%13%
AI S/W·클라우드·AI 데이터센터15%0%0%0%0%0%
에너지·전력 인프라19%16%16%0%0%0%
기타 자원·방산 등0%16%0%0%0%0%
AI 연산칩·가속기3%3%3%0%0%0%
총 P/F103%103%103%103%112%112%


이 표에서 가장 중요한 변화는 네 가지다.

첫째, AI S/W·클라우드·AI 데이터센터 비중이 15%에서 0%로 줄었다.

둘째, 에너지·전력 인프라 비중도 19%에서 0%로 내려왔다.

셋째, 반도체 장비·검사·계측 비중은 1월 24%까지 높아졌지만 최근에는 0%로 정리됐다.

넷째, 그 자리를 메모리, 광학 네트워킹, 비메모리 제조 기반, 패키징, 소재·기판·테스트 인터페이스 부품이 채웠다.

즉, 포트폴리오는 AI 전체 생태계를 넓게 사는 방식에서 벗어나 AI 서버 내부에서 실제 병목이 발생할 수 있고, 가격 결정권이 더 강하게 나타날 수 있는 구간으로 압축되었다.


AI 소프트웨어 비중을 낮춘 이유


가장 먼저 줄인 영역은 AI 소프트웨어였다.

겉으로 보면 AI 소프트웨어 시장은 성장성이 매우 커 보인다. 기업들은 업무 자동화, 문서 작성, 코딩, 고객 응대, 데이터 분석, 콘텐츠 제작 등에 AI를 빠르게 도입하고 있다. 하지만 포트폴리오 관점에서는 한 가지 질문이 중요해졌다.

개별 AI 소프트웨어 업체들이 장기간 독자적인 성장성을 유지할 수 있을까.

이 의문이 커진 이유는 LLM 선두업체들의 기술 발전 속도가 너무 빠르기 때문이다. 대형 언어모델의 성능이 빠르게 올라가면, 기존에는 특정 AI 소프트웨어 업체만 제공할 수 있었던 기능들이 점점 범용 모델 안으로 흡수될 수 있다.

문서 요약, 코드 생성, 데이터 분석, 업무 자동화, 고객 응대와 같은 기능은 개별 소프트웨어의 차별점이었다. 그러나 LLM 자체가 고도화되면 이런 기능들은 플랫폼의 기본 기능으로 편입될 가능성이 커진다.

문제는 AI 소프트웨어 시장의 성장성이 약하다는 뜻이 아니다. 오히려 시장은 계속 커질 수 있다. 다만 그 성장의 과실이 개별 애플리케이션 기업에 남을지, 아니면 모델과 플랫폼을 가진 소수의 LLM 선두업체로 집중될지가 더 중요한 질문이 되었다.


LLM 플랫폼화는 소프트웨어 기업의 지속성장에 부담이 될 수 있다


AI 소프트웨어 비중을 낮춘 또 다른 이유는 LLM 선두업체들의 플랫폼화 전략이다.

최근 LLM 선두업체들은 단순히 모델을 제공하는 수준을 넘어, 기업 고객의 데이터와 업무 흐름을 자신들의 플랫폼 안으로 연결하려는 방향을 보이고 있다. 기업 내부 문서, 협업툴, 코드 저장소, 데이터베이스, 고객 관리 시스템이 LLM 플랫폼과 연결될수록, 사용자의 업무 흐름은 상위 플랫폼에 더 깊게 묶인다.

이 흐름은 개별 AI 소프트웨어 기업에 양면적인 영향을 준다. 단기적으로는 LLM 플랫폼을 활용해 더 빠르게 제품을 만들 수 있다. 하지만 장기적으로는 고객 데이터, 모델 성능, 배포 환경, 업무 자동화 도구가 상위 플랫폼에 종속될 수 있다.

특히 LLM 선두업체가 자사 플랫폼 위에 데이터와 업무 흐름을 쌓도록 유도한다면, 개별 AI 소프트웨어 기업은 독립적인 플랫폼이라기보다 거대 LLM 생태계 위에서 작동하는 기능형 애플리케이션에 가까워질 수 있다. 이 경우 고객 접점과 데이터 주도권은 상위 플랫폼으로 이동하고, 개별 소프트웨어 기업의 장기 마진과 성장 지속성에는 부담이 생긴다.

따라서 AI 소프트웨어 비중 축소는 AI 시장의 성장성을 부정한 결정이 아니다. 성장의 주도권이 애플리케이션 레이어보다 LLM 플랫폼 레이어에 더 집중될 수 있다는 판단이 반영된 변화다.


전력 인프라보다 서버 내부 병목으로 초점이 이동했다


AI 소프트웨어와 함께 줄어든 영역은 에너지·전력 인프라다.

AI 데이터센터가 늘어나면 전력 수요가 증가한다. 전력망, 원전, 가스터빈, 전력기기, 냉각 인프라가 함께 주목받는 이유다. 2025년 12월 당시에는 이 흐름을 반영해 전력 인프라 비중도 의미 있게 포함되어 있었다.

하지만 시간이 지나면서 포트폴리오는 전력 테마보다 AI 서버 내부의 직접적인 병목 구간에 더 집중하는 방향으로 바뀌었다.

초기 질문이 “AI 데이터센터가 늘어나면 무엇이 필요할까”였다면, 최근 질문은 “AI 서버가 실제로 더 많이 깔릴 때 가장 먼저 부족해지는 부품은 무엇일까”에 가까워졌다.

이 질문의 답이 메모리, 광학 네트워킹, 패키징, 소재, 제조 기반 쪽으로 이동한 것이다.


메모리 IDM·NAND·스토리지가 중심축으로 올라섰다


최근 포트폴리오에서 가장 큰 비중을 차지하는 영역은 메모리 IDM·NAND·스토리지다.

IDM은 반도체 설계부터 생산까지 직접 수행하는 기업군을 의미한다. 메모리 IDM은 DRAM, HBM, NAND와 같은 메모리 반도체를 직접 생산하는 기업군이다.

AI 서버는 연산칩만으로 작동하지 않는다. 거대한 AI 모델을 학습하고 추론하려면 엄청난 양의 데이터를 빠르게 불러오고, 저장하고, 다시 이동시켜야 한다. 이 과정에서 메모리 대역폭스토리지 성능이 전체 시스템 성능을 좌우한다.

특히 HBM과 같은 고성능 메모리는 AI 연산 속도를 끌어올리는 핵심 부품이다. AI 모델이 커질수록 더 많은 데이터를 동시에 처리해야 하고, 이때 메모리의 성능과 공급량이 병목으로 작용할 수 있다.

포트폴리오에서 메모리 비중이 2025년 12월 13%에서 2026년 2월 53%, 최근 43% 수준까지 올라간 것은 이 판단을 반영한다. AI 수요가 계속 커질수록 단순 연산칩보다 메모리와 데이터 처리 인프라의 중요성이 더 커질 수 있다는 관점이다.


광학 네트워킹 H/W 비중 확대도 핵심 변화다


두 번째로 중요한 변화는 광학 네트워킹 H/W 비중 확대다.

AI 데이터센터 안에는 수많은 서버가 연결되어 있다. 서버 한 대가 혼자 모든 연산을 처리하는 구조가 아니라, 여러 서버가 동시에 데이터를 주고받으며 하나의 거대한 AI 연산 시스템처럼 움직인다.

이때 중요한 것이 네트워크다. 데이터가 서버 사이를 빠르게 이동하지 못하면, 아무리 좋은 연산칩과 메모리가 있어도 전체 성능은 떨어질 수밖에 없다.

그래서 포트폴리오는 광모듈, 레이저, 광부품, 고속 데이터 전송 장비처럼 데이터 이동을 담당하는 하드웨어 쪽으로 비중을 높였다. 2025년 12월 13%였던 광학 네트워킹 H/W 비중은 2026년 3월 36%까지 커졌고, 최근에도 26% 수준을 유지하고 있다.

AI 시대에는 계산을 잘하는 칩뿐 아니라, 그 칩들이 서로 빠르게 연결되도록 해주는 통신 인프라가 중요해진다. 이 변화는 포트폴리오가 AI를 단순한 연산칩 테마가 아니라 데이터 이동 병목 테마로 보고 있음을 보여준다.


비메모리 IDM·파운드리·패키징 비중이 다시 올라왔다


4월 이후에는 비메모리 IDM·파운드리·패키징·전력반도체 비중이 다시 커졌다. 3월에는 이 비중이 0%까지 줄었지만, 4월과 5월에는 24%까지 회복됐다.

이 변화는 포트폴리오가 메모리와 광학 네트워킹에만 머무르지 않고, 다시 제조 기반과 후공정 병목까지 확장되었음을 의미한다.

AI 반도체는 설계만으로 완성되지 않는다. 실제로 생산할 수 있는 파운드리 능력, 고성능 칩을 묶어내는 패키징 기술, 전력 효율을 높이는 전력반도체와 전원관리 부품이 함께 필요하다.

따라서 최근 포트폴리오는 AI 하드웨어를 더 넓은 의미에서 보고 있다. 핵심은 연산칩 하나가 아니라 메모리, 네트워크, 제조, 패키징, 전력관리까지 이어지는 공급망 전체의 병목이다.


장비 비중을 0%까지 줄인 이유: 수요보다 가격 결정권과 이익 상향 속도를 봤다


초기 포트폴리오에는 반도체 장비·검사·계측 비중도 높았다. 2025년 12월에는 19%, 2026년 1월에는 24%까지 올라갔다.

반도체 설비투자가 늘어나면 장비 수요도 증가할 수 있기 때문에, 이 구간은 AI 반도체 투자 사이클을 넓게 반영한 영역이었다. 하지만 2월부터 장비 비중은 크게 줄었고, 3월 이후 최근 포트폴리오에서는 **0%**로 정리되었다.

이 변화는 단순히 장비 수요가 약해진다는 판단 때문만은 아니다. 핵심은 AI 병목이 심해질수록 이익 상향 조정의 속도와 가격 결정권이 칩을 직접 보유한 IDM·메모리·물리적 캐파 보유 업체 쪽에 더 빠르게 반영될 가능성이 크다는 점이다.

검사·계측 장비업체의 사례를 보면 이 차이가 드러난다. 해당 업체는 2026년 매출총이익률을 약 62% 내외로 유지할 수 있다고 봤지만, 단기적으로는 두 가지 비용 부담을 안고 있다.

첫째는 DRAM 가격 상승이다. 장비 내부에 들어가는 이미지 프로세싱 컴퓨터용 메모리 비용이 올라가면서 매출총이익률에 약 100bp 수준의 부정적 영향을 주고 있다. AI 수요로 메모리 가격이 오르면 메모리 IDM에는 실적 상향 요인이 될 수 있지만, 메모리를 부품으로 구매해야 하는 장비업체에는 비용 부담으로 작용할 수 있다.

둘째는 관세 부담이다. 현재 관세 영향으로 약 50~100bp 수준의 마진 부담이 발생하고 있으며, 회사는 운영 대응을 통해 연중 영향을 낮추려 하고 있다. 하지만 이 역시 장비업체의 단기 이익률 확장을 제한하는 요인이다.

여기에 더해 중요한 부분은 가격 정책이다. 검사·계측 장비업체는 고객 수요가 강하더라도 공급 부족을 이유로 희소성 기반 가격 인상을 하지는 않는다고 밝혔다. 가격 인상은 장비 성능 개선과 고객의 cost of ownership 개선에 기반한다는 입장이다.

이 말은 장비업체의 가격 결정 방식이 메모리 칩이나 일부 병목 부품과 다르다는 뜻이다. 메모리 가격은 수급이 타이트해지면 비교적 빠르게 판가에 반영될 수 있다. 반면 장비 가격은 고객과의 장기 관계, 생산성 개선, 장비 성능, 고객의 투자수익률 논리에 묶여 있다. 수요가 강해도 가격이 곧바로 급격히 오르기 어렵다.

식각·증착 장비업체의 경우도 비슷한 고민이 있다. 업계 전체 설치 웨이퍼 캐파가 과거 고점 대비 크게 줄어든 상황에서는 향후 greenfield 투자가 필요해질 수 있다. 3D NAND 고단화가 진행될수록 식각·증착 공정 기회가 늘어나는 것은 분명한 긍정 요인이다.

하지만 greenfield 투자는 시간이 필요하다. 부지를 확보하고, 인허가를 받고, 클린룸을 짓고, 장비를 반입하고, 엔지니어와 숙련 인력을 배치하는 과정에는 물리적인 시간이 걸린다. 인력과 설치 역량에도 제약이 있다. 따라서 NAND WFE 성장의 방향성이 좋더라도, 장비업체의 실적 상향은 메모리 칩 가격 상승처럼 즉각적으로 반영되기 어렵다.

결국 장비업체는 AI 설비투자 확대의 수혜를 받을 수 있지만, 협상 테이블에서는 상대적으로 제약이 있다. 고객인 IDM과 파운드리 업체들은 장비 구매 시 가격, 납기, 성능, 유지보수 조건을 강하게 협상한다. 반대로 메모리 IDM이나 물리적 캐파를 가진 업체들은 병목이 심해질수록 칩 가격 인상이라는 방식으로 수익성 개선을 더 빠르게 반영할 수 있다.

따라서 장비 비중 축소는 장비 산업의 장기 성장성을 부정하는 결정이 아니라, 병목 구간에서 누가 더 빠르게 이익을 상향 조정할 수 있는가에 대한 선택이다. 이번 포트폴리오는 설비투자 사이클 전체보다 가격 인상과 실적 상향이 더 직접적으로 나타날 수 있는 IDM, 메모리, 광학부품, 소재, 제조 캐파 보유 업체에 더 높은 가중치를 둔 구조로 바뀌었다.


소재·기판·테스트 인터페이스 부품은 하드웨어 공급망의 기초 체력이다


소재·기판·특수소재·테스트 인터페이스 부품 비중도 의미 있게 남아 있다. 2025년 12월에는 3%였지만, 2026년 3월에는 11%까지 올라갔고 최근에는 13% 수준까지 확대되었다.

AI 서버와 고성능 반도체는 칩 성능만으로 완성되지 않는다. 고속 신호를 안정적으로 전달할 수 있는 기판, 열과 전기적 특성을 견딜 수 있는 소재, 고성능 패키징에 필요한 부품, 테스트 과정에서 필요한 인터페이스 부품이 함께 필요하다.

AI 서버는 일반 서버보다 데이터 처리량이 많고 전력 소모도 크다. 그만큼 소재와 기판의 성능 요구치도 높아진다. 포트폴리오 안에서 이 영역은 AI 하드웨어 공급망의 기초 체력을 담당하는 구간이다.

이 영역을 장비와 구분해서 보는 이유도 여기에 있다. 장비업체는 고객의 설비투자 사이클과 협상 구조의 영향을 크게 받는다. 반면 소재·기판·테스트 인터페이스 부품은 AI 서버, 고성능 패키징, 고속 신호 전송, 반도체 테스트 수요와 더 직접적으로 맞닿아 있다.


전체 변화 방향을 정리하면


2025년 12월 중순의 포트폴리오는 AI 생태계 전반을 넓게 담고 있었다. AI 소프트웨어, 클라우드, 전력 인프라, 반도체 장비, 메모리, 네트워크, 광통신까지 함께 포함되어 있었다.

하지만 최근 포트폴리오는 훨씬 좁고 강해졌다. AI 소프트웨어와 전력 인프라는 빠졌고, 반도체 장비·검사·계측 비중도 0%로 정리되었다. 대신 메모리 IDM·NAND·스토리지, 광학 네트워킹 H/W, 비메모리 IDM·파운드리·패키징, 소재·기판·테스트 인터페이스 부품 중심으로 압축되었다.

이 변화의 핵심은 AI 시장에 대한 관점이 바뀐 데 있다. 초기에는 “AI가 성장하면 어떤 산업이 함께 좋아질까”라는 접근이었다면, 지금은 “AI가 성장할수록 무엇이 부족해지고, 그 부족함을 누가 가격과 이익으로 가장 빠르게 전환할 수 있을까”라는 접근에 가깝다.

AI 소프트웨어 비중 축소는 LLM 선두업체들의 빠른 기술 발전과 플랫폼화 흐름을 반영한다. 개별 AI 소프트웨어의 기능 차별성이 약해지고, 고객 데이터와 업무 흐름이 상위 LLM 플랫폼에 흡수될 가능성이 커졌기 때문이다.

장비 비중 축소 역시 같은 맥락이다. 장비 수요의 방향성은 좋지만, DRAM 비용 상승, 관세 부담, 고객과의 가격 협상 구조, greenfield 투자에 필요한 물리적 시간과 인력 제약을 고려하면, 장비업체의 이익 상향 속도는 IDM·메모리·물리적 캐파 보유 업체보다 상대적으로 느릴 수 있다.

결국 최근 포트폴리오는 AI 서비스의 성장성보다 AI를 실제로 구현하기 위해 반드시 필요한 하드웨어 공급망에 더 강하게 베팅하는 구조로 바뀌었다. AI가 더 많이 쓰일수록 누가 서비스를 제공하느냐보다, 그 서비스를 가능하게 만드는 메모리, 네트워크, 제조 캐파, 패키징, 소재 병목이 더 중요해질 수 있다는 판단이 반영된 변화다.

#글을 마치며


기업과 포트폴리오는 하나의 생명체와 닮아 있다.

생명체의 성장이 가장 풍부한 자원이 아니라 가장 부족한 자원에 의해 결정되듯, 산업과 기업의 성장도 결국 가장 강한 부분이 아니라 가장 취약한 병목에 의해 좌우된다.

그리고 그 병목이 해소되는 순간, 또 다른 부족한 자원이 새로운 성장의 최소값이 된다.

앞으로도 최소한의 법칙을 잊지 않고, 하나의 생명체를 키우듯 포트폴리오를 살피며, 지금의 병목이 언제까지 가격과 이익으로 전환될 수 있는지를 끝까지 검증해 나가며,

포트폴리오가 시들지 않도록 변화를 계속 관찰하고 관리하는 것이 중요하지 않을까 한다. 




=끝

2026년 5월 7일 목요일

생각정리 242 (* Agent AI, CPU market)

이전글에 이어 agent ai시대의 cpu 시장에 대해 추가 리서치를 이어나가본다.

Agent AI 시대의 CPU 시장


TAM 상향보다 중요한 것은 “누가 실제로 만들 수 있느냐”다


CPU 시장을 다시 봐야 하는 이유는 단순하다. 최근 Arm과 AMD가 거의 같은 시점에 CPU TAM을 크게 상향했고, 두 회사 모두 공통적으로 수요보다 공급망 확보가 더 큰 변수라는 메시지를 내고 있기 때문이다.

Agent AI가 확산되면 CPU 수요는 서버 안에서만 늘어나는 문제가 아니다. 데이터센터의 head node, control plane, inference orchestration뿐 아니라 PC, 워크스테이션, 스마트폰, IoT까지 확장될 가능성이 있다. 결국 투자 포인트는 “CPU 수요가 늘어날 것인가”를 넘어, 그 수요를 누가 실제 웨이퍼·패키징·테스트 캐파로 받아낼 수 있느냐로 이동하고 있다.


Arm: AGI CPU는 TAM을 다시 쓰는 사건이다


Arm은 2026년 3월 Arm AGI CPU를 공개했다. 이 제품은 Arm이 단순 IP 라이선스와 로열티 모델을 넘어 직접 데이터센터용 CPU 실리콘을 공급하겠다는 첫 번째 본격 사례라는 점에서 의미가 크다.  (Arm Newsroom)

Arm의 핵심 메시지는 명확하다. Agent AI 데이터센터에서는 CPU가 단순 보조 연산 장치에 머물지 않고, accelerator management, control plane processing, API hosting, task hosting 같은 역할을 담당하게 된다. Arm이 공식 자료에서 AGI CPU의 주요 사용처를 이 영역으로 제시했다는 점은 CPU 수요가 “기존 서버 교체 수요”보다 훨씬 넓은 범위에서 발생할 수 있음을 보여준다. (Arm Newsroom)

최근 실적 관련 보도에서는 이 숫자가 더 구체화됐다. Arm은 FY2027~FY2028 합산 기준 20억 달러 이상의 AGI CPU 고객 수요를 확보했으며, 이는 최초 발표 당시보다 두 배 이상 커진 수준으로 보도됐다. 동시에 회사는 현재 확보 가능한 공급으로는 약 10억 달러 수준의 수요를 대응할 수 있다고 언급하면서, 추가 매출 인식의 관건이 수요가 아니라 제조·메모리·패키징 공급망 확보에 있다고 설명했다. (마켓워치)

이 지점이 중요하다. Arm이 말하는 장기 1,000억 달러 이상의 데이터센터 CPU TAM은 공격적인 숫자지만, 시장이 주목해야 할 핵심은 숫자 그 자체보다 직접 칩 판매가 Arm의 TAM을 구조적으로 재정의한다는 점이다. 기존에는 Arm 기반 칩이 많이 팔려도 Arm은 로열티 중심으로 수익을 가져갔다. 이제는 데이터센터 CPU 시장에서 직접 제품 매출이 발생할 수 있는 구조로 바뀌고 있다.


#ARM 

NOW



2M before



AMD: 서버 CPU TAM 전망이 다시 올라갔다


AMD도 같은 방향을 보고 있다. AMD는 2026년 1분기 실적 발표에서 Agent AI에 따른 CPU compute requirement 증가를 근거로 서버 CPU TAM 전망을 크게 높였다. 리사 수 CEO는 2025년 11월 Financial Analyst Day에서 제시했던 연평균 약 18% 성장률 전망을 상향해, 서버 CPU TAM이 2030년까지 연평균 35% 이상 성장하며 1,200억 달러 이상에 도달할 수 있다고 밝혔다. (야후 금융)

이 발언은 Arm의 메시지와 맞닿아 있다. Agent AI가 확산되면 데이터센터는 GPU만 더 붙이는 구조로 끝나지 않는다. GPU/XPU를 효율적으로 활용하려면 더 많은 CPU 코어가 필요하고, workload orchestration, scheduling, networking, memory coordination, storage access 같은 영역에서 CPU의 부담이 커진다.

여기서 중요한 것은 AMD가 단순히 CPU 제품 경쟁력을 강조한 것이 아니라, 장기 고객 수요와 캐파 플래닝 논의가 동시에 깊어지고 있다고 언급했다는 점이다. 수요 전망의 상향과 공급망 논의가 같이 등장한다는 것은 시장의 병목이 점차 “설계”에서 “실제 공급”으로 이동하고 있음을 의미한다.


#AMD

NOW


2M Before



서버 CPU만 보면 그림이 작다


CPU 시장을 데이터센터 서버에만 국한해서 보면 이 변화의 폭을 과소평가할 수 있다. Agent AI는 일부 작업을 클라우드에서 처리하더라도, 점차 더 많은 연산과 실행 환경을 엣지 디바이스로 밀어낼 가능성이 있다.

이미 Apple Mac에서 초기 신호가 보인다. 9to5Mac은 2026년 4월 말 Apple 실적 발표를 인용해 Mac mini와 Mac Studio의 공급 부족이 수개월간 이어질 수 있다고 보도했다. 팀 쿡은 두 제품이 AI와 agentic tools를 위한 훌륭한 플랫폼으로 인식되면서 수요가 예상보다 빠르게 늘었다고 설명했다. 동시에 Apple은 advanced node와 메모리 부품 제약을 공급 부족의 주요 원인으로 언급했다. (9to5Mac)

이 사례는 서버 밖 CPU 수요를 이해하는 데 중요하다. 로컬 AI 모델, 개발자용 에이전트, 코드 자동화 도구, 개인화된 온디바이스 워크로드가 늘어나면 PC와 워크스테이션의 요구 사양도 올라갈 수밖에 없다. 지금은 메모리 가격과 부품 부족 때문에 일부 디바이스 출하가 눌리는 국면일 수 있지만, 중장기적으로는 Agent AI가 PC·노트북·스마트폰·IoT 전반의 사양 업그레이드 사이클을 자극할 가능성이 높다.


그래서 투자 포인트는 “기술 우위”보다 “물리적 병목”이다


CPU 시장의 기술 경쟁력만 보면 Arm과 AMD가 Intel보다 더 매력적으로 보이는 부분이 많다. Arm은 전력 효율과 생태계 확장성이 강하고, AMD는 EPYC 기반으로 서버 CPU 시장에서 점유율을 꾸준히 확대해왔다. 반면 Intel은 공정 경쟁력 회복과 서버 CPU 점유율 방어라는 과제를 동시에 안고 있다.

그럼에도 지금의 상위 투자 포인트는 기술 우위보다 physical bottleneck에 더 가깝다. AI 인프라 수요가 서버에서 PC와 엣지까지 번지면, 시장은 결국 “누가 더 좋은 CPU를 설계하느냐”만 보지 않는다. 누가 웨이퍼를 확보하고, 첨단 패키징을 처리하고, 테스트까지 통과시켜 실제 제품을 출하할 수 있느냐를 보게 된다.

Arm이 강한 수요에도 불구하고 가이던스를 보수적으로 유지한 이유도 이 지점에 있다. 수요는 이미 확인됐지만, 웨이퍼·메모리·패키징·테스트 장비를 확보해야 매출로 연결된다. AMD 역시 서버 CPU TAM을 크게 올려 잡으면서 동시에 장기 캐파 플래닝을 강조했다. 이 두 회사의 발언을 종합하면, CPU 시장의 다음 병목은 단순 설계 경쟁이 아니라 생산 가능 캐파와 후공정 처리 능력이다.


Intel을 다시 봐야 하는 이유: EMIB와 후공정 캐파


이 관점에서 보면 Intel의 상대적 매력이 다시 부각된다. Intel의 약점은 명확하다. x86 CPU 시장 점유율 방어, 공정 리더십 회복, 파운드리 고객 확보 모두 아직 검증이 필요하다. 그러나 AI 인프라 병목이 첨단 패키징과 물리적 캐파로 이동하는 국면에서는 Intel의 강점도 뚜렷해진다.

TrendForce는 Intel이 EMIB 첨단 패키징 캐파를 미국 오리건과 베트남을 중심으로 확장하고 있으며, 대만 장비업체에 대규모 발주를 진행해 2026년 하반기 납품이 예정돼 있다고 보도했다. 또한 Intel이 코스타리카의 일부 조립·패키징·테스트 기능을 베트남 SHTP로 이전하고, 베트남 생산이 데이터센터 서버용 칩에 집중될 것이라고 전했다. (TrendForce)

[뉴스] 인텔은 미국과 베트남에서 EMIB 확장 확대를 확대하고 있으며, 대만 공구 주문은 2026년 2분반 인도 예정 예정입니다

EMIB 수율 관련 보도도 주목할 만하다. TrendForce는 Wccftech 보도를 인용해 Intel EMIB가 약 90% 수준의 수율에 도달했고, Google과 Meta가 잠재 채택 후보로 거론되고 있다고 전했다. 다만 대량 양산을 위해서는 90%에서 98% 수준까지 끌어올리는 과정이 훨씬 어렵다는 지적도 함께 제시했다. 이 부분은 Intel 투자 아이디어의 업사이드와 리스크를 동시에 보여준다. (TrendForce)

즉, Intel의 강점은 “지금 당장 CPU 기술에서 Arm·AMD를 압도한다”는 논리가 아니다. 핵심은 첨단 패키징 병목이 심해질수록 Intel이 대체 캐파 공급자로 호출될 가능성이다. TSMC CoWoS가 타이트하고, 고성능 CPU·GPU·XPU·ASIC 수요가 동시에 늘어나는 구간에서는 고객사들이 두 번째, 세 번째 공급 옵션을 확보하려 할 수밖에 없다.


#Intel

NOW


4M before



Apple의 움직임도 같은 방향을 가리킨다


Apple 역시 TSMC 의존도를 낮추기 위한 공급망 다변화 가능성이 보도됐다. Bloomberg를 인용한 보도들에 따르면 Apple은 미국 내 주요 디바이스 칩 생산을 위해 Intel과 초기 논의를 진행했고, Samsung의 텍사스 공장도 검토한 것으로 알려졌다. 아직 확정 주문은 아니지만, Apple이 TSMC 외 대안을 탐색한다는 사실 자체가 현재 첨단 노드와 패키징 캐파가 얼마나 전략적 자산이 됐는지를 보여준다. (TrendForce)








이 움직임은 단순히 Apple의 공급망 이슈로 볼 문제가 아니다. AI 데이터센터 수요가 첨단 노드와 패키징 캐파를 빨아들이고, 동시에 Mac 같은 고성능 엣지 디바이스 수요도 올라오면, Apple 입장에서는 TSMC 단일 의존 리스크를 줄일 필요가 커진다. 이때 Intel과 Samsung은 기술적 완성도와 수율 검증이 필요하지만, 전략적 대안으로서의 가치는 높아질 수 있다.


#APPLE






결론: CPU 시장의 핵심 질문이 바뀌고 있다


CPU 시장은 다시 성장 국면에 들어섰다. Arm은 AGI CPU를 통해 데이터센터 CPU 시장에서 직접 매출 기회를 만들고 있고, AMD는 Agent AI를 근거로 서버 CPU TAM 전망을 2030년 1,200억 달러 이상으로 상향했다. Apple Mac 사례는 Agent AI 수요가 서버 밖 디바이스 시장까지 확산될 수 있다는 신호를 제공한다.

다만 이 시장을 볼 때 가장 중요한 질문은 “누가 가장 좋은 CPU를 만드느냐”에만 머물러서는 안 된다. 지금은 누가 실제 생산 캐파를 확보할 수 있느냐, 누가 첨단 패키징 병목을 완화할 수 있느냐, 누가 고객사들의 공급망 다변화 수요를 받아낼 수 있느냐가 더 중요한 구간이다.

그 관점에서 보면 시장이 Arm과 AMD를 먼저 보는 것은 자연스럽다. 두 회사 모두 CPU 수요 증가의 직접 수혜가 크고, 제품 경쟁력도 분명하다. 그러나 physical bottleneck을 상위 투자 포인트로 놓고 보면 Intel 역시 과소평가하기 어렵다. 특히 EMIB, 미국·베트남 후공정 확장, 잠재 hyperscaler 고객 확보 가능성은 Intel이 단순 CPU 점유율 방어주가 아니라 AI 인프라 병목 완화 플레이어로 재평가될 수 있는 근거다.

AI가 촉발한 수요는 이제 GPU에서 멈추지 않는다. CPU, 메모리, 패키징, 테스트, 전력, 엣지 디바이스까지 연쇄적으로 번지고 있다. 앞으로의 관전 포인트는 이 수요의 크기보다, 그 수요를 실제 제품으로 바꿀 수 있는 물리적 공급망을 누가 갖고 있는가에 있다.


AI가 촉발한 수요의 불씨가 거대한 산불이 되어 어디까지 확산될지 지켜볼 뿐이다..















=끝

2026년 5월 6일 수요일

생각정리 241 (* LLM Compute Leverage, Memory )

OpenAI와 Anthropic의 2030년 수익모델을 추정하는 과정에서 생긴 질문들을 따라가다 보니, 리서치가 AI 데이터센터 용량, ARPU, 토큰 경제, CPU·메모리 병목으로 이어졌다.

이번 글의 결론부터 말하면 다음과 같다. LLM 기업은 Agent AI 기능에 광고와 커머스 수수료를 붙여 ARPU를 높일 유인이 크다. 동시에 Agent AI 도입으로 CPU와 GPU 수요가 선형적으로 증가하는 동안, CPU당 탑재되는 DRAM 용량과 메모리 사용량은 훨씬 더 가파르게 증가할 가능성이 있다.

아래는 그 흐름을 두서없이 정리한 글이다.

OpenAI와 Anthropic의 2030년 목표 실적: 병목은 데이터센터를 넘어 ARPU·CPU·메모리로 이동한다


OpenAI

OpenAI


Anthropic


Anthropic


22GW의 AI 데이터센터로 2030년 목표 실적을 만들 수 있는가


AI 데이터센터에서 말하는 GW는 전력 단위다. 쉽게 말하면 AI 모델을 학습시키고, 추론을 돌리고, AI 에이전트가 여러 작업을 처리하는 데 필요한 거대한 AI 공장의 전력 규모다.

이전 글에서는 OpenAI와 Anthropic의 visible AI 데이터센터 용량을 중복 제거 기준으로 약 22GW로 정리했다. 당시 OpenAI·Anthropic 22GW는 BIG5의 AI infra-equivalent capacity 80.8GW 대비 약 **27.2%**에 해당한다고 보았다. 

그런데 별도 수익모델에서 2030년 목표 실적을 맞추기 위해 이론적으로 필요한 AI 데이터센터 용량은 약 37.5GW에 가깝다. 즉 현재 보이는 22GW와 비교하면 약 15.5GW의 차이가 발생한다.

이 차이는 단순히 “데이터센터를 더 지으면 된다”는 문제로 끝나지 않는다. AI 데이터센터 병목이 구조화되는 상황에서는 같은 GW에서 더 많은 매출을 뽑아내는 능력, 즉 GW당 ARPU 효율이 중요해진다.




1. Anthropic은 10GW 모델이 상대적으로 자연스럽다


OpenAI와 Anthropic을 나눠 보면 차이가 더 분명해진다. Anthropic은 목표 실적을 달성하기 위해 필요한 AI 데이터센터 규모와 이전 글에서 추정한 visible capacity가 비교적 잘 맞는다.

Anthropic은 소비자 광고 플랫폼이라기보다 기업용 AI, API, Claude Code, workflow agent 중심의 회사에 가깝다. 기업 고객은 Claude를 단순한 챗봇으로 쓰지 않는다. 코드를 작성하고, 오류를 수정하고, 문서를 만들고, 데이터를 분석하고, 내부 업무 프로세스를 자동화하는 데 활용한다.

즉 Anthropic의 매출은 소수의 고ARPU 기업 고객이 많은 토큰과 연산을 소비하는 구조로 설명된다.

실제 Anthropic은 run-rate revenue가 $14bn에 도달했고, 연간 $100,000 이상 지출 고객 수가 1년 만에 7배 증가했다고 밝혔다. Claude Code의 run-rate revenue도 $2.5bn을 넘었고, 기업 사용이 Claude Code 매출의 절반 이상을 차지한다고 설명했다. (Anthropic)


https://www.anthropic.com/news/anthropic-raises-30-billion-series-g-funding-380-billion-post-money-valuation

따라서 Anthropic의 2030년 논리는 비교적 명확하다. 기업이 Claude를 더 많은 업무에 붙일수록 고객당 지출액이 커지고, 이는 AI 데이터센터 용량 대비 높은 매출로 연결된다. 소비자 광고를 크게 붙이지 않아도, Claude Code와 workflow agent가 기업 내부에 깊게 들어가면 목표 실적에 접근할 수 있다.




2. OpenAI는 12GW로 더 많은 매출을 만들어야 한다


OpenAI는 Anthropic보다 구조가 복잡하다. OpenAI는 ChatGPT라는 압도적인 소비자 접점을 가지고 있지만, 이론적 수익모델이 요구하는 AI 데이터센터 규모와 이전 글에서 보이는 visible capacity 사이의 차이가 크다.

이전 글에서는 OpenAI의 물리적 AI 데이터센터 용량을 중복 제거 기준으로 약 12GW로 보았다. Stargate 10GW와 AWS Trainium 관련 capacity를 반영하되, Broadcom, NVIDIA, AMD의 칩·시스템 물량은 같은 물리 데이터센터 안에 들어갈 수 있기 때문에 중복 계산하지 않는 방식이다. OpenAI·Oracle·SoftBank의 Stargate도 공식적으로 $500bn, 10GW commitment로 설명된다. (OpenAI)

문제는 OpenAI가 2030년 목표 실적을 달성하려면 12GW만으로 매우 높은 매출 효율을 만들어야 한다는 점이다. 단순히 유료 구독자를 늘리는 것만으로는 부족하다. OpenAI는 비자용 ChatGPT를 광고·커머스·결제·개인비서 기능이 결합된 agent platform으로 확장해야 한다.



OpenAI가 이 방향으로 움직일 가능성은 이미 보인다. OpenAI는 100만 개 이상의 business customers가 OpenAI를 사용하고 있으며, ChatGPT의 주간 사용자도 8억 명 이상이라고 밝혔다. 또한 Canva, Figma, Zillow, Spotify 같은 앱이 ChatGPT에 연결되고, Shopify, Etsy, Walmart, PayPal, Salesforce 등이 Agentic Commerce Protocol을 통해 ChatGPT 안에서 새로운 쇼핑 경험을 만들고 있다고 설명했다. (OpenAI)

즉 OpenAI의 2030년 모델은 B2C 광고·커머스와 B2B Codex·workflow agent가 동시에 커져야 성립하는 구조다. Anthropic이 기업용 고ARPU에 집중한다면, OpenAI는 소비자 접점을 기반으로 광고와 커머스를 붙이고, 동시에 기업용 Codex를 강화해야 한다.




3. OpenAI가 소비자용 광고·커머스에 집중할 수밖에 없는 이유


OpenAI가 12GW 수준의 visible capacity로 2030년 목표 실적에 접근하려면, 가장 중요한 수익화 지점은 소비자용 ChatGPT다. 단순 유료 구독만으로는 한계가 있다.

따라서 OpenAI는 ChatGPT를 검색창이 아니라 소비자 의사결정 인터페이스로 바꿔야 한다.

기존 검색 광고는 사용자가 검색어를 입력하면 광고를 보여주는 구조였다. 반면 agent AI는 훨씬 깊은 행동을 수행한다. 사용자가 “다음 주 도쿄 출장 일정을 짜줘”라고 요청하면 AI는 항공권, 호텔, 이동 경로, 식당, 일정, 결제 후보를 함께 비교한다. 사용자가 “노트북을 추천해줘”라고 요청하면 제품 스펙, 가격, 리뷰, 배송 조건, 구매처를 비교하고 최종 후보를 제안한다.

이 과정에서 AI는 단순히 정보를 보여주는 도구가 아니라 구매 전환 직전의 decision layer가 된다. 광고와 커머스는 이 지점에서 붙을 수 있다. 사용자는 더 편리한 agent 기능을 얻고, OpenAI는 광고, 추천, 제휴, 결제, 커머스 take-rate을 통해 구독료 외 매출을 붙일 수 있다.

따라서 OpenAI의 소비자용 ARPU 상승은 단순히 “구독료를 올린다”는 의미가 아니다. 사용자의 시간, 검색, 쇼핑, 여행, 일정관리, 결제 의사결정이 ChatGPT 안으로 들어오면서 수익화 면적이 넓어지는 것이다.




4. 토큰 경제 변화가 OpenAI의 12GW 모델을 방어한다


여기서 가장 중요한 전제는 토큰 경제다. 토큰은 AI가 문장을 읽고 쓰는 기본 단위다. 우리가 ChatGPT에 질문을 입력하면, 모델은 그 문장을 작은 단위로 쪼개 읽고, 다시 토큰 단위로 답변을 생성한다.

에이전트형 AI는 기존 챗봇보다 훨씬 많은 토큰을 소비한다. 사용자가 질문 하나를 던지고 답변 하나를 받는 구조가 아니라, AI가 여러 단계를 거쳐 생각하고, 검색하고, 외부 도구를 호출하고, 결과를 검증하기 때문이다.

최근 IB에서 나온 리포트를 요약해보면, 2030년까지 전 세계 토큰 소비량은 2026년 대비 24배 증가하고, 월간 토큰 소비량은 120조 개에 도달한다고 한다 .

소비자용 agent token demand는 2030년까지 12배, 기업용 agent token demand는 장기 peak에서 55배까지 증가할 수 있다고 한다. 

동시에 토큰당 계산 비용은 반도체 기술 발전, 모델 최적화, 캐싱, 저비용 모델 라우팅 덕분에 연 60~70% 하락한다고 가정해본다. 

이 경우 OpenAI의 12GW 모델은 단순히 비현실적인 모델이 아니라 조건부 고ARPU·고효율 모델로 바뀐다. 토큰 가격이 안정되고, 토큰당 계산 비용이 급락하며, 사용량이 폭증하면 매출과 마진이 동시에 개선될 수 있기 때문이다.








비용 하락 효과를 단순 계산하면 다음과 같다. 2026년 대비 2030년까지 4년 동안 토큰당 계산 비용이 매년 60% 하락하면, 2030년 token cost는 2026년의 2.56% 수준이 된다.

매년 70% 하락하면 0.81% 수준까지 내려간다. 여기에 사용량 24배를 반영해도 총 compute cost 부담은 2026년 대비 각각 61% 또는 19% 수준으로 계산된다.



이 계산이 중요한 이유는 분명하다. 토큰 사용량이 폭증해도 토큰당 원가가 더 빠르게 하락하면, AI 기업은 더 복잡한 에이전트 기능을 제공하면서도 마진을 방어할 수 있다.

낮아진 원가는 더 많은 agent use case를 만들고, 더 좋은 agent는 더 많은 사용량과 더 높은 ARPU를 만든다. 이것이 AI 산업의 경제적 플라이휠이다.

원가 하락 → 더 복잡한 agent 기능 → 토큰 사용량 증가 → ARPU 상승 → 더 큰 인프라 투자 → 다시 원가 하락의 구조다.





5. 에이전트 AI는 GPU뿐 아니라 CPU 수요를 자극한다


토큰 경제가 개선되더라도 물리적 인프라 병목은 사라지지 않는다. 오히려 에이전트형 AI가 확산될수록 병목은 GPU에서 CPU, 메모리, 네트워크, 스토리지, orchestration layer로 넓어진다.

기존 AI 인프라 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 그러나 agent AI는 workload 구조를 바꾼다. 에이전트는 한 번의 답변을 생성하는 데서 끝나지 않고, tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다.

AMD도 이 변화를 공개적으로 강조하기 시작했다. AMD는 2026년 1분기 실적 관련 코멘트에서 inference와 agentic AI가 고성능 CPU와 accelerator 수요를 높이고 있다고 설명했다. (Advanced Micro Devices, Inc.) 또한 AMD는 별도 글에서 agentic AI가 확산될수록 inference가 multistep workflow가 되고, CPU가 scheduling, data preparation, memory, I/O, control flow를 담당한다고 정리했다. (AMD)

쉽게 말하면 GPU가 AI의 “계산 엔진”이라면, CPU는 AI 데이터센터의 “작업 관리자”다. GPU가 답변 생성에 필요한 대규모 연산을 수행하는 동안, CPU는 어떤 작업을 먼저 처리할지 정하고, 데이터를 옮기고, 메모리를 관리하고, 외부 API 호출과 애플리케이션 연결을 조율한다.

에이전트 AI가 많아질수록 이 작업 관리 기능의 중요성이 커진다. 쇼핑 agent는 상품 DB를 조회하고, 가격을 비교하고, 리뷰를 요약하고, 결제 후보를 정리한다. 여행 agent는 항공권, 호텔, 일정, 지도, 날씨, 예약 시스템을 동시에 호출한다. 이 모든 작업은 단순 GPU 추론만으로 끝나지 않는다.






6. Arm Holdings도 CPU TAM 상승을 말하고 있다


Arm Holdings도 같은 방향의 메시지를 내고 있다. Arm은 agent-based inference가 AI 데이터센터 설계를 바꾸고 있으며, 더 많은 고효율·고코어 CPU 수요를 만들고 있다고 설명했다. Arm Neoverse CPU는 이미 10억 코어 이상 배포됐고, 상위 hyperscaler 내 Arm 점유율도 50%에 가까워질 것으로 예상한다고 밝혔다. (Arm Newsroom)

더 중요한 것은 Arm AGI CPU 발표다. Arm은 agentic AI infrastructure를 위한 data center CPU인 Arm AGI CPU를 공개했다. Arm은 AI가 모델을 한 번 학습시키는 시대에서, 계속 작동하는 AI agent를 배포하는 시대로 이동하고 있다고 설명한다. 이 변화는 reasoning, coordination, data movement를 처리할 CPU 수요를 크게 늘린다. 특히 Arm은 agent-driven application이 확산되면 데이터센터가 같은 GW 안에서 현재보다 4배 이상의 CPU capacity를 필요로 할 수 있다고 밝혔다. (Arm Newsroom)

Arm의 설명을 더 쉽게 풀면 이렇다. 에이전트 AI는 계속 켜져 있고, 여러 모델과 서비스를 호출하며, 실시간으로 의사결정을 한다. 이 과정에서 CPU는 수천 개의 분산 작업을 관리하고, accelerator를 조율하며, memory와 storage를 관리하고, 데이터 이동을 담당한다. Arm은 이런 이유로 CPU가 현대 AI 인프라의 핵심 조율 장치가 되고 있다고 설명한다. (Arm Newsroom)

즉 AMD와 Arm이 동시에 말하는 결론은 같다. AI 데이터센터는 GPU 중심 구조에서 GPU+CPU+메모리+네트워크가 결합된 balanced system으로 이동하고 있다.





7. Morgan Stanley 관점: CPU TAM은 세 갈래로 커진다


Morgan Stanley의 4월 19일자 요약 기준으로 보면, 에이전트 AI가 CPU TAM을 키우는 경로는 크게 세 가지다.

첫 번째는 head node CPU다. 이는 NVIDIA Grace, Vera처럼 GPU rack에 직접 연결되는 CPU다. 2030년까지 전 세계적으로 500만 개의 AI accelerator가 배포되고, 각 GPU board가 $5,000짜리 고급 CPU 두 개와 연결된다고 가정하면, 이 부분만으로 약 $50bn의 TAM이 발생한다.

두 번째는 orchestration CPU다. 이는 에이전트 AI가 만드는 새로운 수요다. 각 GPU에 2~3개의 추가 CPU-intensive node가 필요하고, 코어 수는 현재 Arm AGI CPU의 136개에서 2030년 200~300개로 증가하며, 단위당 평균 가격은 $3,000 수준으로 올라간다고 가정한다. 이 경우 orchestration CPU TAM은 약 $30bn~45bn으로 추정된다.

세 번째는 storage 및 network node에 들어가는 기타 CPU다. 이 영역은 약 $2.5bn~15bn 규모로 추정된다. 세 항목을 합치면 2030년 전체 데이터센터 CPU 시장은 약 $82.5bn~110bn에 달하고, 이 중 agent AI가 직접 추가하는 incremental TAM은 약 $32.5bn~60bn으로 계산된다.

이 수치의 핵심은 CPU가 단순히 GPU 옆에 붙는 보조 칩에 머물지 않는다는 점이다. 에이전트 AI에서는 GPU를 효율적으로 굴리기 위해 더 많은 CPU node가 필요하고, 이 CPU node는 점점 더 높은 core count와 더 큰 memory attach를 요구한다.








8. CPU TAM 상승보다 더 큰 것은 메모리 TAM 상승일 수 있다


CPU TAM 상승에서 더 중요한 2차 효과는 메모리 TAM 증가다. CPU가 늘어나면 CPU 칩만 더 팔리는 것이 아니다. CPU마다 대용량 DRAM이 붙고, agent workload가 복잡해질수록 memory capacity와 bandwidth 요구가 함께 증가한다.

Morgan Stanley 요약 기준으로는, 2030년까지 AI가 15~45EB의 DRAM 수요 증가를 유발할 수 있다. 이는 2027년 전체 DRAM 공급량의 **26~77%**에 해당하는 규모다. 더 중요한 점은 이 수치가 HBM을 제외한 순수 CPU용 DRAM 수요라는 점이다.

즉 GPU 옆에 붙는 HBM 병목과 별도로, CPU orchestration 확산만으로도 일반 DRAM 수요가 크게 늘어날 수 있다.

제품 스펙을 봐도 방향은 명확하다. NVIDIA Vera CPU는 1.5TB LPDDR5X를 지원하고, 전체 rack은 400TB 수준에 도달할 수 있다. AMD EPYC 9005는 칩당 6TB DDR5를 지원하며, CXL을 통해 8TB까지 확장 가능하다. 각 orchestration CPU가 2030년까지 평균 1.5TB에서 3TB의 DRAM을 탑재하고, 1,000만~1,500만 개의 신규 CPU가 추가된다면, CPU용 DRAM 수요는 단순 서버 교체 사이클을 넘어선다.

여기서 핵심은 CPU TAM보다 메모리 TAM의 탄성이 더 클 수 있다는 점이다. CPU는 개수와 ASP가 늘어나는 시장이지만, 메모리는 CPU당 attach capacity가 TB 단위로 증가한다. agent AI는 더 긴 context, 더 많은 memory retrieval, 더 많은 vector database, 더 많은 cache, 더 많은 intermediate state를 요구한다.

따라서 CPU가 늘어날 때 메모리는 선형이 아니라 더 가파르게 증가할 수 있다.






9. 결론: AI 데이터센터 경쟁은 GW 확보에서 GW당 ARPU와 시스템 효율 경쟁으로 이동한다


지금까지의 논리를 합치면 결론은 분명하다. OpenAI와 Anthropic의 2030년 목표 실적은 단순히 “AI 데이터센터를 몇 GW 확보하느냐”만으로 설명되지 않는다. visible capacity가 22GW에 그친다면, 두 회사는 같은 GW에서 더 높은 매출을 만들어야 한다.

Anthropic은 기업용 Claude Code와 workflow agent를 통해 고ARPU B2B 모델을 강화할 가능성이 높다. 기업 고객이 더 많은 업무에 Claude를 붙이면 고객당 매출이 커지고, 이는 높은 GW당 매출 효율로 연결된다.

OpenAI는 더 공격적인 구조다. 12GW 수준의 visible capacity로 목표 실적을 설명하려면 소비자용 ChatGPT가 광고·커머스·결제·개인비서 기능을 품은 agent platform으로 진화해야 한다. 동시에 Codex와 AgentKit을 통해 기업용 고ARPU 시장도 강화해야 한다.

OpenAI는 이미 Codex 사용량이 2025년 8월 이후 10배 증가했고, Cisco의 engineering workflow에서는 코드 리뷰 시간이 50% 줄었다고 설명했다. (OpenAI)

여기에 토큰 경제의 변화가 붙는다. 토큰 사용량은 폭발적으로 늘지만, 토큰당 계산 비용이 연 60~70% 하락하고 가격이 안정되면 AI 기업의 마진은 방어될 수 있다. 이 경우 OpenAI의 12GW 모델은 단순히 무리한 모델이 아니라, 고ARPU·고효율·고사용량이 동시에 필요한 bull case로 해석할 수 있다.

반도체 투자 관점에서도 결론은 달라진다. 과거에는 AI 데이터센터 병목을 GPU와 HBM 중심으로 봤다. 앞으로는 여기에 CPU, 일반 DRAM, networking, storage, ABF substrate, advanced packaging까지 함께 봐야 한다.

특히 agent AI 시대에는 CPU가 GPU를 보조하는 칩에 머물지 않는다. CPU는 에이전트의 작업을 조율하고, 데이터를 옮기고, 메모리를 관리하고, 외부 서비스 호출을 통제하는 핵심 인프라가 된다. AMD와 Arm Holdings가 동시에 CPU TAM 상승을 강조하는 이유가 여기에 있다.

마지막으로 더 중요한 2차 효과는 메모리다. CPU가 늘어나면 CPU마다 붙는 DRAM도 함께 늘어난다. 그리고 agent AI는 더 긴 context, 더 많은 cache, 더 많은 memory retrieval, 더 많은 intermediate state를 요구한다. 따라서 중장기적으로는 CPU TAM 상승보다 메모리 TAM 증가 효과가 더 클 가능성이 있다.

최종적으로 AI infra 경쟁의 질문은 이렇게 바뀐다.

누가 더 많은 GW를 확보하느냐에서, 누가 같은 GW로 더 높은 ARPU와 더 높은 시스템 효율을 만들어내느냐로 이동하고 있다.




앤트로픽의 다리오 아모데이 CEO는 회사가 기대했던 10배 성장이 아닌 1분기에 80배 성장하며 컴퓨트 수요를 따라잡기 어려운 상황이라고 밝혔다. 

https://www.mediapen.com/news/view/1097356


따라서 앞으로 AI 수요의 크기보다 더 중요한 질문은 수요를 실제 공급으로 바꾸는 구간에서 누가 가장 큰 희소성을 갖느냐이지 않을까 하며, 지금까지 사견으로는 위 질문에 대한 답은 '메모리'일 가능성이 높아보인다.


순수 Fabless는 제외

순수 Fabless는 제외



=끝

2026년 5월 5일 화요일

생각정리 240 (* chip, packaging bottleneck)

예전 여러 주식 운용사를 전전하던 시절, 잠깐이나마 내 주된 역할이 해외 리서치 담당이었던 때가 있었다.

당시 Amazon, Facebook, Nvidia, Microsoft, Alphabet 같은 빅테크 기업들을 분석해보라는 지시를 받았다. 여기에 삼성전기, 무라타까지 함께 보게 되면서, 1~2개월 동안 거의 아무것도 없는 맨바닥에서 위 기업들을 하나씩 파고들었던 기억이 있다.

당시에는 어린 마음에는 빨리 돈을 벌고 싶었다. 국내 스몰캡 기업을 빠르게 훑고, 남들보다 한발 앞서 투자 아이디어를 찾고 싶었다. 그래서 무겁고 낯선 해외 기업부터 공부해야 하는 그 포지션이 당시에는 그리 마음에 들지 않았다.

짧은 인턴 기간이 끝난 뒤 그 운용사를 나오게 되었지만, 이후에도 개인적으로 빅테크 기업들의 어닝콜은 분기마다 나름의 방식으로 정리해 어닝모델을 업데이트하며 계속 추적해왔다.

그때 특히 기억에 남았던 기업이 Nvidia였다. 당시 Nvidia의 무모해 보일 정도의 R&D 지출이 괜스레 마음에 걸렸다. “대박 아니면 쪽박”이라는 어정쩡한 생각으로 소액을 투자했다가, 어느 정도 수익이 나자 홀라당 팔아버린 기억도 있다.

7년이 지난 이제 와서 돌아보면, 짧은 인턴 기간 동안 접했던 빅테크 기업들과 이후 이어온 몇 분기, 몇 년간의 트래킹이 지금의 나에게 적지 않은 자산이 되었다는 생각이 든다.

늘 그렇듯, 뒤늦게야 감사한 일들이 보인다.


생각정리: AI Infra는 얼마나 커지고 있는가


OpenAI·Anthropic, Neocloud, Sovereign AI D/C까지 보면 병목은 결국 반도체 Physical Capa로 간다


이전 글에서는 Microsoft, Amazon, Alphabet, Meta 네 개사의 AI CapEx 사이클을 정리했다. 당시의 핵심은 분명했다. 2026~2027년에는 GPU, TPU, custom silicon, 데이터센터, 전력 인프라 투자가 먼저 집행되면서 FCF margin이 눌리고,

2028~2030년부터는 이미 깔린 AI capacity가 Azure, AWS, Google Cloud, Meta Ads의 매출 및 효율 개선으로 회수되는 구간에 들어간다는 점이었다. 기존 글에서도 Big Tech 4 합산 기준으로 2026~2028년은 AI 장비·칩·데이터센터 선투자와 감가상각 부담이 집중되고,

2028~2030년은 capacity monetization이 본격화되는 흐름으로 정리했다. 


https://uiyeonassociation.blogspot.com/2026/04/237-big-tech-ai-fcf-capex.html

이번에는 분석 범위를 더 넓혀보려 한다. 기존 Big Tech 4에 Oracle을 더한 BIG5를 기준으로, 여기에 OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 붙이면 전체 AI infra 수요와 공급이 얼마나 커지는지 계산해보는 것이다.

결론부터 말하면, BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓을 때, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C까지 합산한 신규 visible AI infra pool은 약 36.9GW다. 이는 BIG5 대비 **약 45.7%**에 해당한다.

투자금액 기준으로도 Stargate의 $500B / 10GW, 즉 $50B/GW를 적용하면 약 $1.65~1.85T 규모이며, BIG5의 약 $4.04T 대비 40~46% 수준이다. Stargate는 OpenAI·Oracle·SoftBank가 추진하는 미국 AI 인프라 buildout으로, OpenAI는 이를 $500B, 10GW 규모라고 설명했다. (openai.com)

이 숫자가 중요한 이유는 단순하다. 불과 짧은 기간에 BIG5 외부에서도 30GW가 넘는 신규 AI D/C 수요처가 생겼다.

하지만 반도체, 메모리, 패키징, 전력, 냉각, 변압기, 토지, 인허가 같은 물리적 공급망은 수요 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. 따라서 AI infra cycle의 핵심은 “누가 D/C를 더 많이 짓느냐”에서 “어디서 물리적 병목이 먼저 터지느냐”로 이동하고 있다.


1. 계산 기준: BIG5와 Stargate 환산 단가


먼저 BIG5의 기준선을 잡는다.


기존 Big Tech 4 글의 차트는 2026~2030년 누적 기준으로 대략 3.79조 달러 수준의 CapEx 사이클을 가정하고 있다. 여기에 Oracle을 더한다. Oracle은 FY2026에 cloud 및 AI compute capacity 확대를 위해 약 500억 달러의 capital investment를 집행할 계획으로 알려져 있다. Oracle의 투자는 OpenAI, Meta, NVIDIA, AMD, xAI 등 대형 OCI 고객의 committed demand를 충족하기 위한 성격이 강하다. (channeldive.com)


Oracle의 2027~2030년 CapEx는 아직 불확실하다. 여기서는 보수적으로 Oracle이 FY2026의 500억 달러 수준을 5년간 유지한다고 가정한다.


다음으로 GW 환산 기준을 둔다. Stargate의 공식 발표 기준은 $500B / 10GW다. 이를 단순 환산하면 AI 인프라 1GW당 총 투자비는 약 $50B다. 이 기준은 데이터센터, 전력, 서버, 네트워크, 냉각, GPU·ASIC 시스템까지 포함한 거친 총액 기준으로 보는 것이 맞다. (openai.com)

따라서 BIG5의 2026~2030년 CapEx 4.04조 달러를 Stargate 기준으로 환산하면 다음과 같다.

BIG5 AI infra-equivalent capacity

= $4.04T ÷ $50B/GW
= 약 80.8GW

물론 BIG5 CapEx 전체가 AI 전용은 아니다. 기존 클라우드 증설, 서버 교체, 네트워크, 데이터센터 건물, 전력 인프라, 내부 서비스 투자가 함께 섞여 있다. 따라서 이 숫자는 정확한 물리적 전력 capacity라기보다, BIG5의 AI 인프라 투자 체급을 Stargate 기준으로 환산한 GW-equivalent로 보는 편이 맞다.


2. OpenAI·Anthropic: 중복 제거 후 22GW, 약 $0.9~1.1T


먼저 OpenAI와 Anthropic을 보자. 두 회사는 AI infra를 직접 모두 소유한다기보다, hyperscaler와 장기 cloud usage commitment를 맺는 anchor tenant에 가깝다.


Anthropic


Anthropic은 AWS와 Google 양쪽에서 대규모 custom cloud capacity를 확보하고 있다.

Amazon과 Anthropic은 확장 협력에서 Anthropic이 향후 10년간 AWS 기술에 $100B 이상을 지출하고, 최대 5GW의 Amazon Trainium capacity를 확보한다고 밝혔다. 이 capacity에는 Trainium 계열 custom silicon과 Graviton CPU가 포함된다. (aboutamazon.com)

Google 쪽은 공식 발표와 보도 수치를 구분해야 한다. Google 공식 발표는 Anthropic이 2027년부터 multiple gigawatts 규모의 TPU capacity를 확보한다는 내용까지 확인된다. 이 capacity는 Google Cloud services와 Broadcom을 통해 공급되는 Google-built TPU를 통해 제공된다. (googlecloudpresscorner.com)

다만 The Information을 인용한 Investing.com 보도에 따르면, 이 계약은 2027년부터 시작되는 5년간 약 $200B 규모이며, Google이 Anthropic에 제공하기로 한 서버 capacity는 5GW로 보도됐다. 같은 보도는 이 계약 규모가 Google의 cloud revenue backlog의 40% 이상에 해당한다고 설명했다. (investing.com)



Anthropic의 AWS 5GW와 Google 5GW는 서로 다른 cloud platform에 배치되는 capacity다. 따라서 두 물량은 중복으로 보기 어렵다. 다만 Google 5GW 계약은 보도 기준 5년짜리이므로, 10년 기준으로 연장해 보면 Anthropic의 장기 compute spend는 $500B까지 올라갈 수 있다.

OpenAI


OpenAI는 더 복잡하다. Stargate, Oracle, AWS, Broadcom, NVIDIA, AMD 물량이 모두 섞여 있기 때문이다. 여기서 중요한 점은 데이터센터·전력 capacity와 칩·시스템 capacity를 중복 계산하지 않는 것이다.

OpenAI, Oracle, SoftBank는 Stargate를 $500B / 10GW 규모의 미국 AI infrastructure buildout으로 발표했다. 또한 OpenAI와 Oracle은 Stargate의 일환으로 최대 4.5GW의 추가 capacity를 개발하는 계약을 맺었고, SoftBank 발표 기준으로 이 파트너십은 향후 5년간 $300B 이상 규모다. (openai.com, group.softbank)

OpenAI와 AWS도 전략적 파트너십을 확대했다. 공개 보도와 업계 자료 기준으로 OpenAI는 AWS Trainium capacity 약 2GW를 사용하고, 관련 계약 규모는 $100B / 8년으로 언급된다. (convergedigest.com)

반면 Broadcom 10GW, NVIDIA 10GW, AMD 6GW 같은 숫자는 칩·가속기·시스템 레이어다. 이 시스템들은 Stargate나 Oracle, AWS, 기타 partner facility 안에 들어갈 수 있다. 따라서 이를 Stargate 10GW와 그대로 더하면 같은 물리 capacity를 두 번 세는 오류가 생긴다.



따라서 OpenAI와 Anthropic을 합치면 다음과 같다.



BIG5의 80.8GW와 비교하면, OpenAI·Anthropic 22GW는 **27.2%**다. 금액 기준으로는 $0.9~1.1T로, BIG5 $4.04T 대비 22.3~27.2% 수준이다.


3. Neocloud 3사: BIG5 밖에서 약 8.4GW, 투자환산 약 $420B


여기서 끝내면 전체 AI infra 그림이 절반만 보인다. 2025~2026년 이후에는 BIG5 밖에서 Neocloud가 빠르게 커지고 있다.

Neocloud는 일반 클라우드와 다르다. 핵심 사업은 GPU·AI accelerator capacity를 대규모로 확보해 Microsoft, Meta, OpenAI, enterprise 고객에게 임대하는 것이다. CoreWeave, Nebius, Lambda가 대표적이다. 이들은 hyperscaler가 직접 모든 데이터센터를 짓는 대신, AI GPU cloud capacity를 외부에서 조달하는 통로가 되고 있다.

Neocloud 3사 capacity




CoreWeave는 Q3 기준 active power가 590MW, contracted power가 2.9GW로 확대됐고, 2025년 CapEx 가이던스는 $12~14B로 제시됐다. 회사는 backlog 확대와 AI cloud demand를 근거로 2026년 CapEx가 2025년의 두 배를 크게 넘을 수 있다고 설명했다. (convergedigest.com, fierce-network.com)

Nebius는 2026년 말까지 contracted power를 2.5GW로 늘리고, connected power를 800MW~1GW까지 확보하는 목표를 제시했다. 동시에 Microsoft와 최대 $19.4B 규모의 AI infrastructure deal, Meta와 $3B 규모의 5년 계약을 확보했다. (nebius.com, datacenterdynamics.com)

Lambda는 Microsoft와 수만 개 NVIDIA GPU 기반의 multibillion-dollar AI infrastructure agreement를 체결했다. 별도 보도에 따르면 Lambda는 장기적으로 100만 개 이상의 NVIDIA GPU와 3GW liquid-cooled data center capacity 배치를 목표로 하고 있다. (lambda.ai, datacenterdynamics.com)

따라서 Neocloud 3사만 단순 capacity target으로 보면 다음과 같다.

CoreWeave 2.9GW + Nebius 2.5GW + Lambda 3.0GW = 약 8.4GW

Stargate 기준 $50B/GW를 적용하면 투자환산 금액은 다음과 같다.

8.4GW × $50B/GW = 약 $420B

다만 이 8.4GW를 OpenAI·Anthropic 또는 BIG5 수요에 그대로 더하면 안 된다. Nebius와 Lambda의 대형 고객은 Microsoft이고, CoreWeave도 OpenAI·Microsoft·NVIDIA ecosystem과 깊게 연결돼 있다. 따라서 Neocloud capacity는 글로벌 AI 총수요에 그대로 더하는 항목이라기보다, BIG5 balance sheet 밖에서 AI CapEx를 대신 집행하는 공급층으로 보는 편이 맞다.


4. Sovereign AI D/C: UAE와 Saudi만 봐도 약 6.5GW, 투자환산 약 $325B


Neocloud 다음으로 봐야 할 축은 Sovereign AI D/C다.


Sovereign AI D/C는 기업 단위 cloud 수요보다 국가 단위의 AI 주권, 데이터 주권, 전력 인프라, 산업정책이 결합된 구조다. 미국 hyperscaler나 OpenAI가 들어가더라도, 프로젝트의 본질은 국가가 전력·부지·자본·규제를 묶어 AI compute hub를 만드는 데 있다.

현재 실행 가시성이 높은 프로젝트는 UAE와 Saudi다.



UAE-US AI Campus는 Abu Dhabi에 5GW 규모의 AI data center capacity를 구축하는 프로젝트다. OpenAI는 Stargate UAE를 1GW cluster로 설명했고, 2026년에 200MW가 우선 가동될 예정이라고 밝혔다. Gulf News도 Stargate UAE가 5GW UAE-US AI Campus 안에서 개발되는 1GW AI infrastructure cluster라고 보도했다. (openai.com, gulfnews.com)

Saudi는 HUMAIN을 중심으로 움직이고 있다. NVIDIA와 HUMAIN은 사우디아라비아에 향후 5년간 최대 500MW 규모의 AI factories를 구축한다고 발표했다. 첫 단계는 NVIDIA GB300 Grace Blackwell 기반 supercomputer 배치다. (nvidianews.nvidia.com)

여기에 AMD·Cisco·HUMAIN JV가 붙는다. 이 JV는 2030년까지 최대 1GW의 AI infrastructure를 배치하고, 2026년에 사우디에서 100MW 규모의 1차 배치를 시작할 계획이다. (newsroom.cisco.com)

따라서 실행 가시성이 높은 UAE와 Saudi만 합쳐도 다음과 같다.

UAE 5GW + Saudi 1.5GW = 약 6.5GW

Stargate 기준으로 환산하면 투자금액은 다음과 같다.

6.5GW × $50B/GW = 약 $325B

France, India, EU AI gigafactory까지 넣으면 숫자는 더 커질 수 있다. 다만 일부 프로젝트는 MoU, 정책 발표, 또는 실행 변동 가능성이 크기 때문에 기본 계산에는 넣지 않고 upside pipeline으로 처리하는 편이 안전하다.


5. BIG5 대비 신규 AI infra pool 비교


이제 전체 그림을 합쳐보자.

기준은 BIG5다.



즉 BIG5의 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C만으로도 약 36.9GW의 신규 visible pool이 형성된다. 이는 BIG5 대비 **45.7%**다.

금액 기준으로도 OpenAI·Anthropic의 발표·보도 금액 $0.9~1.1T, Neocloud의 Stargate 환산 $0.42T, Sovereign AI D/C의 Stargate 환산 $0.325T를 더하면 약 $1.645~1.845T다. 이는 BIG5의 $4.04T 대비 **40.7~45.7%**에 해당한다.

여기서 핵심은 이 숫자를 단순 합산 수요로 보면 안 된다는 점이다. Neocloud capacity의 최종 고객은 Microsoft, Meta, OpenAI일 수 있고, Sovereign AI D/C에도 OpenAI, Oracle, NVIDIA, Cisco, AMD 같은 기존 플레이어가 들어간다. 따라서 이 숫자는 “완전히 독립적인 신규 수요”라기보다, BIG5 바깥에서 새롭게 등장한 AI infra 공급·수요의 visible expansion으로 해석해야 한다.

그럼에도 결론은 분명하다.

짧은 기간에 BIG5 대비 40~46%에 해당하는 AI infra 수요처와 공급 프로젝트가 새로 보이기 시작했다.

이 정도 속도라면 병목은 수요가 아니라 공급에서 먼저 나타날 가능성이 높다.


6. 해석: 신규 AI D/C 수요처는 빠르게 생기지만, 물리적 공급망은 그렇게 빨리 늘지 못한다


OpenAI·Anthropic의 장기 cloud commitment, CoreWeave·Nebius·Lambda의 Neocloud 증설, UAE·Saudi의 Sovereign AI D/C 프로젝트를 합치면 AI infra 수요는 매우 빠르게 확산되고 있다.

문제는 공급망이다.

AI D/C 수요는 몇 개월 만에 새로 생길 수 있다. 정부가 AI campus를 발표하고, LLM 기업이 hyperscaler와 5년·10년 계약을 맺고, Neocloud가 private credit과 vendor financing으로 GPU cluster를 조달하면 신규 수요처는 빠르게 생긴다.

하지만 물리적 공급망은 다르다.

선단공정 파운드리 capacity, HBM wafer capacity, CoWoS advanced packaging capacity, ABF substrate, optical interconnect, networking switch, liquid cooling, 변압기, 전력망, 데이터센터 부지와 인허가는 단기간에 같은 속도로 늘어나기 어렵다.

특히 반도체 공급망은 장비 발주, 클린룸 증설, 공정 안정화, 수율 개선에 시간이 필요하다. 따라서 수요 증가 속도와 공급 증가 속도 사이의 mismatch는 점점 커질 수 있다.


7. 가장 큰 병목은 칩: 선단공정, HBM, Advanced Packaging


AI infra의 병목은 전력과 냉각에서도 나타나겠지만, 가장 중요한 bottleneck은 결국 칩이다.

첫 번째는 선단공정 파운드리다. NVIDIA GPU, AMD GPU, Google TPU, AWS Trainium, OpenAI custom accelerator, Broadcom ASIC은 모두 TSMC의 선단공정과 선단 패키징 생태계에 크게 의존한다. AI accelerator 수요가 늘어날수록 3nm, 4nm, 5nm급 wafer allocation 경쟁이 심화된다.

두 번째는 HBM이다. AI accelerator는 일반 DRAM이 아니라 HBM을 대량으로 필요로 한다. 최근 보도에 따르면 Samsung과 SK hynix는 AI-driven memory shortage가 2027년 이후까지 이어질 수 있다고 경고했고, 고객들이 이미 수년치 물량을 선점하고 있다는 내용도 전해졌다. HBM 공급은 SK hynix, Samsung, Micron에 집중돼 있어 신규 AI D/C 수요가 늘어날수록 병목이 더 뚜렷해진다. (tomshardware.com)

세 번째는 advanced packaging이다. 최신 AI accelerator는 GPU 또는 ASIC die와 HBM을 같은 package 안에서 고대역폭으로 연결해야 한다. 이 과정에서 CoWoS, CoWoS-L, hybrid bonding, interposer, substrate 같은 advanced packaging capacity가 필수다. TrendForce는 TSMC의 CoWoS capacity가 2026년 약 130만 units, 2027년 200만 units까지 확대될 수 있다고 보도했지만, 이 역시 빠르게 늘어나는 AI accelerator 수요를 따라잡기 위한 증설이지 공급 과잉을 의미하기는 어렵다. (trendforce.com)

결국 AI D/C가 10GW, 20GW, 30GW 단위로 늘어날 때 가장 먼저 물어야 할 질문은 “전력이 있느냐”만이 아니다. 더 중요한 질문은 그 D/C를 채울 GPU·ASIC·HBM·패키징 capacity가 실제로 있느냐다.


8. Agent AI가 오면 CPU 병목까지 부각된다


여기에 새로운 변수가 붙는다. 바로 Agent AI다.

기존 AI infra 논의는 GPU 중심이었다. 대규모 모델 학습과 추론에서 GPU가 핵심이었기 때문이다. 하지만 Agent AI는 workload 구조를 바꾼다. Agent는 한 번의 답변을 생성하는 데서 끝나지 않는다. 여러 tool call, memory retrieval, planning, execution, verification, database query, browser action, API call을 반복한다. 이 과정에서 GPU뿐 아니라 CPU, memory, storage, networking, orchestration layer의 부담이 함께 증가한다.

최근 보도에서도 agentic AI가 확산되면서 AI data center의 CPU demand가 커지고, 일부 AI deployment에서는 CPU-GPU ratio가 기존보다 훨씬 높아질 수 있다는 분석이 나온다. Intel과 AMD의 server CPU 공급이 tight해지고 가격 인상 가능성이 부각되는 배경도 이 흐름과 연결된다. (trendforce.com, tomshardware.com)

이 점이 중요하다. CPU도 결국 선단공정 또는 준선단공정을 사용한다. 고성능 server CPU는 GPU와 동일한 선단공정 capacity를 직접적으로 공유하거나, 최소한 동일한 foundry ecosystem, advanced packaging, substrate, memory supply chain을 공유한다. 따라서 Agent AI가 본격화되면 병목은 GPU에서 끝나지 않는다. GPU와 선단공정을 share하는 CPU까지 병목에 들어오면서, 파운드리와 패키징의 physical capacity bottleneck이 더 부각될 가능성이 높다.


9. 투자 관점에서의 결론


이번 계산의 핵심은 수요가 얼마나 빠르게 늘고 있는지를 숫자로 확인하는 데 있다.

BIG5의 2026~2030년 AI infra-equivalent capacity를 약 80.8GW로 놓으면, OpenAI·Anthropic, Neocloud 3사, Sovereign AI D/C에서 새롭게 보이는 visible pool은 약 36.9GW다. 이는 BIG5 대비 45.7%다. 금액 기준으로도 약 $1.65~1.85T로, BIG5 대비 40~46% 수준이다.



해석은 명확하다.

단기간에 AI D/C 수요처는 폭발적으로 늘었다. OpenAI와 Anthropic은 hyperscaler의 anchor tenant가 됐고, Neocloud는 BIG5 바깥에서 GPU cloud capacity를 빠르게 증설하고 있으며, UAE와 Saudi는 AI를 국가 전략 인프라로 보고 GW급 sovereign AI D/C를 추진하고 있다.

그러나 물리적 공급망은 신규 수요처 증가 속도만큼 단기간에 탄력적으로 늘어나기 어렵다. AI D/C는 발표할 수 있지만, 그 안에 들어갈 accelerator, HBM, advanced package, substrate, networking, 전력 설비는 실제 공장과 장비와 수율의 제약을 받는다.

따라서 앞으로 AI infra cycle의 핵심 병목은 다음 순서로 부각될 가능성이 높다.



결국 AI infra의 투자 결론은 단순히 “클라우드 기업이 많이 투자한다”가 아니다.

AI D/C 수요는 OpenAI·Anthropic, Neocloud, Sovereign AI까지 확산되며 BIG5 대비 40~46%에 해당하는 신규 visible pool을 만들고 있다. 하지만 그 수요를 실제 capacity로 전환하는 병목은 선단공정 파운드리, HBM, advanced packaging, 그리고 agent AI로 인해 다시 중요해지는 server CPU에 있다.

따라서 이번 cycle에서 가장 중요한 투자 포인트는 hyperscaler의 CapEx 규모만 보는 것이 아니다. 더 중요한 것은 그 CapEx가 실제 물리적 capacity로 전환되는 경로에서 누가 bottleneck pricing power를 갖는가다.

그 관점에서 보면 향후 가장 부각될 영역은 분명하다.

파운드리, HBM, advanced packaging, substrate, optical interconnect, 그리고 AI server CPU까지 포함한 반도체 physical capa bottleneck이다.



TSMC


INTEL


GlobalFoundries


Amkor Technology


ASE Technology


UMC






이전 전력반도체 기업군들과의 통합비교


=끝