2026년 2월 11일 수요일

생각정리 181 (* 강남의 탄생)

최근 흥미롭게 읽은 부동산 관련 책 중 **『강남의 탄생』**이라는 책에 대해 간략히 정리해보고자 한다.

마침 한국은행에서 부의 되물림을 다룬 보고서가 발표되기도 했고,

앞으로 어디 상급지로 갈아탈지(갈아탈 수나 있을지)에 대한 고민이 머리 속에서 휘발되기 전에 같이 묶어 내용을 정리해 두고자 한다.


1. 강남 개발: 국가가 설계한 ‘권력 친화 중산층’의 터전


강남 개발은 자연발생적 도시 팽창의 결과가 아니라, 1960년대 박정희 정권이 기획한 국가 프로젝트였다.


당시 강남 개발에는 세 가지 의도가 겹쳐 있었다.

  1. 서울 인구 분산
    서울 과밀을 완화하고 도시 기능을 분산시키려는 목적이다.

  2. 전쟁·피란 대비
    북한 남침 시 한강 북쪽 피란민이 한강을 건너지 못해 생기는 병목을 줄이기 위해, 한강 남쪽에 대체 거주·행정 공간을 미리 만들어 두려 했다는 설명이다.

  3. 정치 자금과 정권 친화 중산층 육성

    • 정권과 가까운 세력이 강남 땅을 선매입 후 되팔며 정치자금을 조성했다.

    • 동시에 서울의 지식인·학생층은 자유당·공화당의 강력한 비판 세력이었고, 이 구도를 뒤집기 위해 정권에 우호적인 중산층을 새로 만들어 배치할 공간으로 강남을 선택했다.

강남은 출발부터 안보, 정치, 재정이 뒤엉킨 권력 공간이었다.


2. ‘버려진 농지’였던 강남: 인프라와 아파트가 만든 불패 신화


개발 전 강남은 저지대·습지가 많아 한강 범람 위험이 큰 농지였다.

사대문 안이 약 500만 평이라면, 당시 영동 개발 부지는 약 937만 평에 달했다. 도시 입장에서는 넓지만 애매한, 사실상 버려진 땅에 가까웠다.

당시 전체 937만 평 가운데 실제로 개발이 가능했던 토지는 약 3% 내외에 불과했다고 한다.


이 땅을 도시로 바꿔 놓은 것은 세 단계였다.

  1. 교통 인프라

    • 1970년 제3한강교 완공으로 강북과 강남이 본격적으로 연결되었다.

    • 자동차 시대가 다가옴과 동시에 경부고속도로 개통, 이어서 영동·호남과 연결되는 고속버스터미널이 들어서며, 강남은 전국 교통망의 결절점이 되었다.

  2. 치수(수방) 사업

    • 잦은 한강 범람이 도시 기능을 가로막는 최대 난제였다.

    • 이를 해결하기 위해 한강 이남에 대규모 제방과 동시에 도로가 조성되었고, 이것이 오늘날 강변도로의 기원이 되었다.

  3. 한강 매립지 위 아파트 → 막대한 차익

    • 당시 한강은 공유수면이었기 때문에, 강변을 매립해 만든 땅 위에 아파트를 짓고 이를 국영기업체나 정부 투자기관에 일괄 매각하는 방식이 가능했다.

    • 이 모델로 큰 이익을 남긴 대표 기업이 현대건설이며, 이 이익이 이후 조선·자동차·기계 등으로 사업을 확장하는 밑천이 되었다.

특히 박 전 대통령 재임기인 3·4공화국 시기(1963~1979)에는 재선 자금 마련을 목적으로 강남 일대 토지를 대규모로 매입한 뒤, 개발·매각을 통해 막대한 차익을 거둔 것으로 알려져 있다. 이 과정은 오늘날 ‘부동산 공화국’, ‘아파트 공화국’, ‘땅투기’로 상징되는 한국 부동산 구조의 기원으로 거론되기도 한다.

동시에 국가 경제 전반에서도 생산소득보다 토지·자산 가격 상승에서 발생하는 불로소득의 비중이 더 커지는 구조가 자리 잡기 시작한 초기 사례로 언급되기도 한다. 


3. 공무원·법조·정보기관이 모인 ‘권력 클러스터’로서의 강남

1976년 11개 아파트 지구가 고시되면서 강남 아파트 시대, 전국 아파트 시대가 동시에 열렸다.

  • 초기 강남 아파트 입주민은 서울시 공무원 집단이 큰 비중을 차지했다.




  • 이후 반포주공1단지와 같은 핵심 단지 분양에서는 서울대 교수·군 장성 등 정권 친화적 엘리트에게 특별 분양이 이루어졌다고 전해진다. 시작부터 강남은 국가와 가까운 중산층·엘리트의 주거지였다.

여기에 더해, 주요 국가기관이 강남으로 대거 이주하기 시작한다.

  • 대법원, 서울고등법원, 검찰청사가 강북에서 강남으로 이전하며, 강남은 자연스럽게 보수적 법조 엘리트의 집적지가 되었다.

  • 이어 국정원·중앙정보부·안기부(1995년) 등 정보기관,

  • 한국전력 본사, 한국은행 강남본부 등 주요 공기업·금융기관이 잇따라 강남에 자리를 잡았다.

이후 대형 병원, 대형 교회, 문화회관, 유흥업소 등 각종 문화 상업시설이 뒤따라 들어오며, 강남은 거주–권력–자본이 한데 모인 복합 공간이 되었다.

이렇게 보면, 강남 부동산이 지금까지 강력한 이유에 대한 추정도 가능하다.

  • 첫째, 1급 이상 고위공직자의 약 30%가 강남에 거주한다는 점이다.

  • 둘째, 정부 정책을 결정·집행하는 사람들, 배타적인 수사권을 가진 수사기관 종사자들, 국회에서 입법을 책임지는 사람들의 상당수가 강남에 산다는 점이다.
    이러한 고위 공직자들은 다시 이웃한 금융회사, 대기업 임원, 부동산 부자들과 긴밀히 연결되어 왔고, 그 결과 **그들만의 ‘강남 카르텔’**이 형성되었다고 볼 수 있다.

즉, 강남은 국가 권력, 제도권 금융·기업, 고위 공직 네트워크가 서로를 지지하는 구조로 유지되어 왔고, 이 구조 자체가 지금의 부동산 불패 신화를 이어나가는 강남 부동산 수요를 지속적으로 뒷받침해 오는 주요 집단이다. 


4. 8학군과 대치동: 교육 자본이 겹쳐진 강남 2막


강남 시대의 2막은 교육이다.

  • 1970년대 초까지만 해도 주요 명문고(5대 공립·5대 사립)는 모두 강북에 있었다.

  • 그러나 4·19 혁명, 6·3 학생운동 등으로 학생 세력이 정권 입장에서 부담스러운 정치 세력으로 부상하자, 정권은 청와대·중앙부처 인근의 명문고들을 강남으로 이전시킨다.

그 결과 강남 8학군강남 교육특수가 형성된다.
좋은 학교가 강남에 몰리면서, 다시 강남으로의 인구·자본 유입이 가속화된다.


이 과정에서 대치동 사교육 1번지도 같이 탄생한다.

  • 정권은 대학생들의 자금줄을 끊기 위해 **‘과외 금지령’**을 내렸으나, 현실에서는 일부 부유층을 중심으로 몰래 과외 수요가 오히려 증가했다.

  • 상대적으로 임대료가 저렴했던 대치동 상가에는 소규모 교습소가 들어섰고,
    강사들은 명문대생, 학생운동 전력으로 취업에 어려움을 겪던 이들, 제도권 진입을 주저하는 운동권 출신들이었다.

  • 이러한 교습소는 점차 전문화된 학원으로 발전했으며, 입시에 논술전형이 도입되면서(*당시 운동권 출신들이 논술 강의를 유독 잘했다는 이야기가 있다) 여기에 2001년 수능 체제까지 더해지자, 대치동은 맞춤형 사교육의 전국적 중심지로 완전히 자리 잡게 된 것이다.



5. 옥수동 ‘뒷구정’: 강남 2세대의 출발선


(옥수동 관련 아래 내용은 책에는 따로 없고 그냥 내가 권력=부의 관점으로 다시 바라보니 기존과 다르게 보여서 찾아본 자료이다.)


오늘날 **옥수동(소위 뒷구정)**은 법조계 인사가 많이 거주하는 동네로 알려져 있다.
이 지역은 다음과 같은 의미를 갖는다.

  1. 강남 1세대의 자산을 상속받은 2세대가 사회생활을 시작하는 주거지
    강남에서 축적된 자산의 일부가 상속 형태로 옥수동으로 옮겨가고, 이곳에서 2세대의 삶이 출발한다.

  2. 사법·입법·행정부 권력기관으로 진입하기에 유리한 거점
    법조·관료 네트워크와 물리적으로, 사회적으로 가까운 위치에 있는 주거지라는 점에서,
    옥수동은 강남–법조–정치·행정으로 이어지는 경로 의존적 진입로로 기능한다.

코로나 이후 옥수동은 서울에서 집값이 가장 빠르게 오른 지역 중 하나이며,
서울 시내에서 재개발 기대감이 가장 높은 동네들 가운데 하나이기도 하다.


https://www.homeknock.co.kr/web-front/community/news/15666/


강남에서 시작된 부와 네트워크가 한강 건너 또 다른 지역으로 공간적으로 재배치되는 과정 속에서, 옥수동은 일종의 **‘강남 2세대의 후방 기지’**가 된 셈이다.


변호사/법무법인/법무사(민간 법률서비스)
전문·과학·기술서비스업은 광화문 강남에 밀집 
https://sgis.mods.go.kr/view/totSurv/ecnmyDash#

대한민국 산업대분류에서 가장 이익률이 높은 부동산업도
전부 강남에 밀집
https://sgis.mods.go.kr/view/totSurv/ecnmyDash#

https://sgis.mods.go.kr/view/totSurv/ecnmyDash#


옥수는 광화문과 강남 사이 정가운데 위치

옥수 대장아파트 옥수파크힐스
7년 새 10억이 25억이 되는 마법
네이버 부동산



6. 한국은행이 보여준 숫자: ‘자산 + 지역’이 새로운 신분의 벽


이러한 체감은 **한국은행 BOK 이슈노트 「지역간 인구이동과 세대간 경제력 대물림」(제2026-6호)**가 제시한 통계와도 맞닿아 있다.

핵심 내용만 추리면 다음과 같다.

  1. 소득 대물림 심화

    • 부모와 자녀의 소득 계층 연관 정도를 나타내는 **소득 백분위 기울기(RRS)**는 0.25 수준이다.

    • 1970년대생 자녀 세대의 RRS가 0.11이었던 반면, 1980년대생은 0.32로 약 3배 수준으로 상승했다.

  2. 자산 대물림은 더 강하다

    • 자산 RRS는 0.38로, 소득 RRS(0.25)보다 더 높다.

    • 자산 RRS 역시 70년대생 0.28 → 80년대생 0.42로 크게 올라, 자산 기준 계층 이동성이 더 빨리 약화되고 있다.

  3. 비수도권·저소득 가구의 고착화

    • 비수도권 출생 자녀 중, 부모 소득이 하위 50%인 자녀가 여전히 하위 50%에 머무는 비율은 최근 80%를 넘어섰다.

    • 같은 집단의 상위 25% 진입 비율은 13%에서 4% 수준으로 하락했다.

  4. 수도권 이주와 부모 자산

    • 비수도권 출생 자녀의 경우, 부모 자산 상위 25% 자녀의 수도권 이주 확률이 하위 25% 자녀보다 43%p 높다.


한국은행


한국은행


 **RSS는 RRS(Rank-Rank Slope, 백분위 기울기)란?

  1. 정의

    • RRS는 부모의 소득(또는 자산) 순위와 자녀의 소득(자산) 순위가 얼마나 같이 움직이는지를 나타내는 지표이다.

    • 같은 연령대 사람들을 소득 크기대로 1~100위(percentile)로 줄 세운 뒤,
      “부모 순위가 1위 올라갈 때 자녀 순위가 평균 몇 위 함께 올라가나”를 **기울기(β)**로 측정한 값이다.

  2. 해석

    • RRS = 0이면: 부모 소득순위와 자녀 소득순위가 전혀 상관없다 → 세대간 대물림 거의 없음.

    • RRS = 1이면: 부모와 자녀의 소득순위가 완전히 일치 → 완전한 대물림이다.

    • 값이 1에 가까울수록 세대간 대물림이 심하고, 값이 작을수록 계층 이동성이 크다고 해석한다.

  3. 한국은행 보고서 수치

    • 한국의 소득 RRS ≈ 0.25
      → 부모 소득순위가 100명 중 10위 올라가면, 자녀는 평균 2.5위 정도 함께 올라간다는 뜻이다.

    • 자산 RRS ≈ 0.38
      → 소득보다 자산 쪽 대물림이 더 강하다는 의미이다.

  4. 왜 RRS를 쓰는가

    • 단순 금액 기준 탄력성(IGE)은 이상값·비선형성에 취약하고 국가 간 비교가 어렵기 때문에,
      최근 연구에서는 “금액”이 아니라 “순위의 기울기”인 RRS가 세대간 대물림을 더 잘 보여주는 지표로 쓰이고 있다.

보고서의 결론은 명확하다.
자가 보유 여부와 거주 지역(수도권/비수도권, 그리고 그 안의 핵심 입지)이 새로운 신분의 벽으로 작동하고 있으며, 특히 비수도권 저소득 가구 자녀는 “부모 세대의 계층을 거의 그대로 물려받는” 구조가 강화되고 있다는 것이다.

출처: 한국은행, 「지역간 인구이동과 세대간 경제력 대물림」(BOK 이슈노트 제2026-6호)


7. 정리: 권력이 움직인 공간이, 부가 대물림되는 무대가 되다


전체 흐름을 한 줄로 요약하면 다음과 같다.

  • 국가 권력이 안보·정치·재정 목적을 위해 강남을 기획·개발했다.

  • 그 강남에 공무원·법조·정보기관·공기업이 모이고, 8학군·대치동 사교육이 더해지며,
    강남은 권력·교육·자산이 중첩된 일종의 엘리트 생태계가 되었다.

  • 이 생태계에서 축적된 자산과 네트워크는 오늘날 옥수동 같은 2차 거점으로 확장되고,
    동시에 한국은행 통계가 보여주듯 **자산과 거주지가 세대 간 계층 이동을 가르는 새로운 ‘신분의 벽’**으로 기능하고 있다.

결국 “큰 부는 권력에서 나온다”는 말은 오늘 한국에서 

권력이 먼저 움직인 공간이, 부가 쌓이고 대물림되는 무대가 된다.
강남과 옥수동, 그리고 수도권 핵심 지역은 그 무대의 가장 전형적인 모습이다.

라고도 볼 수 있지 않나 싶다.

다음 상급지 갈아타기 위해 부동산 임장을 다닐때 주변 거주 이웃들의 직업군을 유심히 알아봐야겠다라는 생각이 문뜩 든다. 

압구정 신현대아파트에 거주중인 삼촌이 계시는데, 조만간 한 번 찾아뵙고 ‘천상계 천룡인’의 기운을 좀 흡수해 와야겠다.

인생 운칠기삼이라는데, 좋은 기운이라도 좀 얻어와야겠다.. 

10여 년 전 훌륭하신 외숙모께서 강남 아파트, 자가 마련 말씀을 해 주셨을 때, 정작 귀인을 눈앞에 모셔 두고도 그 조언을 ‘전혀’ 귀담아듣지 않았던 내 자신을 돌아보며.. 



압구정 신현대아파트
7년 새  22억이 -> 70억이 되는 기적
네이버 부동산


=끝 



2026년 2월 10일 화요일

생각정리 180 (* “Agent AI Deflation, Memory Supercycle)

Agent AI가 “지식기반 서비스”를 잠식할 때


– 어느 만큼의 산업, 물가, 그리고 메모리 반도체 시장을 건드리는가 (2025~2035)


요즘 이야기하는 Agent AI는 단순히 “글을 잘 써주는 챗봇”이 아니다.

  • 사용자의 목적을 이해하고,

  • 여러 일을 순서대로 실행하고(워크플로),

  • 중간 결과를 기억하고 다시 불러오며,

  • 이메일·문서·사내 시스템까지 직접 건드리는

일종의 지식노동 자동화 에이전트에 가깝다.


이 글은, 그런 Agent AI가 본격화되었을 때 생기는 세 가지 효과를 정리한다.

  1. 어떤 산업이 타깃이 되는지, 그 산업이 GDP에서 차지하는 비중이 얼마인지

  2. 그 산업에서 임금과 가격 구조가 바뀌면서, 앞으로 10년 동안 물가(특히 GDP 디플레이터)에 어느 정도 “디플레 압력”을 만들 수 있는지

  3. Agent AI의 병목인 **메모리(맥락과 상태 저장)**가 데이터센터·메모리 반도체 시장에 어떤 “추가 수요(TAM)”를 만들어내는지

핵심 아이디어는 간단하다.

  • **“AI가 얼마나 빨리 퍼질 것인가”**라는 채택률
    → 미국 기업 설문(BTOS, Goldman Sachs 재가공)을 기준으로 잡고,

  • **“그게 전체 경제에서 얼마나 큰 비중인가”**라는 가중치
    → 미국 통계(BEA)와 UN 통계(SNA)를 분리해서 본다.


0. 최소한의 용어 정리


먼저 글에서 반복적으로 나오는 세 가지 개념을 짚고 가는 것이 이해를 돕는다.

  1. TAM (Total Addressable Market)

    • 여기서는 “AI 회사 매출”이 아니라,

    • AI가 가격·비용 구조를 바꿀 수 있는 부가가치(Value Added) 풀의 상한을 뜻한다.

  2. GDP 디플레이터

    • “국내에서 생산된 모든 재화·서비스 가격”을 한꺼번에 보는 지표이다.

    • CPI가 “소비자 물가”에 가깝다면, GDP 디플레이터는 **“경제 전체의 물가”**이다.

  3. Agent AI의 “직접 디플레”

    • Agent AI가 지식노동을 대체해 인건비를 줄이고, 그게 서비스 가격 인하로 이어지는 효과를 말한다.

    • 예를 들어, 회계·법률·소프트웨어 개발·콜센터 같은 영역이다.


1. Agent AI가 건드리는 산업의 범위: “넓은 TAM”과 “직접 디플레 TAM”


1-1. 미국: Exhibit에 나온 업종만 합쳐도 GDP의 83%

미국 상무부 BEA 통계에서 정보(Information), 금융(Finance), 전문서비스(Professional), 도·소매, 운송, 제조, 건설, 부동산, 교육·헬스케어 등 Exhibit에 나온 업종의 부가가치 비중을 모두 더해보면, GDP의 약 83% 수준이 된다.




출처: BEA, Value Added by Industry as a Percentage of GDP
https://www.bea.gov/data/gdp/gdp-industry

즉, 미국 민간경제의 대부분을 덮고 있다고 볼 수 있다.

하지만 이 83% 안에는

  • 제조·건설·운송·숙박 같은 물리·현장 중심 산업과,

  • 임대료·귀속임대(imputed rent) 비중이 큰 부동산 산업

까지 모두 들어 있다. 이 전체를 “Agent AI가 직접 디플레를 일으키는 영역”이라고 부르기는 어렵다.

1-2. 글로벌: 같은 업종을 다른 각도에서 보면 62%


UN SNA 데이터에서 비슷한 업종(ISIC Rev.4의 J,K,M,N,P,Q,L,G,H,I,C,F,R,S)을 골라, 각국의 부가가치/GDP 비율을 계산한 뒤 **국가별 중앙값(median)**을 취하면, 이 업종 묶음의 합계는 **GDP의 약 62%**이다.




출처: UN, National Accounts Main Aggregates

https://data.un.org/Data.aspx?d=SNAAMA&f=grID%3A201%3BcurrID%3ANCU%3BpcFlag%3A0

이 표본에는 미국이 포함되어 있지 않으므로, 이것은 **“미국을 제외한 세계의 전형적인 구조”**라고 보는 게 맞다.

정리하면,

  • 미국: Exhibit 업종 합계 ≈ GDP의 83%

  • 글로벌 전형(미국 제외): 같은 업종 합계 ≈ GDP의 62%


이게 이 글에서 말하는 **“넓은 의미의 AI 연관 산업 풀”**이다.

1-3. “직접 디플레 TAM”: 진짜 중요한 절반만 남기기


Agent AI가 “직접” 디플레를 일으키려면, 두 가지 조건이 필요하다.

  1. 사무·지식 업무 비중이 크고,

  2. 가격이 인건비와 밀접하게 연결되어 있어야 한다.


이 기준으로 보면, 다음 업종은 직접 디플레 효과가 약한 쪽에 가깝다.

  • Real estate & rental/leasing (임대료·귀속임대 중심)

  • Manufacturing, Construction, Transportation & warehousing, Accommodation & food
    → 현장·물리·규제·토지 등 “AI가 당장 바꾸기 어려운 요인”이 크다.

그래서 이 업종들은 일단 옆으로 치워놓고, 다음 업종만 묶어서 본다.

Information, Finance, Professional, Admin/support, Education, Health, Wholesale, Retail, Arts/Entertainment, Other services


이를 **“직접 디플레 TAM”**이라고 부른다.

이때 결과는 다음과 같이 정리된다.

  • 미국 기준

    • 위 포함 업종 합계: GDP의 약 48%

    • 이 가운데 교육·헬스를 보수적으로 제외: 약 40%

    • 그중 **코어(Information + Finance + Professional + Admin/support)**만 보면: 약 24%

  • 글로벌 전형

    • 포함 업종 합계: GDP의 약 33%

    • 교육·헬스 제외: 약 26%

    • 코어(J+K+M+N)만 보면: 약 13%

간단히 말하면,

Agent AI가 “서비스 가격”을 직접 움직일 수 있는 영역은
미국에서는 GDP의 24~48%,
미국을 제외한 세계에서는 13~33% 정도 범위에 있다
는 것이다.

 

1-4. 금액으로 보면 어느 정도인가?


세계 명목 GDP는 2024년 기준 약 111조 달러이다.
출처: World Bank, World GDP (current US$)
https://data.worldbank.org/indicator/NY.GDP.MKTP.CD

여기서 **지식기반 핵심(J+K+M+N+P+Q)**의 비중(~19.8%)만 곱하면,

111조 달러 × 19.8% ≈ 22조 달러


정도의 **“지식기반 부가가치 풀”**이 나온다.

이 22조 달러 전체가 AI 매출이나 디플레로 이어지는 것은 아니지만,
어디까지 잠재적으로 건드릴 수 있는가”라는 상한을 보여주는 숫자이다.


2. 임금과 물가: Agent AI가 10년 동안 만들 수 있는 디플레 압력


2-1. 왜 지식노동이 핵심인가?


미국 BLS 통계를 보면, 정보(Information), 전문서비스(PST), 금융(Financial Activities) 등의 평균 시급은 45~55달러/hr 구간에 몰려 있다. 교육·헬스케어도 35달러/hr 수준이다.

출처: BLS, Employment Situation – Table B-3a
https://www.bls.gov/web/empsit/ceseeb3a.htm


“직접 디플레 TAM”에 포함된 업종들 자체가 고임금 산업이다.
Agent AI가 이 영역에서 인건비를 조금만 줄여도,

인건비 절감 → 기업 비용 감소 → 서비스 가격 인하(또는 가격 상승 억제)


로 이어질 가능성이 크다.

2-2. 단순화한 계산 프레임


물가 하방압력을 대략적으로 보기 위해 다음과 같은 단계를 사용했다.

  1. 업종별 AI 채택률 pᵢ(t)

    • 미국 설문(Exhibit 6,7)을 바탕으로 각 업종의 채택률을 2025~2035년까지 로지스틱 형태로 추정한다.

  2. Agent AI 대체 강도 η(t)

    • 초기에는 “보조 역할”에 가깝다가, 시간이 갈수록 “업무 대부분을 자동으로 처리”하는 쪽으로 이동한다고 보고

    • 실제 대체 비중 qᵢ(t) = pᵢ(t) × η(t)로 잡는다.

  3. 업종별 가격 하락 Δπᵢ,t

    • 업종별 노동비중, 절감 가능 비율, 가격 전가율을 곱해

    • Δπᵢ,t ≈ − labor_shareᵢ × savingsᵢ × pass_throughᵢ × Δqᵢ,t

  4. GDP 디플레이터 하방압력

    • 각 업종 가격 변화를 부가가치 비중 wᵢ(US/Global)로 가중해

    • Δπᵗ(total) = Σᵢ wᵢ × Δπᵢ,t

절대값 하나하나가 정확하다고 보기보다는,

“Agent AI가 물가를 0.1%p 낮추는 수준인지, 1%p까지도 가능한지”를 구분하는 용도


로 이해하는 것이 적절하다.

2-3. 숫자로 보면 어느 정도 밴드인가?


Base 시나리오에서 결과를 요약하면 대략 다음과 같다.

  • 글로벌 GDP 디플레이터 기준

    • 2025년: −0.1%p 안팎

    • 2026~2027년: −0.2%p 내외(피크)

    • 이후 2035년: −0.15%p 수준으로 완만히 축소

  • 글로벌 서비스 디플레이터 기준

    • 2025년: 약 −0.25%p

    • 2027년: 약 −0.4~−0.45%p

  • 미국 GDP 디플레이터 기준

    • 지식기반 산업 비중이 더 크기 때문에

    • 2026~2027년에는 −0.30~−0.35%p/년 정도까지 하방압력이 커질 수 있다.

요약하면,

Agent AI가 빠르게 퍼지는 경우,
앞으로 10년간 “연 −0.1~−0.2%p(글로벌), 미국은 최대 −0.3~−0.35%p” 정도의 디스인플레이션 압력이 가능하다
는 정도의 그림이다.

 


 





3. 메모리 하드웨어: Agent AI가 여는 “추가” 시장


이제 시선을 반도체·데이터센터로 옮겨 보자.
핵심 질문은 다음과 같다.

Agent AI가 본격화되면, 메모리(HBM·DRAM·NAND) 시장은 지금 전망보다 얼마나 더 커질 수 있는가?


여기서 중요한 전제가 하나 있다.

WSTS가 제시하는 2026년 메모리 시장 전망은,
아직 Agent AI가 “본격적으로” 도입되기 전의 궤적이라는 점이다.


즉, **지금 전망된 2026년 메모리 시장은 “베이스라인”**이고,
Agent AI가 본격화되면 그 위에 “추가 수요(가수요)”가 하나 더 얹힌다고 봐야 한다.

3-1. Agent AI는 왜 메모리를 그렇게 많이 먹는가?


Agent AI는 다음과 같은 이유로 메모리 집약적이다.

  1. 긴 대화·긴 문서·긴 워크플로를 한 번에 처리하려면,
    → 모델이 유지해야 할 **컨텍스트(working memory)**가 길어진다.
    → 이는 곧 HBM·DRAM 용량·대역폭 수요 증가로 이어진다.

  2. 수많은 에이전트가

    • 사용자 기록,

    • 기업 문서,

    • 이전 실행 로그,

    • 상태 스냅샷

    을 계속 저장·검색해야 하므로
    장기 메모리(long-term memory) 역할의 SSD·NAND가 대량으로 필요하다.

한마디로, **“Agent AI = 연산 + 엄청난 메모리”**이다.

NVIDIA의 로드맵에서 2027년 이후를 겨냥한 Rubin Ultra NVL576 랙(576개 GPU, GPU당 1TB HBM4e, 랙당 600kW급 전력)을 보면, 앞으로의 AI 인프라가 얼마나 메모리·전력·냉각 중심으로 변하는지 직관적으로 이해할 수 있다.

3-2. 지금 메모리 시장은 어느 정도인가? – Agent AI 이전 베이스라인


WSTS/ESIA의 최신 전망에 따르면, 전 세계 반도체 시장은 2026년에 약 1조 달러에 근접할 것으로 예상되고, 이 중 메모리 제품 매출은 2026년 약 2,900억 달러 수준까지 성장할 것으로 전망된다.






출처: ESIA, WSTS Autumn 2025 Semiconductor Market Forecast
https://www.eusemiconductors.eu/sites/default/files/ESIA_WSTS_PR_AuFc2025.pdf


이 전망은

  • 현재 진행 중인 클라우드·스마트폰·PC·자동차·데이터센터 수요를 반영한 것이고,

  • “Agent AI가 지식노동을 전면 대체한다”는 강한 가정은 포함하지 않은 베이스라인에 가깝다.


즉,

2026년 메모리 2,900억 달러 시장은 “Agent AI 이전의 세계”에서 이미 예상되는 규모이고,
Agent AI 가수요는 이 위에 따로 얹히는 덩어리로 보는 것이 적절하다.


3-3. NVL576 BOM으로 본 “인프라에서 메모리 비중”


그러면 Agent AI용 데이터센터에서 메모리가 차지하는 비중은 어느 정도일까?
이를 보기 위해 **GPU 서버의 BOM(Bill of Materials)**을 단계별로 살펴본다.

  1. 서버 안에서 GPU 비중

    • SemiAnalysis가 추정한 Nvidia DGX H100 BOM에서

      • “8 GPU + 4 NVSwitch 보드”가 **서버 원가의 약 73%**를 차지한다.

      • 나머지는 CPU, DRAM, SSD, NIC, 파워서플라이, 케이스, 조립 비용 등이다.

    고가 AI 서버의 원가는 거의 GPU에 집중되어 있다.

  1. GPU 안에서 HBM 비중

    • B200(Blackwell) GPU의 제조원가 구조를 보면,

      • **HBM3e 메모리가 GPU BOM의 40~50%**에 해당한다는 추정이 많다.

    → GPU 가격의 절반 가까이가 사실상 HBM 비용이다.

  2. NVL72 / NVL576 랙에서 GPU·메모리 비중

    • GB200 NVL72 랙의 경우,

      • Grace+Blackwell 슈퍼칩(36개) 가격이 랙 가격(약 300만 달러)의 **60~80%**를 차지한다는 분석이 있다.

    • Rubin Ultra 기반 NVL576 랙은,

      • GPU 수가 576개로 늘고, GPU당 1TB HBM4e와 추가 Fast Memory를 탑재하면서,

      • GPU·HBM 비중이 더 커지는 구조이다.

    이들을 종합하면 NVL576 세대에서

    • GPU(=HBM 포함)가 랙 하드웨어 원가의 60~80%,

    • GPU BOM 안에서 HBM이 45~55%,

    • GPU 외의 시스템 DRAM + SSD(NAND)가 3~5%

    정도를 차지한다고 볼 수 있다.

    이때,

    메모리 비중(랙 하드웨어)
    ≈ GPU 비중 × HBM 비중 + 시스템 메모리 비중

    이므로, 대략 31~49%, 중앙값 약 40% 정도가 된다.

  3. 데이터센터 전체 인프라(TCO)에서 메모리 비중

    마지막으로, 데이터센터 투자/운영비(TCO)를 보면

    • 서버·스토리지·네트워크 같은 IT 하드웨어가 전체 인프라의 55~65%,

    • 나머지가 전력 인프라, 냉각, 건물, 기타 운영비로 구성된다는 분석이 많다.

    그러면 전체 인프라에서 메모리(HBM+DRAM+NAND)가 차지하는 비중은

    메모리 비중(인프라)
    ≈ IT 하드웨어 비중 × 메모리 비중(랙 하드웨어)

    이고, 대략 18~27%, 중앙값 22~24% 수준이 된다.

즉, 간단히 요약하면,

Agent AI용 데이터센터에서, 인프라 비용의 약 1/5~1/4은 메모리(HBM·DRAM·NAND)가 차지한다고 볼 수 있다.

 

3-4. Agent AI가 만들어내는 “메모리 추가 TAM”


이제 앞에서 구한 **지식기반 부가가치 풀(22조 달러)**과 지금 계산한 **메모리 비중(약 22~24%)**을 합쳐서, Agent AI가 만들어낼 **메모리 “추가 TAM”**을 거칠게 계산해보자.

단계는 다음과 같다.

  1. 지식기반 부가가치 풀

    • 22조 달러

  2. AI capture rate(c) – 이 중 AI 매출이 가져가는 비율

    • 보수적: 5%

    • Base: 10%

    • 공격적: 15%

  3. AI 매출 대비 인프라 TCO 비중(i)

    • 보수적: 15%

    • Base: 20%

    • 공격적: 30%

  4. 인프라에서 메모리 비중(m)

    • 범위: 18~27%, Base: 22% 정도

그러면,

메모리 추가 TAM ≈ 22조 달러 × c × i × m


이 된다.

  • Conservative (c=5%, i=15%, m=18%)
    약 300억 달러

  • Base (c=10%, i=20%, m=22%)
    약 970억 달러연 1,000억 달러

  • Aggressive (c=15%, i=30%, m=27%)
    약 2,700억 달러


여기서 마지막 숫자 2,700억 달러가 중요한데,

  • 앞에서 본 WSTS의 2026년 메모리 시장 베이스라인이 약 2,900억 달러이므로,

  • Aggressive 시나리오에서는 “Agent AI 전용 메모리 가수요”만으로도 현재 베이스라인 메모리 시장과 거의 비슷한 규모가 추가로 열릴 수 있다는 의미가 된다.

조금 과장하자면,

Agent AI가 지식기반 서비스를 본격적으로 잠식할 경우,
메모리 시장은 “지금 WSTS가 예상하는 2026년 수준”에서
한 번 더 그만한 규모의 추가 수요가 생겨,
당장의 거의 2배(=100% 추가)까지 커질 잠재력이 있다
고 해석할 수 있다.


물론 실제로 상단까지 갈지는,

  • Agent AI 확산 속도,

  • GPU·HBM 공급량과 가격,

  • 전력·냉각·규제 제약


등에 따라 달라진다. 여기서는 “구조적으로 그 정도까지도 열릴 수 있다”는 상한선을 그려본 것이다.













맺음말: Agent AI → 지식서비스 → 물가 → 메모리


마지막으로 전체 그림을 한 문단씩 정리해 보자.

  1. 어디까지가 타깃인가?

    • Agent AI는 제조·건설·부동산까지 “모두” 직접 대체하지는 않는다.

    • 하지만 정보·금융·전문서비스·유통·교육·헬스 등 지식기반 서비스를 중심으로 보면,
      **미국에서는 GDP의 24~48%, 글로벌 전형에서는 13~33%**가 잠재 타깃이 된다.

  2. 물가에는 어느 정도 영향을 줄까?

    • 이 영역은 고임금·고부가가치 산업이기 때문에,
      Agent AI가 인건비를 줄이면 서비스 가격과 GDP 디플레이터에 직접적인 하방압력이 생긴다.

    • Base 시나리오에서 볼 때,
      글로벌 기준으로 연 −0.1~−0.2%p, 미국은 최대 −0.3~−0.35%p 정도의 디스인플레이션이 2025~2035년 동안 가능해 보인다.

  3. 메모리 하드웨어에는 어떤 의미인가?

    • Agent AI는 긴 컨텍스트·다단계 워크플로·장기 기억 때문에 본질적으로 메모리 집약적이다.

    • NVL576 세대 기준으로 보면,
      **AI 인프라 비용의 약 1/5~1/4이 메모리(HBM·DRAM·NAND)**가 차지한다.

    • 이 구조를 지식기반 서비스 부가가치 풀에 대입하면,
      Agent AI 전용 메모리 “추가 TAM”은 연 300억~2,700억 달러,
      Base 시나리오는 약 1,000억 달러 수준이다.

    • 상단 2,700억 달러는 WSTS가 그린 2026년 메모리 베이스라인(2,900억 달러)에 거의 맞닿아 있어,
      **당장의 “현재 예상치의 거의 두 배까지 커질 여지가 있다”**는 구조적 상한을 시사한다.

결국 Agent AI는

지식기반 서비스의 부가가치 풀을 잠식하면서
→ 물가에는 디플레 압력을 걸고,
→ 반도체 중에서는 특히 메모리 하드웨어에 거대한 가수요를 생성하는 기술


이라고 정리할 수 있다.

즉 다시 정리하면

"시장은 지금 메모리를 '2026년 2,900억' 정도로 보고 있다. 하지만 Agent AI라는 워크로드는 구조적으로 300억~2,700억 달러의(*중간값 1,000억 달러) 추가 수요를 만들 잠재력이 있다. 이 추가 가수요는 아직 대부분의 전망에 제대로 반영되지 않았다."


#글을 마치며


ChatGPT 5.0를 처음 써본 순간, 우리는 직감적으로 ‘AI S/W’로 불리던 SaaS, PaaS 기업들을 전부 매도하고, AI H/W—그중에서도 메모리—에 강하게 베팅했었다.

그리고 며칠 전 공개된 Claude 4.6, ChatGPT 5.3처럼 인간의 문맥을 실제로 이해하는 수준의 고성능 Agent AI가 본격적으로 등장하면서, 그때의 판단이 옳았다는 것을 시장이 점점 더 증명해주고 있음을 느낀다.

물론 일부 IB는 S/W 섹터가 과매도됐다고 말하고, 엔비디아의 젠슨 황도 “S/W 산업 자체가 큰 타격을 받는다는 건 논리적으로 맞지 않는다”는 취지의 의견을 내놓는다.

하지만 내 의문은 다르다. 애초에 ‘제대로 된 AI S/W’가 시장에 존재하긴 했던 걸까?

고객 입장에서 **투자 대비 효과(ROI)**가 확실하고, 실무에 즉시 도입해 성과를 낼 수 있는 LLM 기반 AI 에이전트급 솔루션이 과연 그동안 있었는지 나는 여전히 확신이 없다.

아무래도 우리 모두 이제 그만 AI S/W라는 환상에서 깨어나야하는게 아닐까 싶었다.  

=끝

2026년 2월 9일 월요일

이모저모

오늘같이 연기금 리밸런싱 수급으로 주가가 크게 흔들리는 날이면, 이상하게도 손이 잘 움직이지 않는다.

해야 할 일이 없어서라기보다, 이런 날엔 내가 할 수 있는 일이 애초에 많지 않다는 걸 너무 잘 알기 때문이다.

그래서인지 시장을 보고 있는 시간보다, 멍하니 과거를 떠올리는 시간이 더 길어진다. 오늘은 날도 우중충하고 갑자기 추워졌다. 업계에 처음 들어왔던 시절의 공기와 감정이 겹쳐 올라와, 그냥 기록처럼 남겨본다.

처음 이 일을 시작했을 때 나는 ‘장기투자’와 ‘가치투자’라는 말에 깊게 취해 있었다. 정말 좋은 종목 하나만 찾으면 된다고 믿었다.

한 번만 제대로 찾으면, 나도 복리의 마법으로 금방 부자가 될 것 같았다. 지금 와서 보면 너무 단순했고, 너무 순진했다.

그때의 나는 투자가 마치 정답이 있는 시험처럼 느껴졌던 것 같다. 답만 찾으면 끝나는 수학문제처럼.

그래서 나는 그해 대학 여름방학을 통째로 투자에 바쳤다. 집에 혼자 틀어박혀 상장기업 재무제표를 하나씩 뜯어봤다. 재무비율을 손으로 계산하고, 숫자 뒤에 있는 사업을 이해하려고 기업과 산업을 파고들었다.

그때는 그 시간이 쌓이면 언젠가 ‘딱 하나의 확신’이 생길 거라고 믿었다. 그런데 정신 차려보니 시간이 흘러 있었고, 어느새 나는 30대 중반이 되어 있다. 그때의 나는 마치 사막 한가운데서 길을 잃은 낙오자가 신기루에 홀려 낙원을 찾듯 무언가에 홀려있었지 않았었나 싶다.

초기에는 길고양이 마냥 여기저기 기웃거렸다. 스터디도 기웃거리고, 부띠끄도 기웃거리고, 증권사와 운용사도 기웃거렸다. 어딘가에는 답이 있을 것 같았다. 누군가는 더 높은 곳에서 정답을 내려다보고 있을 것 같았다.

하지만 시간이 지날수록 선명해진 건, 투자에 정답이란 존재하지 않는다는 사실이었다. 결국 사람들은 각자 다른 투자철학이라는 이름으로, 자기만의 방식으로 버티고 있다는 것. 어떤 철학은 멋있어 보였고, 어떤 철학은 위험해 보였지만, 돌아보면 그 어떤것도 애초에 이상적인 투자정답이란 없었던것이 아닐까 싶다. 

나 역시 고집이 있는 편이었다. 처음엔 그 고집이 내 무기라고 믿었다. 남들이 흔들릴 때 나는 끝까지 버텨 내가 맞았다는걸 증명해내고 싶은 사람이 되고 싶었다. 

그런데 시간이 지나면서 깨달았다. 고집은 무기가 아니라 편향이 될 수 있다는 걸. 투자 종목의 풀을 넓히고, 산업을 넓히고, 그 너머의 정치·경제·사회·지정학까지 사고의 폭을 넓히다 보니, 내가 붙들고 있던 확신들이 하나둘씩 흔들렸다. 

더 많이 볼수록, 한 가지 관점으로 끝까지 우기는 일이 얼마나 위험한지 보이기 시작했다. 결국 내 고집은 ‘사라졌다’기보다, 현실에 의해 깎여나갔다라는 표현이 좀 더 정확한 것 같다.

그런데 고집이 줄어드니, 또 다른 문제가 생겼다. 요즘의 나는 ‘반짝이병’에 걸린 사람 같다. 어제 좋아 보이던 종목도, 오늘 더 좋아 보이는 종목이 나타나면 별 미련 없이 갈아탄다. 

예전의 나는 한 번 고른 종목을 끝까지 밀고 가며 내 선택을 증명하려 했는데, 지금의 나는 그 증명 욕구가 약해진 대신, ‘더 좋아 보이는 것’에 쉽게 끌린다. 이게 유연함인지, 아니면 집중력의 붕괴인지 스스로도 헷갈릴 때가 있다.

와이프는 내 이런 성향을 생활에서 먼저 이해한 것 같다. 우리는 외식을 하러 나갈 때 메뉴를 미리 정하고 나가지 않는다. 정해봤자 의미가 없다.

길 가다가 더 맛있어 보이거나, 사람들이 꽉 차 있는 곳을 보면 나는 홀린 듯 그쪽으로 들어가 버린다. 투자도 비슷하다. 더 좋은 투자처가 나타나면, 나는 그 순간 마음을 바꿔버린다.

이 성향이 나를 살린 순간도 있었겠지만, 분명 나를 불필요한 매매로 몰고 간 순간도 많았을 것이다.

그러던 내가 크게 달라진 지점은 매크로 공부였다. 솔직히 말하면, 매크로를 공부하는 이유는 더 공격적으로 매매를 하기 위해서가 아니라, 매매를 덜 하기 위해서다.

투자를 하면서 진짜 적은 시장이 아니라, ‘무지에서 오는 공포’라는 걸 깨달았기 때문이다. 아무것도 모르는 상태에서 시장이 흔들리면, 그 흔들림은 곧 내 감정의 흔들림으로 번진다.

마치 어두컴컴한 동굴 속에서 시각을 제외한 오감에만 의지한 채 앞으로 나아가는 느낌이다. 보이지 않으니 상상만 커지고, 상상은 대부분 공포로 바뀐다.

그래서 나는 먼저 이해하려고 했다. 글로벌 자산시장에 무슨 일이 벌어졌고, 그 일이 한국시장과 내 포트폴리오에 어떤 영향을 주는지, 혹은 줄 예정인지. 그 연결고리를 이해해두면 최소한 중심은 잡힌다.

중심이 잡히면 전략을 다시 세울 수 있다. 그러려면 어떤 이슈라도 시간과 노력을 들여 하나하나 공부해야 한다. 매크로·정치·경제·사회 같은 분야는 특히 그렇다. 아는 만큼 보이고, 그 ‘보이는 범위’가 넓어질수록 같은 사건을 받아들이는 방식이 달라진다.

최근 케빈 워시의 B/S 축소 충격을 이해하려고 21세기 통화정책 책을 다시 펼쳐 읽었던 일이 떠오른다. 첫 회독 때와는 달리 글이 한 번에 읽혔고, 이해의 폭도 훨씬 넓어져 있었다. 그때 느꼈다. 지식이 쌓이면, 사건의 크기가 줄어드는 게 아니라 사건을 해석하는 내 시야가 넓어진다는 걸. 같은 흔들림도 덜 두렵게 받아들이게 된다는 걸.

돌이켜보면, 내가 처음 품었던 “최고의 기업 하나, 최고의 산업 하나” 같은 꿈은 너무 낭만적이었다. 최고의 것을 찾으려면 비교분석이 선행되어야 하고, 비교를 하려면 산업 전체를 알아야 하고, 산업을 알려면 그 산업을 흔드는 외부변수들을 이해해야 한다. 

결국 ‘하나’를 찾는 일이 아니라 ‘전체를 보는 과정’을 견디는 일이었다. 그런데 나는 그 과정을 모르고 너무 순진하게 이 업에 들어왔다. 그래서 초반에는 열심히만 하면 답이 나온다고 믿었고, 그 믿음 때문에 오히려 더 오래 헤맸지 않나 싶다.

모든것을 알고자 할수록, 그 어떤 지식에도 매여선 안된다는 교훈이 동시에 떠오른다.

지난 한 해를 돌아보면, 또 다른 반성이 남는다. 운용수익률 자체는 좋았다. 하지만 “돈을 직접적으로 어떻게 더 벌 것인가”라는 실무적 질문 앞에서는 생각과 확신이 행동으로 이어지지 못했다. 

머리로는 알고 있었다. 수익률만 좋다고 돈이 벌리는 게 아니라는 걸. 결국 돈은 행동에서 나온다는 걸. 그런데 나는 그걸 아는 수준에서 멈춰버렸다. 

체력의 문제였을 수도 있고, 나라는 투자자의 한계였을 수도 있다. 분명한 건, 나는 ‘조급할 필요 없다’는 말 뒤에 숨어 실질적인 실행을 미뤄온 부분이 있다는 사실이다.

그리고 마지막으로, 요즘 들어 가장 자주 떠오르는 후회가 있다. 개인적인 아카이브 정도로 생각했던 블로그에, 남에 대한 비평 아닌 비평을 너무 생각 없이 써버렸던 일이다. 

그때는 그저 내 생각을 정리한 기록이라고 여겼다. 하지만 시간이 지나고 다른 투자자들의 블로그를 돌아다니다 보면 가끔 뜨끔할 때가 있다. 내가 남긴 말들이 누군가에게는 가볍지 않았을 수도 있겠다는 생각이 든다. 특히 투자라는 업을 진지하게 대하고, 자신의 많은 열정과 노력을 쏟아부어온 사람일수록 더 민감할 수밖에 없다. 

나와 다른 투자철학에 대해, 내가 굳이 언급할 필요가 있었을까 싶다. 결국 그건 내 그릇이 작았던 탓에 생각이 타인의 감정까지 미치지 못한것이 아닐까 한다. 

예전에 한 운용사 이사님이 자진퇴사를 앞둔 내 앞에서 조용히 하셨었던 말이 갑자기 떠오른다. 투자는 담금질하듯 시간을 들여 스스로를 알아가는 과정이라는 이야기였다.

글로 생각을 정리해보니, 정말 그때의 그 이사님의 말씀이 꼭 맞는것 같다라는 생각이 든다. 

돌아보면 어느 순간 나는 너무 깊이 매몰되어, 그날그날의 수익률이 내 기분을 좌우하고, 운용 중인 포트폴리오와 나 자신이 한 몸처럼 동일시되는 착각에 빠질 때가 있었다. 숫자가 흔들리면 마음이 흔들리고, 마음이 흔들리면 다시 판단이 좁아지는 식이었다.

그래서 요즘은 그런 순간일수록 일부러 한 발짝 물러서보려고 한다. 그게 결국 예전처럼 고집을 내세우며 시야를 좁히던 나로 되돌아가려는 습관에서 벗어나는, 가장 현실적인 방법일지도 모른다는 생각이 든다.

=끝


2026년 2월 8일 일요일

생각정리 179 (* Agent AI, 낸드의 경제학)

이전에 봐두었던 김정호 교수님의 HBF 관련 내용 중, 내가 주목했었던 포인트는 AI 시대에 NAND의 사용처가 변화하면서 SSD의 가속상각 가능성이 함께 부각될 수 있다는 점이다.

또한 NAND와 DRAM의 본질적 성질 차이에 대한 설명은 김정호 교수님이 비교적 명확하게 정리해주는 편이라고 느꼈다.

입자성..파동성... 슈뢰딩거방정식 뭐시기 ..

https://www.youtube.com/watch?v=uJWZQb9rWUk&t=1738s


https://www.youtube.com/watch?v=uJWZQb9rWUk&t=1738s




1. 문제의식: AGENT AI 시대, 왜 갑자기 낸드 경제학이 중요해졌는가


지금까지 AI 인프라를 이야기할 때 중심은 주로 GPU·HBM·DRAM이었다.
낸드(NAND)는 “싸고 큰 저장공간(SSD)” 정도로 취급되었다.

그런데 최근 한 GPU 업체가 BlueField-4 기반의 Inference Context Memory Storage Platform(ICMSP) 를 공개하면서 상황이 바뀌었다. 이 플랫폼은 KV 캐시 같은 추론 컨텍스트를 NVMe SSD 기반의 별도 메모리 계층에 보관하고, 재사용 가능한 컨텍스트를 미리 GPU 근처로 프리스테이징해 GPU 활용도를 높인다는 아이디어를 전면에 내세운다.(NVIDIA Developer)


여기에 여러 연구·백서들이 KV 캐시/컨텍스트를 스토리지로 오프로딩하는 구조를 제안하고 있고, 특히 agentic AI(멀티스텝 에이전트) 가 확산될수록 이 컨텍스트 데이터가 기하급수적으로 늘어난다고 지적한다.(arXiv)


이 흐름을 종합하면:

  • 낸드는 더 이상 “가끔 쓰고 주로 읽기만 하는 저장소”가 아니라

  • 에이전트 컨텍스트를 계속 읽고 쓰는 외부 메모리 계층으로 올라가고 있고,

  • 따라서 낸드의 쓰기 내구성·상각·공급제약이 AI 인프라 경제학에서 점점 핵심 변수가 되고 있다.

이 글은 바로 이 지점,

“AGENT AI 시대에 컨텍스트가 늘어날수록 왜 낸드가 더 빨리 상각될 수 있는지,
그리고 수급 불균형·초과수요 국면에서 그 위험이 어떻게 증폭되는지”


를 구조적으로 정리해 보려는 시도이다.


2. AGENT AI가 왜 낸드 쓰기를 늘리는가: 컨텍스트 폭증의 메커니즘


2-1. 단순 LLM 질의 vs AGENT 워크로드


단순 LLM 질의
에서는:

  • 사용자 질문 1회 → 모델 한 번 추론 → KV 캐시는 세션 안에서만 쓰이고 사라지는 경우가 많다.

  • SSD는 주로 모델 가중치·데이터셋을 저장하는 쪽에 쓰이고,
    추론 중에는 read 비중이 압도적으로 크다.

반면 AGENT AI 워크로드에서는 상황이 완전히 달라진다.

  • 하나의 요청이

    • 여러 번의 툴 호출,

    • 내부 검증/재시도/교차 검증,

    • 다른 에이전트와의 상태 공유,
      를 포함하는 멀티스텝 체인(chain) 구조가 된다.

  • 에이전트는 단발성이 아니라,
    장기간 유지되는 “작업 세션/작업 공간” 을 다루게 된다.

삼성 반도체의 KV 캐시 오프로딩 백서도,
에이전트형 AI 시스템이 보편화될수록 대화·작업 컨텍스트가 길어지고, KV 캐시·상태 정보를 외부 스토리지 계층으로 오프로딩해야 할 필요성이 커진다고 정리한다.(download.semiconductor.samsung.com)


이 말은 곧,

  1. 생성되는 컨텍스트의 총량이 증가하고,

  2. 여러 스텝·여러 에이전트 간에 공유해야 하는 컨텍스트가 늘어나며,

  3. 이를 GPU HBM만으로 감당하기 어려워 SSD와 같은 외부 계층에 내려놓는 비율이 커진다는 뜻이다.

즉, AGENT AI = 컨텍스트 폭증 → SSD(낸드) 쓰기 트래픽 증가라는 방향성은
여러 기술자료들에서 공통적으로 지적하는 흐름이다.(NVIDIA Developer)

2-2. “저장소”에서 “외부 메모리”로: 워크로드 성격 변화


이때 SSD 위의 워크로드는 크게 두 가지로 나뉜다.

  • 쓰기(write)

    • 길어진 세션, 여러 에이전트가 사용하는 컨텍스트를
      GPU HBM에서 외부 컨텍스트 티어(SSD)로 내릴 때 발생

  • 읽기(read)

    • 같은 컨텍스트를

      • 후속 단계에서 다시 참조하거나,

      • 다른 GPU/노드가 이어받아 추론할 때
        SSD에서 다시 읽어와 HBM으로 Prefetch할 때 발생

즉, 앞으로의 SSD는:

“한 번 써 두고 계속 읽는 저장소”가 아니라,
“새 컨텍스트를 쓰고, 재사용하고, 지우는 read/write 혼합 외부 메모리”


라는 성격을 점점 강하게 띠게 된다.
여기서부터 낸드 수명·상각 문제가 본격적인 분석 대상이 된다.


3. 낸드 수명·상각의 기본: DWPD 관점에서 본다


낸드 기반 SSD의 내구성은 일반적으로
P/E 사이클(Program/Erase), TBW(Terabytes Written), DWPD(Drive Writes Per Day) 같은 지표로 표현된다.(Kingston Technology Company)

핵심만 추리면:

  • 낸드 플래시는 셀당 쓰기/지우기 횟수가 유한하다.

  • 제조사는 SSD가 보증 기간 동안 버틸 수 있는 총 쓰기량을

    • TBW(총 몇 TB를 쓸 수 있는지),

    • DWPD(드라이브 전체 용량을 하루에 몇 번까지 쓸 수 있는지)
      형태로 명시한다.(Kingston Technology Company)


예를 들어,

  • 5년 보증, 1 DWPD SSD라면
    → “5년 동안 매일 이 드라이브 전체를 1번씩 모두 써도 견딘다”는 뜻이고,

  • 같은 조건에서 3 DWPD SSD라면
    → “매일 3번씩 전체를 덮어써도 된다”는 의미다.

경제학적으로 보면,
SSD 한 개의 CAPEX를 수명 동안 쓸 수 있는 총 쓰기량(TBW) 으로 나누면,

“1TB를 쓸 때마다 실제로는 얼마를 상각하는가”


라는 단위 비용으로 볼 수 있다.(Sandisk Documents)

따라서:

  • 하루당 쓰기량(DWPD)이 올라가면

    • SSD 교체 시점이 앞당겨지거나(수명 단축),

    • 더 높은 DWPD 등급의 SSD를 도입해야 하고(초기 CAPEX 증가),

    • 어떤 경우든 낸드 관련 상각·투자 부담은 증가한다.


4. 수식으로 보는 상각 가속: 수요 폭증 + 공급 제약


이제 AGENT 워크로드와 메모리 공급을 함께 보자.하루 전체 SSD 쓰기량을 

Wtotal\text{W}_{\text{total}}
SSD 한 개 용량을 CSSD\text{C}_{\text{SSD}},
전체 SSD 개수를 NSSD\text{N}_{\text{SSD}} 라고 하면

DWPDWtotalCSSD×NSSD\text{DWPD} \approx \frac{\text{W}_{\text{total}}}{\text{C}_{\text{SSD}} \times \text{N}_{\text{SSD}}}

라고 볼 수 있다(단순 평균 모델).


4-1. AGENT AI가 바꾸는 것은 Wtotal\text{W}_{\text{total}}


앞서 본 것처럼 AGENT AI 도입이 본격화되면:

  • 세션 길이,

  • 에이전트 체인 깊이,

  • 컨텍스트 종류(중간 상태·검증 로그·툴 결과 등),


이 모두 늘어나고, KV 캐시/컨텍스트를 외부 계층으로 오프로딩하는 비율도 올라간다는 점에서
하루 전체 쓰기량 Wtotal\text{W}_{\text{total}} 이 증가하는 방향성은 상당히 확실하다.

게다가, 최근 연구들도 KV 캐시를 스토리지·CSD(Computational Storage Drive)로 오프로딩하는 방안이 긴 컨텍스트·대규모 LLM 추론에서 점점 유력한 접근이 되고 있음을 보여준다.

4-2. DRAM·NAND 공급은 단기에 기하급수적으로 늘어나기 어렵다


반대로 메모리 공급은 물리적·투자적 제약을 받는다.

  • DRAM·NAND는 대규모 팹 투자와 공정 전환이 필요하고,
    설비 리드타임·공정 안정화까지 고려하면 수년 단위 사이클로 움직인다.(SemiAnalysis)

  • 최근 메모리 리포트들은

    • AI 데이터센터 수요가 메모리(특히 HBM·DRAM·낸드)에 강한 상방 압력을 주고,

    • 일부 구간에서 공급 부족·리드타임 증가·가격 상승이 동시에 나타나고 있다고 지적한다.(Barron's)


즉, 전방 수요는 기하급수에 가깝게 늘고 있는데, 후방 공급은 긴 리드타임을 가진 완만한 곡선이다.
이 간극에서 수급 불균형(특히 초과수요 구간) 이 발생한다.

이런 시기에는:

  • SSD를 더 많이 깔고 싶어도

    • 공급 부족,

    • 높은 가격,

    • 납기 지연 때문에
      (\text{N}_{\text{SSD}}) 를 충분히 늘리기 어렵다.

4-3. 그 결과: SSD 한 개당 DWPD 상승 압력


수식을 다시 보면,

  • Wtotal\text{W}_{\text{total}} 는 AGENT 수요로 인해 ,

  • NSSD\text{N}_{\text{SSD}} 는 공급 제약으로 인해 단기적으로 제한,

  • CSSD\text{C}_{\text{SSD}} 역시 공정 전환·비용 때문에 급격히 키우기 어렵다.


이때 평균 DWPD는

DWPDWtotalNSSD

에 가깝게 움직인다.

따라서 수급 불균형·초과수요 국면에서는

“AGENT AI가 만들어내는 총 쓰기량 증가분을
충분히 많은 SSD/낸드로 나눠 다루지 못해,
SSD 1개당 쓰기 부담이 증가하고(DWPD 상승),
그만큼 낸드 상각이 가속될 위험이 커진다.”


고 보는 것이 논리적으로 자연스럽다.

이건

  • “항상 그렇게 된다”가 아니라

  • **“그럴 압력이 구조적으로 커진다”**는 의미다.


5. 완충 장치와 한계: 상각 가속을 얼마나 완화할 수 있나


현실의 시스템·사업자는 이런 상각 압력을 그대로 방치하지 않는다.
대표적인 완충 메커니즘은 다음과 같다.

5-1. 아키텍처·정책 차원

  • 모든 상태를 SSD에 내리지 않고,

    • 짧게 쓰고 끝나는 노이즈 컨텍스트는 HBM/DRAM/로컬 캐시에서만 처리하고,

    • 재사용 가치가 높은 컨텍스트만 외부 컨텍스트 티어로 오프로딩한다.

  • TTL, eviction 정책을 조절해
    SSD에 오래 남을 필요가 없는 데이터는 빨리 제거해, 불필요한 쓰기·갱신을 줄인다.

즉, AGENT로 컨텍스트가 늘어난다고 해서 그만큼 SSD 쓰기가 선형으로 늘어나지 않도록 정책을 튜닝하는 것이다.

5-2. 스토리지 플릿·제품 선택

  • 외부 컨텍스트 계층에는

    • DWPD가 높은 엔터프라이즈급 SSD를 우선 배치하고,(Sandisk Documents)

    • 오버프로비저닝을 키워 실효 수명을 확보한다.

  • 동일한 Wtotal\text{W}_{\text{total}}

    • 더 많은 SSD,

    • 더 큰 용량,

    • 더 높은 내구성 등급 제품으로 나누어 받도록 설계해
      개별 SSD의 DWPD를 1 이하로 관리하려 한다.

5-3. 가격·비즈니스 모델

  • 컨텍스트를 많이 쓰는 워크로드,
    장기간 상태를 유지해야 하는 에이전트에는
    더 높은 과금 혹은 별도 요금제를 적용해
    낸드 상각 비용을 가격에 반영할 수 있다.

  • 반대로, 비용 민감한 워크로드는
    컨텍스트 보존 기간을 줄이거나, 외부화 비율을 낮추는 옵션을 통해
    낸드 부담을 줄이는 식의 상품 설계가 가능하다.

이러한 대응 덕분에,
“AGENT AI → NAND가 무조건 몇 년 안에 타버린다” 같은 극단적인 상황은 피할 수 있다.

그러나 동시에,
AGENT AI가 없던 시기보다 낸드 상각 압력이 구조적으로 커진다는 방향성 자체는 바뀌지 않는다.

  • 컨텍스트 외부화 비중이 높아지고,

  • 총 쓰기량이 늘어나며,

  • 수급이 타이트한 구간에서는 SSD 1개당 부담이 커질 가능성이 크기 때문이다.


6. 결론: AGENT AI 시대, 낸드는 “외부 메모리 + 상각 자산”으로 봐야 한다


정리하면 다음과 같다.

  1. AGENT AI 확산 → 컨텍스트 폭증

    • 멀티스텝 체인, 툴 호출, 내부 검증, 에이전트 간 상태 공유로
      KV 캐시·중간 상태·에이전트 컨텍스트 총량이 크게 증가한다.(download.semiconductor.samsung.com)

  2. HBM만으로는 이 컨텍스트를 다 품기 어려워, 외부 컨텍스트 메모리 계층(SSD/NVMe)로의 오프로딩이 늘어난다.

    • ICMSP 같은 플랫폼은 KV 캐시를 NVMe SSD로 확장된 컨텍스트 티어에 저장·공유하는 구조를 이미 제시하고 있다.(NVIDIA Developer)

  3. SSD는 더 이상 “거의 읽기 전용 저장소”가 아니라, “컨텍스트를 계속 읽고 쓰는 외부 메모리”가 된다.

    • 이로 인해 낸드의 하루당 쓰기량(DWPD) 이 구조적으로 상승할 압력이 생긴다.(arXiv)

  4. 동시에 DRAM·NAND 공급은 팹 리드타임·공정 난도 때문에 단기에 기하급수적으로 늘어나기 어렵다.

    • AI 데이터센터 수요 급증 국면에서,
      메모리 시장은 공급 부족·리드타임 증가·가격 상승을 경험하고 있다.(Barron's)

  5. 수요는 빠르게 늘고(Wtotal\text{W}_{\text{total}} ↑), SSD 개수를 마음대로 못 늘리면(NSSD\text{N}_{\text{SSD}} 제한), SSD 1개당 DWPD가 올라가고, 낸드 상각이 가속될 가능성이 커진다.

    • 이는 수식으로도, 시장 구조상으로도 합리적인 추론이다.

  6. 물론 아키텍처 최적화·고내구성 SSD·가격 체계 설계로 이 상각을 완화할 여지는 크다.

    • 하지만 “AGENT AI가 없던 시기보다 낸드 상각이 덜 중요해진다”고 말하기는 어렵고,

    • 오히려 에이전트 시대에는 낸드가 “토큰당 비용(J/token, $/token)”을 결정하는 핵심 자산 중 하나로 부상한다고 보는 편이 현실에 가깝다.

요약하면,

AGENT AI 시대의 낸드 경제학
“얼마나 큰 SSD를 사느냐”를 넘어서,
**“얼마나 자주 쓰고 지우게 될지, 그 쓰기 횟수를 어떤 아키텍처와 공급망으로 감당할지”**에 관한 문제이다.

 

#글을 마치며


예전에 린홍원의 『TSMC, 세계 1위의 비밀』를 읽으면서 “NAND가 의외로 AI 시대에 중요한 역할을 할 것”이라는 대목이 인상에 남아 있었다.

이제는 한 걸음 더 나아가, Agent AI 시대의 진짜 주인공은 어쩌면 DRAM이 아니라 NAND일지도 모른다는 생각으로 글을 마무리해본다.

-끝

생각정리 178 (* VAST Data, Optical Interconnect)

CES 2026에서 젠슨 황이 상당한 시간을 할애했던 BlueField-4를 공부하는 과정에서 VAST Data를 알게 되었고, 이제 그 기술적·산업적 함의를 정리한 뒤, 앞으로 광 네트워킹이 얼마나 중요해질지를 함께 짚어보려 한다.



0. 서론: 차세대 DPU(BlueField-4급)가 의미하는 것


먼저 이번 구조의 출발점이 되는 차세대 DPU(4세대급 DPU) 가 무엇인지부터 정리할 필요가 있다.

이 DPU는 한마디로 이렇게 이해하면 된다.

**“GPU가 계산에만 집중하도록, 네트워크·스토리지·보안 같은 ‘데이터 이동과 인프라 잡일’을 옆에서 전담하는 인프라용 프로세서”**이다. (NVIDIA Blog Korea)


기존 NIC(네트워크 카드) 가 “패킷을 잘 보내고 받는 장치”였다면, 이 DPU는 여기에

  • Arm 계열 코어(작은 CPU들)

  • 네트워크·스토리지·암호화·보안 가속기 를 붙여,


네트워크/스토리지/보안 처리를 서버 CPU 대신 맡는 ‘인프라 전용 컴퓨터’ 로 만든 개념이다.


특히 한 GPU 업체는 이 DPU 기반으로 ICMSP(Inference Context Memory Storage Platform) 라는 개념을 제시했다. 여기서 이 DPU는

“KV 캐시·에이전트 컨텍스트를 SSD 풀에 저장·공유하고, RDMA·NVMe-oF를 통해 저지연·저지터로 GPU와 데이터를 주고받는 컨텍스트 메모리 매니저”


역할을 한다고 정의된다. (NVIDIA Developer)


이제 이 DPU를 전제로, SSD=외부 컨텍스트 메모리 계층과 이를 운영하는 스토리지 플랫폼 이야기를 이어가 보겠다.


1. SSD가 갑자기 중요해진 이유: 저장장치에서 “외부 메모리”로


AI 인프라는 한동안 “GPU가 얼마나 빠르냐” 가 핵심이었다.
하지만 LLM·에이전트 추론이 커지자, 진짜 승부처는 이렇게 바뀌고 있다.

“GPU가 얼마나 빠른가”보다, “GPU를 얼마나 멈추지 않고 계속 돌릴 수 있는가”


즉, GPU 활용도(Utilization) 가 더 중요해진 것이다.


GPU가 멈추는 대표 이유가 바로 컨텍스트(context) 이다.
컨텍스트는 단순 텍스트 이력뿐 아니라, 다음 토큰을 빠르게 만들기 위해 저장해 두는 계산 결과까지 포함한다.

  • KV 캐시(KV cache):
    LLM이 다음 토큰을 만들 때, 이전 토큰에서 계산한 중간 결과를 저장해 두는 “임시 메모리”이다. 같은 계산을 반복하지 않고 속도를 내는 데 필수적이다.

  • 에이전트 컨텍스트(agent context):
    에이전트가 멀티스텝 작업을 수행할 때 “무엇을 했고, 무엇을 하려는지, 중간 결과는 무엇인지” 같은 작업 상태를 유지하는 정보이다.

문제는 이 컨텍스트가 커질수록, GPU 옆 초고속 메모리인 HBM 에 다 올려두기 어렵다는 점이다.

장문맥 대화, 멀티 에이전트, 롱런 세션이 늘어날수록 KV 캐시/컨텍스트가 HBM을 잠근다.

그러면:

  • 새 작업을 올리기 어렵고(배치 확장이 막히고),

  • 컨텍스트 때문에 데이터 이동·재계산·대기가 반복되면서,
    GPU가 멈추는 유휴 시간이 늘고 토큰 처리량이 떨어진다.

핵심은 “HBM이 논다”가 아니라,

HBM에 컨텍스트를 붙잡아 두느라 GPU가 제대로 일을 못 하고, 활용도가 떨어진다는 점이다.

NVIDIA가 CES에서 내놓은 Vera/Rubin 계열 설계의 메시지는 명확하다. (Tom's Hardware)

컨텍스트를 GPU 내부 HBM만으로 감당하지 말고, 랙/클러스터 전체가 공유하는 ‘외부 메모리 계층(External Memory Tier)’을 만들자.
그리고 그 역할을 SSD가 맡게 하자.


이 순간 SSD는 단순 “저장장치”가 아니라, 추론을 위한 외부 메모리 계층으로 성격이 바뀐다.


2. DPU + RDMA + NVMe-oF: SSD를 메모리처럼 쓰는 통로


컨텍스트를 SSD로 내려보내고(offload),
다시 필요할 때 빠르게 가져오려면(fetch),


그 사이의 데이터 경로
가 병목이 되면 안 된다.

그래서 제시된 조합이 DPU + RDMA + NVMe-oF 이다. (NVIDIA Developer)

  • DPU(Data Processing Unit)
    네트워크/스토리지/보안 등 “데이터 이동” 작업을 서버 CPU 대신 전담 하는 인프라용 프로세서이다. GPU가 계산에 집중하도록 데이터 경로 부담을 분리한다.

  • RDMA(Remote Direct Memory Access)
    네트워크로 데이터를 옮길 때 CPU 개입과 메모리 복사를 줄여, 지연(latency)지터(jitter, 지연의 흔들림) 를 낮추는 기술이다.

  • NVMe-oF(NVMe over Fabrics)
    NVMe SSD 접근을 네트워크로 확장해, 멀리 있는 SSD도 고속·저지연 으로 접근하는 방식이다.


이 조합의 목적은 단순히 “SSD를 빨리 읽자”가 아니라,

“SSD에 있는 컨텍스트를, HBM 옆 메모리처럼 예측 가능하게 다루자”


는 데 있다.

그래야 SSD가 진짜로 “외부 컨텍스트 메모리 계층” 이 될 수 있기 때문이다.

실제 한 GPU 업체의 설명에서도, 이 DPU 기반 플랫폼이 재사용 가능한 추론 컨텍스트(KV 캐시)를 보관하고 GPU 근처로 프리스테이징해, GPU 활용도를 높인다고 밝히고 있다. (NVIDIA Developer)


3. (중간 요약) HBM에 묶여 있던 컨텍스트를 SSD로 빼고, 다시 Prefetch로 당겨오는 구조


여기까지를 한 번에 요약하면 다음과 같다.

예전에는 LLM이 다음 토큰을 빠르게 만들기 위해
KV 캐시(이전 계산 결과)에이전트 컨텍스트(작업 상태)
GPU 옆 초고속 메모리(HBM) 에 계속 붙잡아 두는 구조였다.
그런데 대화가 길어지고 에이전트가 많아지면 이 컨텍스트가 커져서 HBM을 많이 잠가 버린다.
그러면 GPU가 새 작업을 올리거나 배치를 키우기 어려워지고, 컨텍스트 때문에 데이터 이동·재계산·대기 같은 일이 늘면서 GPU가 멈추는 시간(유휴) 이 생기거나 처리량이 떨어진다.
즉 문제의 핵심은 “HBM이 논다”가 아니라 GPU 활용도가 떨어진다는 점이다.

새로운 구조(차세대 DPU + ICMSP 방향)는 이 컨텍스트를 HBM에만 두지 않고 외부 메모리 계층으로 빼는 방식이다.
구체적으로는 HBM을 많이 잡아먹는 KV 캐시/컨텍스트를 RDMA(빠른 전송)
DPU(데이터 이동 전담 칩) 가 관리하는
SSD 풀(NVMe-oF로 접근되는 원격 SSD 묶음) 로 내려둔다.
이렇게 하면 HBM은 컨텍스트에 덜 잠기고, GPU는 더 자주 “계산”에 집중할 수 있다.

그리고 나중에 그 컨텍스트가 다시 필요해지면, SSD 풀의 데이터를 “그때그때 느리게 가져오는” 방식이 아니라 Prefetch(필요하기 전에 미리 당겨오기) 로 GPU HBM 쪽에 미리 올려둔다.
결과적으로 GPU는 컨텍스트를 기다리느라 멈추는 시간이 줄고, 같은 GPU로 더 많은 토큰을 안정적으로 뽑는 방향(=GPU 활용도 개선)으로 간다.

 

한 줄로 정리하면,
이 구조는 KV 캐시/컨텍스트를 HBM에만 묶어두지 않고 SSD 기반 외부 메모리 계층으로 오프로딩했다가, 필요할 때 Prefetch로 다시 HBM에 올려 GPU 유휴를 줄이는 아키텍처이다.






4. 스토리지 플랫폼의 역할: “고속도로 위의 운영체제”


여기서 한 스토리지 소프트웨어/데이터 플랫폼 업체가 맡는 역할은,
**“고속도로(하드웨어)를 깔아놓은 뒤, 그 위에서 컨텍스트가 끊기지 않고 잘 흘러가게 만드는 운영체제”**에 가깝다.


ICMSP가 제공하는 것은 요약하면 “컨텍스트를 SSD로 보내고 다시 가져올 수 있는 고속도로(DPU·RDMA·NVMe-oF)” 이다.


이 위에서 스토리지 플랫폼이 하는 일은 세 가지로 보고 정리할 수 있다.

  1. 컨텍스트를 개별 GPU의 로컬이 아니라, 클러스터 전체의 ‘컨텍스트 풀(pool)’로 운영하는 것

  2. 어떤 컨텍스트를 언제 SSD로 내리고(offload), 언제 HBM으로 미리 끌어올릴지(prefetch) 결정하는 정책을 구현하는 것

  3. 이 모든 것을 저지연·저지터 데이터 경로 위에서 안정적으로 돌리는 것


따라서 이런 스토리지 플랫폼은 “SSD 박스를 파는 회사”가 아니라,

SSD를 LLM/에이전트의 외부 컨텍스트 메모리 계층으로 쓰게 만들어 GPU 효율을 현금화하는 소프트웨어/데이터 플랫폼


이라고 보는 것이 정확하다. (NVIDIA Developer)


5. 한 페이지 요약: 외부 컨텍스트 메모리 시대의 수혜 밸류체인·병목·CAPEX 이동


ICMSP로 대표되는 “SSD=외부 컨텍스트 메모리” 전환은,
투자·산업의 초점을 GPU 단품 성능에서 클러스터 전체의 데이터 이동·컨텍스트 재사용 효율로 옮긴다.


병목은 “연산 부족”이 아니라 컨텍스트를 얼마나 빨리·일관되게(저지연·저지터) 옮기고 재사용하느냐로 이동하고, CAPEX는 GPU만이 아니라 네트워킹·DPU·스토리지 계층으로 구조적으로 확장된다.

(1) 광모듈 / 실리콘 포토닉스

  • 병목: 컨텍스트 공유(ICMSP)로 동서(East-West) 트래픽이 폭증하면, 전기 기반 링크만으로는 전력·발열·거리·신호무결성 측면에서 한계가 빨리 온다.

  • CAPEX 포인트: 트래픽이 늘수록 “몇 Tbps냐”보다 비트당 에너지(pJ/bit) 가 핵심이 되며, 광모듈·실리콘 포토닉스 비중이 커진다.

한 시장조사기관은 광트랜시버 시장이 **2024년 약 136억달러 → 2029년 250억달러(CAGR 약 13%)**로 성장할 것으로 본다. (MarketsandMarkets)

(2) CPO(Co-Packaged Optics) 패키징

  • 병목: 플러거블 광 트랜시버 + 전기 리치 구조에서는 고대역 스위치에서 I/O 밀도·전력·열 이 병목이 된다.

  • CAPEX 포인트: CPO는 스위치 ASIC과 광학을 한 패키지에 붙여 pJ/bit를 낮추고 전기 경로 손실을 줄이는 해법이다.

NVIDIA는 실리콘 포토닉스 기반 CPO 스위치로, 포트당 1.6Tb/s급·네트워크 전력 3.5배 절감·수백만 GPU 연결을 목표로 하는 로드맵을 공개했다. (NVIDIA Newsroom)

(3) 스위치 ASIC

  • 병목: ICMSP는 대역폭뿐 아니라 예측 가능한 지연(저지터) 를 요구한다. 네트워크 지연이 흔들리면 Prefetch가 깨지고 GPU 파이프라인이 비면서 전체 처리량이 떨어진다.

  • CAPEX 포인트: 단순 고성능 스위치가 아니라, AI 트래픽·RDMA·혼잡제어에 최적화된 스위치 ASIC 이 필요하며, 스위치 계층이 GPU와 동급의 핵심 설비로 올라간다. (NVIDIA Newsroom)

(4) DPU/NIC

  • 병목: 컨텍스트 Offload/Fetch/Prefetch의 핵심은 “데이터 이동”이며, 이것을 CPU가 처리하면 오버헤드와 지터가 커진다. 결국 데이터 경로의 결정론(determinism) 이 병목이다.

  • CAPEX 포인트: DPU/NIC는 단순 네트워크 카드가 아니라 컨텍스트 메모리 매니저 로 기능이 확장된다. ICMSP가 표준이 될수록 필수 부품으로 CAPEX 비중이 커진다. (NVIDIA Developer)

(5) NVMe SSD(External AI SSD, 컨텍스트 티어)

  • 병목: SSD는 이제 “용량”보다 지연·IOPS·일관성(QoS) 이 추론 품질(TTFT, 토큰/초)을 좌우한다. 컨텍스트 재사용률이 높아질수록 SSD는 사실상 메모리 계층이 된다.

  • CAPEX 포인트: 백업/저장용 스토리지가 아니라, “GPU당 필요한 외부 컨텍스트 메모리 티어” 로 NVMe CAPEX가 잡힌다.

(6) 스토리지 소프트웨어 / 데이터 플랫폼

  • 병목: 어떤 컨텍스트를 언제 오프로딩하고, 어디에 두고, 언제 Prefetch할지, 멀티 테넌트 환경에서 어떻게 격리·복구할지 같은 정책과 운영이 최종 병목이다.

  • CAPEX 포인트: “스토리지 관리 SW”가 아니라, GPU 효율을 현금화하는 컨텍스트 OS/플랫폼 으로 비용이 배정된다. GPU 투자 대비 수익률(토큰/초, J/token)을 좌우하는 레이어로 격상된다.


6. 2030년까지 광인터커넥트(광트랜시버·OCS·InP 웨이퍼) 시나리오


같은 맥락에서, 광인터커넥트 산업을 2030년까지 시나리오로 보면 다음과 같다.

6-1. 광트랜시버: 수요는 크고, 단기 성장은 “공급이 결정”


한 글로벌 시장조사기관은 광트랜시버 시장이 **2024년 100억달러대 중반 → 2029년 250억달러 수준(CAGR 10%대 중반)**으로 성장할 것으로 본다. (MarketsandMarkets)


하지만 실제 출하·매출은 부품 공급(특히 InP 기반 레이저·EML, 드라이버/TIA, SiPh 칩·패키징) 에 의해 제약될 수 있다. 즉 “총수요는 충분한데, 공급이 따라가느냐”가 2026년의 관전 포인트라는 것이다.

6-2. OCS(광회로스위치): 2028년 10억달러대, 2030년에는 ‘스텝 점프’ 가능


한 통신 특화 리서치사는 OCS(Optical Circuit Switch) 시장이 2028년에 10억달러를 넘을 것이라고 본다. (Cignal AI)

같은 내용을 보도한 업계 매체들도, AI 데이터센터에서 OCS가 전력 절감과 유연성을 동시에 확보하는 기술로 부상하고 있다고 정리한다. (Light Reading)

이를 2030년까지 단순 외삽하면, 연 15~30% 성장률을 가정할 때 2030년 13~20억달러 정도가 합리적인 범위 추정이다. 다만 OCS는 “완만한 성장”보다 아키텍처 전환이 임계점을 넘을 때 한 번에 점프하는 패턴을 보일 가능성이 크다.

6-3. CPO: 플러거블을 ‘대체’라기보다 ‘병존+점진적 잠식’

NVIDIA는 실리콘 포토닉스 기반 CPO 스위치를 통해 수백만 GPU를 1.6Tb/s 포트 스위치로 연결하면서, 네트워크 전력을 3배 이상 절감하는 방향을 제시한다. (NVIDIA Newsroom)

여러 시장조사기관은 CPO 스위치 시장이 2020년대 후반까지 20%대 중후반 CAGR으로 성장할 수 있다고 본다. (PW Consulting)

이를 종합하면,

  • 2025~26년: 여전히 플러거블(800G/1.6T) 중심 성장 구간

  • 2026~2030년: CPO가 플러거블을 완전히 “대체”하기보다는,
    **하이엔드·대규모 클러스터를 중심으로 “병존+점진적 잠식”**하는 구도가 될 가능성이 높다.

6-4. InP 웨이퍼(3인치 → 6인치): 병목 해소의 핵심 이벤트

코히런트는 세계 최초 6인치 InP(Indium Phosphide) 웨이퍼 팹을 구축했다고 발표했다. 이는 3인치 중심에서 6인치로 생산을 옮겨, 웨이퍼당 다이 수 증가·수율 개선·다이당 원가 절감을 동시에 노리는 전략이다. (Coherent Inc)

2030년까지 InP 수급은

  • 단순 웨이퍼 장수가 아니라 유효 다이 수(다이/웨이퍼 × 수율),

  • 3인치 → 6인치 전환 속도,

  • 고속 노드(200G→400G/lane) 수율 안정화

같은 변수에 의해 결정된다.

요약하면, InP 공급이 얼마나 빨리 “면적×수율”을 키우느냐에 따라, 2025~27년 EML 병목이 짧게 끝날지, 2030년 근처까지 길게 이어질지가 갈릴 수 있다.


7. 2030년까지의 두 가지 압축 시나리오


시나리오 A: 공급이 계속 타이트(병목 지속)

  • 6인치 전환·고속 노드 수율이 예상보다 느리게 안정화.

  • 결과:

    • EML(특히 고속 노드) 가격/마진 파워 지속

    • 트랜시버 업체는 SiPh 채택을 더 적극 활용해 InP 병목을 우회

    • OCS/CPO 도입은 빨라지지만, 광원(InP) 공급이 병목이라 “설치 속도”는 공급이 결정

시나리오 B: 6인치 전환 가속(2027~28년에 병목 완화)

  • 6인치 InP 전환이 업계에 빠르게 확산, 공정·수율이 빠르게 안정.

  • 결과:

    • 2025~26년은 타이트하지만, 2027~30년으로 갈수록 InP 병목 완화

    • 플러거블→CPO/ELS 전환이 수요측에서 빨라져도, 공급이 일정 부분 따라감

    • 가격 파워는 2025~26년 피크 후, 이후에는 제품 믹스·장기공급계약 구조가 수익성의 핵심

두 시나리오 모두 공통 메시지는 같다.

ICMSP/외부 컨텍스트 메모리 구조가 만들어낸 “동서 트래픽 폭증”과 “저지연·저지터 요구”는,
광트랜시버·OCS·CPO·InP 웨이퍼 전 밸류체인의 CAPEX와 기술 전환 속도를 2030년까지 꾸준히 끌어올리는 방향으로 작용한다.

 


8. 최종 정리


정리하면,

  • 차세대 DPU(BlueField-4급)는 “네트워크·스토리지·보안을 전담하는 인프라용 프로세서(DPU)”, ICMSP에서는 “컨텍스트 메모리 매니저” 역할을 한다. (NVIDIA Blog Korea)

  • SSD는 더 이상 단순 저장장치가 아니라, LLM/에이전트 컨텍스트를 담는 외부 메모리 계층이 된다.

  • 스토리지 플랫폼은 이 계층을 **클러스터 전체의 ‘공유 컨텍스트 풀’**로 운영하여, HBM에 묶여 있던 KV 캐시/에이전트 컨텍스트를 SSD로 빼고, 필요 시 Prefetch로 다시 HBM에 올려 GPU 유휴를 줄이는 역할을 한다.

  • 이 구조로 인해 병목은 GPU 연산에서 컨텍스트 데이터 이동·재사용 으로 옮겨가고, CAPEX는 GPU 단독에서
    광모듈/실리콘 포토닉스 → CPO 패키징 → 스위치 ASIC → DPU/NIC → NVMe SSD → 스토리지 SW
    전 구간으로 분산된다.

  • 2030년까지의 광인터커넥트 전망(광트랜시버·OCS·CPO·InP)을 겹쳐 보면, ICMSP/외부 컨텍스트 메모리 방향은 단순한 기술 옵션이 아니라,
    광·네트워크·스토리지 전 밸류체인의 CAPEX 재배치를 강제하는 거대한 수요 축이라고 정리할 수 있다.