2025년 9월 30일 화요일

생각정리 91 (* 병림픽2)

AI 전력수요와 전력원 논쟁: LCOE, Firming Cost, 계통안정성, 그리고 원전의 경제성


산업 공부를 하던 중 텔레그램에서 도는 기사를 접했다. 처음에는 얼토당토않은 가짜뉴스로 보였으나 확인해 보니 실제 보도였다.

https://www.youtube.com/shorts/nHAxhvkcerI


https://www.youtube.com/shorts/nHAxhvkcerI


한 유튜브 채널에서 김성환 기후에너지부 장관태양광·육상풍력의 발전 비중을 높여 전체 전력가격을 내리겠다고 발언했고, 관련 기사도 등장했으며 기업들을 대상으로 강연도 하고 있다고 한다.


[속보] "산업용 전기요금 추가 인상 자제하겠다" 기후에너지부 첫날 아침 장관이 남긴 말


장관의 논지는 태양광과 풍력이 가장 싼 전력원이라는 **통계(LCOE)**에 기반하여 재생에너지 비율을 높이면 전력가격이 낮아진다는 것이다.

그러나 이 주장은 출발점부터 전제가 틀렸다.LCOE는 이미 유효한 비교 지표가 아니다.

계통 안정화와 네트워크 증설 같은 시스템 비용을 내재화하지 못한다는 한계가 명확해 업계 실무에서는 사실상 퇴출된 지표이며, 현행 비교는 시스템 한계비용·효율 비용·Firming 및 네트워크 비용을 포함한 총비용 기준으로 이루어져야 한다.

LCOE는 왜 단독 지표로 충분하지 않은가


**LCOE(Levelized Cost of Electricity)**는 **발전소 내부(plant gate)**의 설비·연료·운전비를 평균화한 “발전원가” 지표일 뿐이다. 재생에너지 도입 시 필수로 따라붙는 계통 측 비용—간헐성 대응, 주파수·전압 안정화, 예비력, 저장, 송전망 증설—은 본래 LCOE 바깥에 있다. 이 때문에 LCOE만을 근거로 “가장 싼 전력원”을 단정하면, 시스템 관점에서 비용을 누락한 비교가 된다.

특히 간헐성을 가진 태양광·풍력은 백업전원(가스터빈 등)이나 ESS와 같은 보조 설비가 필요하고, 그 결과 추가비용이 발생한다. 이러한 비용을 업계에서는 Firming Cost로 부르며, 재생에너지 비중이 높아질수록 증가하는 경향이 있다. 실제로 **재생 비중이 높은 지역(예: 캘리포니아)**에서는 다른 지역보다 전력원가가 1.5~2배 높다는 해석이 존재하며, 트럼프 전 대통령의 재생에너지 비판 역시 핵심 논거가 Firming Cost에 있다. 결론적으로 LCOE는 유용하지만, 그것만으로는 전력 시스템의 총비용을 설명할 수 없다는 점이 핵심이다.



AI는 왜 기저발전원을 요구하는가 


1) 반도체공장, 데이터센터가 원하는 전기


AI가 돌아가는 데이터센터나 반도체공장에 공급되는 전기는 24시간 끊기지 않고 일정한 전기를 원한다. 전기가 살짝만 흔들려도 서버가 멈추거나 성능이 떨어질 수 있기 때문이다.

이 요구에 잘 맞는 것이 기저발전원이다. 보통 터빈이 돌아가는 교류(AC) 발전화력이나 원자력—이 여기에 해당한다.

2) 왜 “터빈”이 중요할까? — “회전관성” 한 줄 요약

  • 터빈은 무거운 로터가 계속 회전한다.

  • 이 회전에는 관성이 있어, 전기 수요가 갑자기 늘거나 줄어도 즉시 흔들리지 않고 버텨주는 완충재 역할을 한다.

  • 전력계통은 여러 발전기가 하나의 주파수로 묶여 있다보니, 주파수가 급히 내려가면 도미노처럼 발전기가 멈추고 대정전이 날 수 있다.

  • 회전관성이 크면 이런 급변을 완화해 준다. 그래서 터빈 기반 발전이 기본 안전망이 된다.


3) 왜 “교류(AC)”가 중요할까? — **무효전력(Q, Var)**의 역할


전기에는 두 종류가 있다.

  • 유효전력(P, W): 실제로 일을 하는 전기(서버 구동, 조명 켜기 등).

  • 무효전력(Q, Var): 전압을 받쳐주는 전기. 눈에 보이는 일을 하지는 않지만, 전압 유지·계통 안정성·역률·모터 효율에 꼭 필요하다.


**교류 발전기(동기기)**는 유효·무효전력을 모두 자연스럽게 공급한다. 그래서 전압이 출렁이는 것을 잡는 능력이 뛰어나다. 이 점이 데이터센터 같은 전력 품질 민감 수요에 중요하다.

4) 재생에너지와 “추가 장치”가 필요한 이유

  • 태양광·풍력직류(DC) 혹은 전력변환기를 거쳐서 계통에 연결된다. 즉, 인버터 의존형 전원이다.

  • 오늘날 인버터도 많이 발전해서 무효전력 공급이나 합성관성(가상 관성) 같은 기능을 할 수 있다. 그러나 고장 전류를 크게 못 흘린다, 과도상태(순간 충격)에서 응답이 제한되는 등 **동기기(터빈)**와는 물리적 특성이 다르다.

  • 그래서 전압·주파수 안정을 위해

    • 그리드포밍 인버터 업그레이드,

    • 동기콘덴서(터빈의 관성만 쓰는 장치),

    • 배터리(ESS)·양수 등 저장장치,

    • 예비력·주파수제어 서비스,

    • 송전망 보강
      같은 추가 설비가 필요해진다.

  • 이 비용은 발전소 내부 원가인 LCOE 바깥에 있는 계통 통합 비용이다. 재생 비중이 커질수록 이 비용도 커지는 경향이 있다.

5) 핵심만 기억하기

  • **데이터센터는 “항상 일정하고 질 좋은 전기”**를 원한다.

  • 이를 기본적으로 뒷받침해 주는 것이 **터빈 기반의 교류 발전(기저발전원)**이다. 회전관성무효전력을 자연스럽게 제공하기 때문이다.

  • 재생에너지는 중요하지만, 안정성·품질을 맞추려면 추가 장치와 저장, 예비력, 송전 보강이 필요하고, 이는 LCOE에 안 들어가는 비용이다.

  • 따라서 정책·요금 판단LCOE + 계통 통합 비용을 함께 보고, 동일한 신뢰도 기준에서 비교해야 한다.


Firming Cost와 System Integration Cost의 범위


즉, 그리드 안정성 유지를 위한 인버터(특히 그리드포밍), 동기콘덴서, 단·장주기 ESS, 예비력·주파수제어, 송전·변전설비 증설·보강 등은 원칙적으로 “LCOE 바깥”의 비용, 즉 **계통 통합 비용(System integration cost)**에 속한다. 다만 Firming Cost라는 용어의 정의 폭에 따라 포함 항목이 달라질 수 있다.

  • LCOE(원가): 발전소 경계 내부의 설비·운전 원가.

  • Firming Cost(협의): 변동성 자원(VRE) 출력을 **요구 시간대에 “확정 가능한 전력”**으로 만들기 위한 비용. 주로 단주기 균형·주파수제어(FCAS), 스핀/비스핀 예비력, 저장(배터리·양수·수소 등) 및 보조 가스/내연 백업, 예측·운영비를 포함한다.

  • System Integration Cost(광의): 위 Firming에 더해 전압·무효전력(Var) 지원(그리드포밍 인버터, 동기콘덴서, STATCOM), 송배전망 증설·보강·보호·계전, 혼잡·커테일먼트 비용까지 포함한 총 계통 측 비용이다.


재생에너지의 시스템 비용을 올바로 반영하려면, 인버터 안정성 기능 강화·ESS·예비력 확보를 **협의의 Firming 비용(=계통 통합 비용)**으로 계상하는 것이 타당하다. 송전·전력망 투자는 통상 네트워크 비용으로 별도 분류되지만, 총비용 관점에서는 이를 포함한 광의의 Firming으로 묶어 제시할 수 있다. 이러한 모든 비용을 합산하면, 재생에너지의 실질 단가는 화력발전 대비 복수 배 수준으로 상승한다는 결론에 이른다.

(그냥 상식이다.)

원전의 비용 구조와 거시경제적 효과


재생에너지와 원전의 공통점
연료비 비중이 낮고 초기 투자(감가상각) 비중이 높다는 점이다. 그러나 자금의 국내 순환이라는 측면에서 차이가 존재한다. 재생에너지 부품·소재 공급망이 중국 의존도가 높다면 해외로 자금이 유출되는 반면, 원전은 대규모 국내 인프라 프로젝트로서 국내 기업·인력·협력망을 폭넓게 활용하여 자금이 국내에서 순환할 여지가 크다.

또한 원전 건설은 대규모 인프라 투자이므로 필연적으로 다수의 인력과 협력업체 참여를 동반한다. 따라서 신규 고용 창출 효과가 크며, 과거 경제위기 극복 과정에서 뉴딜식 인프라 투자가 거시경제에 기여했던 전례를 고려할 필요가 있다. 이러한 맥락에서 **제조업 부흥·블루칼라 고용 확대를 중시하는 정책(예: 트럼프의 산업정책)**과 원전 확대정책 방향성이 부합한다고 평가할 수 있다. 건설비가 크다는 점을 감안하더라도, 해외 유출과 국내 순환의 차이는 국가경제 관점에서 의미가 크다는 주장이다.



맺음말(정리)


첫째, LCOE만으로 재생에너지 확대가 전력요금을 인하한다는 주장을 입증하기는 불충분
하다. LCOE는 발전소 경계 내부의 평균 원가 지표일 뿐이며, 간헐성 대응·예비력·저장·전압‧주파수 안정화·송배전 보강 등 **계통 통합 비용(Firming/Integration)**을 포함하지 않는다.

AI 시대의 전력 품질과 신뢰도 요구(24/7, 전력품질·고장내성)를 고려하면, **동일 신뢰도 기준의 시스템 단가(LCOE + Integration Cost)**로 평가해야 한다.

둘째, 정책 비교의 기준은 “가격·매출(REC·SMP)”과 “원가(LCOE·통합비용)”의 구분이다. 가격·인센티브 지표로 원가 우열을 단정하지 말고, 침투율·저장지속시간·계통 제약을 변수로 한 민감도 분석을 병행해야 한다.

셋째, 원전의 높은 초기투자비는 비용이자 국내 경제에 대한 투자이다. 국내 가치사슬·고용 창출·기술 축적이라는 거시적 편익과 함께 판단할 필요가 있다. 이는 **정책 목표(산업경쟁력, 고용, 에너지안보)**와의 정합성 속에서 종합적으로 평가되어야 한다.

결론: 전원 믹스 정책은 LCOE 단일 지표가 아니라 시스템 총비용과 신뢰도를 기준으로 설계되어야 하며, **정책 효과(요금·안정성·산업적 파급)**를 계량적으로 검증하는 것이 우선이다.


친환경에너지는 피크전력을 키우지 못하는 '기생적' 전원이라 비용부담만 늘어날 뿐이다.


그냥 하나부터 열까지 다 어이가 없음..

생각정리 90 (* 해외투자 점검4, 반도체)

최근 Agentic AI 확산으로 테크·반도체 수요가 회복되고 있다. 앞선 글에서 메모리 사이클이 과거와 수요 측면에서 구조적으로 다를 수 있음을 지적했으며, 이번 글에서는 그 연장선에서 보다 구체적 상상을 기록해본다. 

결론적으로 무어의 법칙이 더 이상 유효하지 않은 환경에서 패키징 중심의 성능·집적도 향상과 에너지 소모 급증이 동시에 진행되고 있으며, 이는 메모리·장비·전력 인프라 전반의 수요 곡선을 재정의한다.


1. 무어의 법칙 이후: 패키징과 GPU가 여는 새로운 사이클


엔비디아의 젠슨 황과 변화를 예민하게 감지한 TSMC의 칩 엔지니어들은 CPU 중심 무어의 법칙의 한계를 일찍 인지했고, 그 결과 엔비디아는 GPU 아키텍처 고도화, TSMC는 첨단 패키징에 전력을 기울였다. 미세공정이 진전될수록 물리 법칙의 제약이 두드러지면서, 우리는 이전과는 다른 사이클의 초입에 서 있다.

관련된 내용으로는 ASML의 Investor Day에서 제시된 관점이 시사하는 바가 크다. 

첫째, 과거처럼 “칩당” 트랜지스터 집적도가 2년마다 2배 늘어나는 무어의 법칙이 아니라, “패키지당” 트랜지스터 집적도가 2년마다 2배 증가하는 새로운 패러다임(일종의 매슬로우 법칙 개념)이 미래의 지형을 설명한다는 주장이다. 



둘째, 무어의 세계에서는 2년마다 에너지 소모가 약 60% 감소했지만 이제는 반대로 AI 필요 에너지가 2년마다 5배 증가할 것이라는 전망이 제시된다. 더 나아가 AI 시대 전체 필요 에너지가 2년마다 16배 증가한다는 가정도 있다. 

이는 과거 대비 약 8배 빠른 속도의 에너지 수요 증가이며, 칩당 에너지 절감은커녕 칩당 필요 에너지가 기하급수적으로 늘어난다는 뜻이다. 필연적으로 비용과 전력 소비 문제가 전면으로 부상한다.



2. 과거의 경험칙을 넘어: AI 시대 반도체 가격 패러다임 전환

이 변화는 반도체 가격 형성의 ‘오래된 공식’을 무력화한다. 공정 미세화가 지속되면 자연스럽게 Bit growth가 증가하고 칩당 가격이 하락하던 과거의 경험칙이 더 이상 성립하지 않는다. 무어의 법칙이 한계에 봉착한 현재, 자연스러운 Bit growth·칩당 가격 하락·에너지 감소의 연쇄 공식이 붕괴하였다.

반면 AI 고도화에 따라 필요한 메모리 칩의 절대량은 기하급수적으로 증가한다. 결과적으로 과거와 달리 칩 가격의 구조적 상방 압력이 커질 가능성이 높다.





3. 선단공정의 역설: 효율 종결, 캐파·테스트의 확장


투자 관점에서의 함의는 분명하다. **종합반도체회사(IDM)**는 AI 시대의 잠재 이익을 크게 흡수할 위치에 있으며, 무엇보다 반도체 장비업체는 과거보다 훨씬 많은 수요를 충족해야 한다. 특히 과거 선단공정·미세화에 따른 자연스러운 Bit growth 증가분이 더 이상 자동으로 확보되지 않는 환경에서, 앞으로는 Bit growth 1단위당 필요한 장비 투입(장비 집약도)이 구조적으로 상승한다.

4. 투자 전략, P/F 변화


우리의 투자 전략도 위의 함의만큼이나 명확하다. 시장이 아직 감지하지 못한 이전과 다른 구조적 변화선제적으로 포착하고, 그 변화에 과감히 베팅한다. 이러한 원칙에 따라 우리 회사의 해외 P/F는 AI 소프트웨어 비중을 낮추고, AI 하드웨어—특히 메모리와 반도체 장비—비중을 확대하는 방향으로 재구성하였다.

해외투자 점검 3 (*이전)

선단공정 전환이 자동으로 에너지 절감으로 연결되던 시대는 끝났다. 오히려 필요 에너지 증가율이 기하급수적으로 상승하는 국면에 진입했으며, 이는 에너지, 인프라 산업 전반에 대한 capex 상향조정으로 이어진다. 

현재 시장에 유통되는 **전력 수요 예측치 다수는 Agentic AI의 본격화(예: 2025년 3분기 이후)**를 충분히 반영하지 못했다. 우리는 상향 수정 여지가 크다고 판단한다. 전력망과 에너지 공급이 물리적 한계에 직면하면 전력 가격 상승으로 이어질 가능성이 높고, 이는 SMR과 대형 원전의 ROI를 빠르게 개선하여 인허가 프로세스 가속을 촉발할 수 있다.

아울러 컨설팅 보고서의 통계·전망은 과거 데이터의 단순 결합에 머무는 경우가 적지 않다. 이러한 접근은 지정학 변화, 기술 변곡, 사회 변화 방향과 같은 핵심 변수를 충분히 내재화하지 못하는 구조적 한계가 있다. 따라서 향후 예측과 자본 배분에서는 이러한 구조적 변수의 재정의를 전제로 해야 하며, 우리는 이를 P/F 운용 전 과정에 반영한다.

요약하면, 패키지 중심 집적도 가속에너지 수요 폭증이라는 이중 전환이 진행 중이며, 그 결과 메모리·장비·전력 인프라 전반에서 장기적 수요 체인 상향과 가격 구조의 재편이 나타날 가능성이 크다.

지금의 메모리 사이클은 과거의 단순 순환이 아니라, 물리·아키텍처·에너지라는 3중 축의 구조 변화가 반영된 새로운 사이클에 가깝다. 그리고 우리는 그 변화가 시장 컨센서스로 인정되기 이전, 곧 대세화되기 전 단계에서 선행해 베팅을 한다. 


Lam Research



요점: Agentic AI → NAND 중심 데이터 폭증 → 3D NAND 고층화(400L→1,000L 경로)·고집적 패키징 강화가 맞물리면, **Lam Research(램리서치)**는 본업인 식각·증착·세정AP(첨단 패키징) 전후공정에서 동시 수혜가 커진다.

Tokyo Electron




요점: Agentic AI로 인한 메모리·로직 수요 폭증은 2nm, 3nm·HBM·첨단 패키징 램프를 앞당겨 TEL의 선단 에칭·증착·3D 집적·코터/디벨로퍼 등 핵심 장비와 필드솔루션 매출을 구조적으로 확대한다.



Advantest



요점: Agentic AI → 메모리/HBM 수요 폭증 & HBM4/HBM4E, N2 본격화 → 칩렛·KDG 중시로 웨이퍼 소트·다이레벨 테스트 인서션 급증 + SLT·핸들러·DI 동반 확대 → **Advantest(어드반테스트)**의 SoC/메모리 테스터 수요가 구조적으로 가속된다.


KLA



요점: Agentic AI 확산으로 HBM4·N2 선단로직·첨단 패키징(AP) 투자가 동시에 커지면, 공정제어(Process Control) 강도가 더 올라가므로 KLA 장비 수요는 구조적으로 동행 상승(상회 가능)

Seagate Technology



요점: Agentic AI → LLM 에이전트·멀티모달 파이프라인이 학습/미세조정·추론 로그·체크포인트·시뮬레이션·생성 데이터를 대량 생산 → 핫(SSD)만으로는 비용/TB 한계 → 하이퍼스케일러가 **웜/콜드 티어 객체저장(nearline)**을 확장 → $/TB가 가장 낮은 고용량 HDD로 캐파 증설 집중

SeagateHAMR 30→40(→50)TB로 드라이브/랙당 캐파를 대폭 상향해 TCO 우위 제공 + 7대 CSP 중 4곳 클라우드용 HAMR 완전 인증으로 채택 가속 + 수급 개선·BTO·신세대 우대가격으로 가격/믹스/마진 동시 개선

→ 결론: Agentic AI 데이터의 영속 저장 수요가 고용량 nearline HDD로 흘러가며 Seagate 수요와 수익성이 구조적으로 상승

(이하동문)

Western digital



Sandisk



#글을 마치며


예전에 잠깐 함께 근무했던 분께서 최근 2주간의 반도체 산업의 급격한 변화에 제대로 대응하지 못해 운용자금 상당부분을 한 번에 잃었다는 소식을 다리건너 전해 들었다.

이전과는 다른 전환점 변곡의 순간엔 언제나 희비가 엇갈리지 않나 싶다. 

구조적 전환을 빨리 읽고, 포지션을 신속히 바꾸는 사람에게는 변곡의 순간이 곧 초과수익의 기회가 될 수 있으며, 그렇지 못한 사람에게는 위기가 될 수 있다. 

지난 공식에 묶이지 않고, 최신 데이터로 가설을 계속 업데이트하는 태도가 중요하지 않나 싶다. 

=끝

2025년 9월 28일 일요일

브루넬레스키

로마, 피렌체, 베니스의 미술관과 박물관, 문화유적지를 돌아보며 만난 여러 르네상스 천재들 중, 가장 깊은 인상을 남긴 인물은 브루넬레스키였다.

특히 여행 중 바라본 피렌체 대성당의 야경은 그의 업적을 더욱 또렷하게 떠올리게 했고, 관련된 여러 일화는 그중에서도 가장 흥미롭게 기억되었다.


피렌체 거리 야경

이번 글에서는 브루넬레스키의 일화와 그로부터 내가 느끼고 생각한 점들을 정리해보고자 한다.

#르네상스 시대


브루넬레스키의 등장을 이해하기 위해서는 먼저 르네상스라는 시대적 배경을 살펴볼 필요가 있다. 르네상스는 흔히 천년에 한 번 나올까 말까 한 천재들이 동시다발적으로 출현한 시대로 불린다고 한다. 

특히 피렌체에서는 수많은 천재들이 한꺼번에 등장했는데, 그 중심에는 천재를 사랑하고 적극적으로 후원한 메디치 가문이 있었다. 메디치 가문은 단순히 금전적 지원에 그치지 않고, 때로는 천재들을 양자로 받아들여 보호하며, 그들의 창작 활동과 연구가 지속될 수 있도록 적극적으로 뒷받침했다.


1. 피렌체가 르네상스의 중심지가 된 배경

  • 경제적 기반: 피렌체는 유럽 금융의 중심지였으며, 메디치 가문을 비롯한 은행가·상인 계층이 막대한 부를 축적했다. 이들은 교회, 공공건물, 예술 후원에 투자하며 문화적 황금기를 열었다.

  • 정치적 구조: 공화정적 성격이 강했던 피렌체는 시민 참여가 활발했고, 예술·과학 후원이 곧 도시의 명예와 직결되었다.

  • 지적 토양: 고대 그리스·로마의 고전을 재발견하고, **인문주의(Humanism)**가 학문·예술·정치 전반의 사상적 기초를 제공했다.


2. 한 시대에 몰려 나온 피렌체의 인재들

  • 건축: 필리포 브루넬레스키 (1377~1446) – 피렌체 대성당 돔을 설계해 르네상스 건축의 출발점을 열었다.

  • 조각: 도나텔로 (1386~1466) – 고전적 비례와 사실성을 부활시킨 조각가.

  • 회화: 산드로 보티첼리 (1445~1510) – 「비너스의 탄생」, 「프리마베라」 등 르네상스 미학을 대표하는 화가.

  • 예술·과학 융합: 레오나르도 다 빈치 (1452~1519) – 화가이자 발명가, 과학자로서 르네상스적 ‘호모 유니베르살리스’의 전형.

  • 조각·건축: 미켈란젤로 (1475~1564) – 「다비드상」과 시스티나 성당 천장화로 절정의 예술성을 구현.

  • 정치·사상: 니콜로 마키아벨리 (1469~1527) – 「군주론」을 통해 근대 정치사상의 기반을 마련.


3. 집중적 인재 배출의 의미

피렌체 르네상스는 단순히 개인 천재들의 집합이 아니라, 사회 구조적 조건과 후원 시스템이 결합해 만들어낸 역사적 현상이었다. 그럼에도 불구하고, 이처럼 동시대에 다수의 천재가 한 도시에서 활동한 사례는 세계사적으로도 극히 드문 현상으로 평가된다.



브루넬레스키 (1377~1446년)

브루넬레스키는 르네상스 건축의 출발점이라 불리는 피렌체 대성당 돔을 설계한 인물이다. 그와 관련된 일화는 역사적으로 검증된 사실만큼이나 상징적인 전설도 많지만, 그 속에는 우리가 오늘날에도 배울 수 있는 교훈이 담겨 있다.

당시 피렌체는 유럽에서 가장 부유한 도시 중 하나였고, 메디치 가문을 비롯한 금융·상업 엘리트들은 도시의 위상을 상징할 세계 최대 규모의 성당을 원했다. 성당 설계자 아르놀포 디 캄비오(Arnolfo di Cambio)는 직경 45m가 넘는 돔을 계획했지만, 당시 기술로는 실제로 올리는 방법이 없었다.

그럼에도 불구하고 피렌체인들은 1296년에 성당을 짓기 시작했다. **“언젠가 천재가 나타나 이 문제를 해결할 것이다”**라는 믿음 때문이었다. 성당은 수 세기 동안 부분적으로 공사가 이어졌고, 중앙의 거대한 공간은 돔을 올리기 위해 비워둔 채 남아 있었다.

그렇게 수십 년이 흐른 뒤, 마침내 브루넬레스키라는 르네상스의 천재 건축가가 등장해 그 마지막 퍼즐을 완성했다.

뒤쪽 건물 햇볕이 비추는 피렌체 대성당 돔


피렌체 대성당



브루넬레스키의 준비

브루넬레스키는 원래 조각가였으나, 이후 수학·기계·건축에 정통한 인물로 성장했다. 1402년경 조각가 도나텔로와 함께 로마를 여행하며 고대 건축 유적 연구에 몰두했고, 특히 기원후 2세기 건설된 판테온 신전의 돔 구조를 집중적으로 관찰했다.

그는 매일 판테온 앞에서 로마인들이 어떻게 직경 43m의 거대한 돔을 세울 수 있었는지를 고민하며, 건축 비례, 석재 사용법, 콘크리트 기술 등을 메모와 스케치로 남겼다. 그 결과 귀환 후에는 성당 돔 문제를 해결할 수 있는 **완전히 새로운 공법(이중 돔, 벽돌의 물고기뼈 패턴, 무비계 축조법)**을 머릿속에 정립하게 된다.

엄청난 인파에 밀려 입장권이 Sold out 된 판테온 신전에 못들어간게 아쉽..


무비계 축조법 형상화(?)



공모전과 계란 일화

1418년, 피렌체 시는 대성당 돔 완성을 위한 공모전을 열었다. 브루넬레스키는 자신이 수년간 연구해온 설계를 실현할 기회로 보고 참가했다. 하지만 그는 다른 경쟁자들과 달리 설계 도면을 제출하지 않았다. 아이디어를 공개하면 누구든 모방할 수 있다고 믿었기 때문이다.

심사관들이 “도면이 없다면 당신의 설계를 어떻게 믿을 수 있느냐”고 묻자, 그는 대뜸 계란을 똑바로 세워보라고 제안했다고 한다. 아무도 세우지 못하자, 브루넬레스키는 계란 밑을 살짝 깨뜨려 안정적으로 세웠다고 한다. 사람들이 “그건 누구나 할 수 있다”고 하자, 그는 **“내 돔 설계도 마찬가지다. 내가 방법을 보여주면 누구나 흉내낼 수 있다”**고 답했다고 한다. 

이 일화는 사실 여부를 떠나, **“혁신은 보여주면 단순해 보이지만, 최초의 발상은 위대하다”**라는 교훈을 상징적으로 전해져 내려온다고 한다. 


최종 완성

이후 메디치 가문의 후원과 지지를 등에 업은 브루넬레스키는 피렌체 대성당의 마지막 퍼즐인 돔을 완성했다. 그의 혁신적 설계는 곧 로마 성 베드로 대성당 돔에도 이어져 르네상스 건축의 정점을 이루게 되었다.

성 베드로성당의 내부 돔

성 베드로성당 외관 돔



교훈


브루넬레스키는 수년간 매일 아침부터 밤까지 판테온 신전 앞에 앉아 고대 로마의 건축 기술을 집요하게 탐구했다. 그의 모습은 오늘날 매일 시장을 분석하는 투자자의 모습과도 닮아 있지 않나 싶다. 

투자의 세계에서도 독창성과 최초의 발상 능력은 그 무엇보다 중요하다. 그러나 그것은 하루아침에 만들어지지 않으며, 누군가가 대신 전해줄 수도 없다. 오직 홀로 사고하는 시간을 거듭하고, 사고력을 끊임없이 단련할 때에야 겨우 남들보다 반발자국 먼저 도달할 수 있을까 말까 한 능력이다.

오늘날 투자자 역시 끊임없이 변화하는 지정학적 환경 속에서, 과거 제국의 흥망성쇠, 당대의 문화·역사·경제·사회적 변화, 그리고 수많은 기업들의 탄생과 몰락을 분석하며 미래의 투자 전략과 포지션을 고민한다.

세상의 변화를 읽어내고 그에 맞는 전략을 세우는 과정은, 브루넬레스키가 고대 건축의 비밀을 끝없이 파고들며 새로운 혁신을 준비했던 태도와 크게 다르지 않다.

브루넬레스키가 남긴 교훈, **“혁신은 보여주면 단순해 보이지만, 최초의 발상은 위대하다”**는 말은 주식 투자와도 그대로 통한다.

과거의 뛰어난 투자 사례나 위대한 투자자들의 전략은 시간이 지나 돌아보면 단순해 보인다. 그러나 실제 그 순간에 동일한 결정을 내려 성공하는 것은 극도로 어렵다. 우리가 흔히 말하듯, 돌아보면 투자는 항상 쉬워 보인다. 하지만 직접 그 자리에 서서 실행하는 것은 결코 쉽지 않다.

결국 투자의 본질은 남들이 보지 못한 시점에 먼저 기회를 포착하는 독창성과 최초의 발상에 있다. 시간이 흐른 뒤에는 누구나 흉내 낼 수 있는 단순한 아이디어처럼 보일 수 있지만, 바로 그 순간 그것을 읽어내고 실행에 옮긴 통찰과 결단은 그 자체로 대단한 것이다.



오늘의 투자 환경과 시사점


최근 전 세계는 다시 확장 재정 정책에 본격적으로 나서고 있다. 미국을 중심으로 한 금리 인하 기조와 맞물려 글로벌 유동성이 풀리면서, 시장은 이미 2022년 전고점을 넘어서는 새로운 자산 인플레이션 국면에 진입하고 있다.

이 과정에서 포모(FOMO)를 느낀 수많은 2030 청년 세대가 소액으로도 접근할 수 있는 주식 투자나 암호화폐 투기에 무작정 뛰어드는 현상이 나타나고 있다고 한다. 


https://www.youtube.com/watch?v=74koqD12jG0

운용업에 종사하는 사람으로서 다소 이해상충의 소지가 있지만, 사견으로는 밥 먹고 하는 일이 주식 투자이고, 하루 대부분을 투자 분석에 몰두하는 '제대로된' 전문 운용사에 자산을 맡기는 것이, 아무런 맥락이나 학습 없이 단순히 불안과 욕망에 이끌려 투기에 나서는 것보다는 훨씬 더 현명하지 않을까 싶다

=끝

2025년 9월 25일 목요일

생각정리 89 (* 병림픽)

지난 12월 셀프 쿠데타 이후 들어선 현 민주당 정권에 대해, 이탈리아 현지에서 20년 이상 지내온 가이드분들과 이야기를 나눈 적이 있었다. 그분들은 전 정권보다는 지금 정권이 낫지 않겠느냐며, 민생경제를 챙기는 이재명 대통령에 대해 비교적 긍정적인 시각을 보였다.

여행 중이라 정치적 입장을 직접적으로 드러내긴 조심스러웠지만, 나 스스로를 돌아보면 정치·경제적 사고는 보수에 가까운 편이다. 반면 사회 전반에 대한 가치관은 진보에 더 가깝다고 느낀다. 그러나 굳이 우선순위를 따진다면 사회 전반보다는 먹고사는 민생경제에 더 직접적인 정치·경제적 면모가 더 중요하다고 생각한다. 그래서 전체적으로는 ‘진보적 성향을 띠는 우파’에 가깝다고 할 수 있을 것이다.

아마도 그렇기 때문에 나는 현 정권의 한계에 대해 계속해서 비판적인 시각을 갖게 되는 것 같다.

현 정권의 한계 


리처드 도킨스의 『이기적인 유전자』에 따르면, 생태계에는 일정한 균형이 존재한다고 한다. 이기적인 유전자를 가진 집단은 약 60%, 이타적인 유전자를 가진 집단은 약 40% 수준으로 유지되는데, 어느 한쪽이 지나치게 커지면 다시 반대 집단이 힘을 얻어 균형을 되찾는 순환이 일어난다고 한다.


  • Selfish gene group (blue line): 평균 약 60%에서 진동

  • Altruistic gene group (orange dashed line): 평균 약 40%에서 반대 위상으로 진동

  • Gray dotted lines: 각각의 균형선 (60%, 40%)


즉, 두 집단이 일정한 비율을 중심으로 주기적 균형을 이루며 변동하는 모습을 단순화해 나타낸 것이다.


이 논리를 인간 사회에 비유해 보면, **이기적인 유전자를 지닌 집단은 ‘우파’, 이타적인 유전자를 지닌 집단은 ‘좌파’**라 할 수 있다. 

코로나19 이후 전 세계가 무리한 확장 재정정책을 펼치면서 잠시 좌파적 집단이 우세했던 시기가 있었지만, 이는 경제 논리를 무시한 포퓰리즘 정치에 불과했다. 특히 에너지 정책에서 좌파정부의 무능과 그 한계가 여실히 드러났다.

기후위기가 실재하는 문제라는 점은 분명하다. 그러나 RE100, 넷제로 같은 이상주의적 해법만으로 위기를 극복할 수 있다는 믿음은 현실과 동떨어진 환상이다. 유럽의 사례는 이를 분명히 보여주었다.

우리의 유한한 세계

이와 달리, 트럼프가 미국 대통령으로 복귀한 이후 우파적 집단은 빠르게 주도권을 되찾고 있다. 중국 공산당 또한 생존과 번영을 최우선으로 하는 전형적인 우파적 집단이다. 그들은 유럽의 좌파가 내세우는 RE100 담론의 허구를 간파하고, 이를 오히려 자신들의 이익을 확대하는 수단으로 활용한다. 

https://www.reuters.com/world/us/trump-address-un-he-distances-us-global-cooperation-2025-09-23/


실제로 중국과 미국은 화석연료와 원자력을 확대해 이미 저렴하고 안정적인 에너지 기반을 구축하고 있으며, 반대로 좌파가 주도하는 신재생에너지 집단은 비용과 비효율성 때문에 생존 자체가 위협받는 상황에 처해 있다.

화가나는 포인트는 내가 속한 공동체가 바로 이 RE100을 맹목적으로 외치는 멍청한 좌파 정부 집단에 휘둘리고 있다는 사실이다.

내가 속한 공동체가 패배할 것으로 예견되는 결과가 뻔한 경쟁을 하고 있는 것이다. 

UN 총회에서 트럼프가 RE100 에너지 정책의 허구를 날카롭게 지적했음에도 불구하고, 현 정부는 여전히 RE100을 반복하며 몰지각한 태도를 고집한다.

더 나아가 오늘 발표에서는 추석 전력난을 막겠다며 원전을 줄이고 태양광 발전을 늘리겠다고 했다. 이는 상식적으로도 납득할 수 없는 결정이며, 이런 비현실적이고 위험한 선택이 우리의 삶을 위협하고 있다는 사실이 답답할 따름이다.


https://www.electimes.com/news/articleView.html?idxno=359883


전력시스템 설계 논리에서 보면 값싼 기저발전(원전)을 유지하고, 변동성·유연성이 있는 재생에너지부터 줄이는 편이 경제적으로 합리적이다. 그런데 한국의 이번 사례는 그 상식적 접근과는 반대로 움직이고 있는데, 그 배경에는 몇 가지 구조적 제약이 있다.


1. 경제적·기술적 논리

  • 원전(기저발전): 발전단가가 낮고, 한 번 돌리면 안정적으로 대량 전력을 공급한다. 하지만 출력조정이 매우 비효율적이고, 잦은 가동·정지는 설비 안정성에도 부담을 준다.

  • 재생에너지(태양광·풍력): 원칙적으로는 간헐적이므로 **출력제어(커트일먼트)**가 가능해야 한다. 실제로 독일·일본·미국 캘리포니아 등에서는 태양광을 우선적으로 줄인다.

  • 따라서 “기저발전은 그대로 두고 재생을 제어한다”는 게 경제학적·공학적 상식이다.


2. 한국에서 재생에너지 제어가 안 되는 이유

  1. 제도적 미비:

    • 한국은 아직 재생에너지 출력제어 의무 제도가 초보 단계라, 전력거래소가 발전사업자에게 임의로 ‘멈춰라’라고 명령하기 어렵다.

    • 보상체계(발전손실에 대한 보상)도 충분히 정착되지 않아, 분쟁 소지가 크다.

  2. 송배전 인프라 부족:

    • 재생에너지가 특정 지역(전남, 제주 등)에 집중돼 있는데, 계통 수용 한계가 명확하다.

    • 계통투자가 늦어지면서 “태양광을 줄이고 싶어도 줄이기 어려운” 상황이 반복된다.

  3. 정치·정책적 고려:

    • 재생에너지 확대는 정부 정책 기조다. 태양광·풍력 출력제어를 본격화하면 “재생 확대 무용론”이 불거지므로, 당국은 이를 최대한 피하려 한다.

    • 반대로 원전은 출력조정 여력이 상대적으로 있고(기술적 한계 내에서), 한수원은 공기업이므로 정책 신호에 더 민감하게 반응한다.


3. 해외 사례와 비교

  • 독일: 전력망 혼잡 시 태양광·풍력을 강제로 출력제한하며, 발전사업자는 보상받는다.

  • 일본: 규슈 지역은 태양광 과잉으로 매년 수십 차례 강제 출력제어가 이뤄진다.

  • 미국 캘리포니아: “Duck Curve” 현상 때문에 오후 태양광 발전을 의도적으로 컷오프한다.
    → 공통적으로 재생 먼저 줄이고, 기저발전은 그대로 두는 구조다.


4. 종합 평가

  • 상식적·경제적 관점: 원전을 유지하고 재생에너지를 줄이는 게 맞다.

  • 현실적·제도적 관점: 한국은 재생 출력제어 제도와 인프라가 부족해 원전이 희생되고 있다.

  • 따라서 이번 조치는 합리적 최적해가 아니라, 제도적 미비와 정책적 신호가 낳은 차선책이라고 볼 수 있다.



즉, 지금 한국에서 벌어지는 우스꽝스러운 상황은 “기술·경제의 논리”와 “정책·제도 현실”이 충돌한 결과이다.



생각정리 88 (* Agentic AI 메모리 수요)

이번 글의 핵심은 **기존 ChatGPT(범용 LLM)**와 Agentic AI의 구조적 차이를 짚어 메모리 수요 확대의 원인을 규명하고, 그 결과 HBM·DRAM·NAND 수요가 어느 정도까지 증가할지정량 추정하는 것이다.


1. Agentic AI vs 범용LLM




1-1. 기존 스토리: ChatGPT와 LLM 확산 

  • 배경: ChatGPT 같은 Generative AI가 확산되면서, 데이터센터가 처리해야 하는 연산량이 기하급수적으로 증가.

  • CapEx 확대: 아마존, MS, 구글, 메타 같은 하이퍼스케일러가 AI 인프라 투자를 매년 수백억 달러 단위로 늘리고 있음.

  • 핵심 포인트:

    • 기존 LLM은 "입력 → 한 번의 추론 → 출력" 구조 (단일 패스).

    • 이 과정에서도 이미 대규모 GPU 연산과 HBM(고대역폭 메모리) 수요가 발생했음.

즉, ChatGPT 단계에서도 이미 GPU·HBM 중심의 메모리 수요 급증이 시작된 상태였다.


1-2. 새로운 전환점: Agentic AI의 등장 

  • 변곡점: 3Q25부터 본격 등장하는 Agentic AI는 단순 텍스트 생성이 아니라, 스스로 계획·행동·도구 사용을 반복하는 구조.


  • 예시: ChatGPT 5 Pro, Grok 4 Heavy, OpenAI Agent 등은 기존 모델보다 멀티 에이전트 기능, 도구 호출, 고성능 하드웨어 활용이 강화됨.

  • 차이:

    • ChatGPT(LLM)는 단일 질문→단일 답변.

    • Agentic AI는 목표 달성 위해 여러 번의 루프(Plan → Act → Observe → Reflect)를 거침.


이 차이가 곧 연산량의 폭증 → 메모리 수요의 비약적 확대로 이어진다.


1-3. 연산 구조의 복잡화 

  • 기존: LLM 추론은 단일 패스 → 한 번 모델 호출로 결과 생성.

  • Agentic AI:

    • 계획 단계에서 여러 모델 호출.

    • 외부 도구 사용(API, DB, 검색엔진).

    • 중간 산출물 저장 및 메모리 캐시 활용.

    • 관찰·검증 과정 반복.

→ 동일한 질문이라도 최종 답변을 만들기 전 수십~수백 배 토큰을 소비하게 됨.
→ 따라서 GPU 연산량뿐 아니라 중간 데이터 저장·호출을 위한 DRAM/HBM 수요가 폭증한다.


1-4. Scale up / out / across 

  • Scale up: GPU 칩 자체 성능 향상 → HBM 집적 필요.

  • Scale out: 더 많은 서버 증설 → 서버당 DRAM·HBM 탑재량 증가.

  • Scale across: 데이터센터 간 연결·분산 → 네트워크 지연 줄이려면 데이터 복제와 캐시 메모리 사용량 증가.


즉, 에이전트형 AI는 단일 데이터센터가 아니라 글로벌 분산 네트워크까지 메모리 요구가 확산된다.


1-5. Agentic RAG로 인한 데이터 축적 

  • 기존 RAG: 질문-문맥-최종답변 → 검색 보조 역할만 수행, 데이터 저장은 제한적.

  • Agentic RAG:

    • 계획·행동·관찰 루프 과정의 모든 중간 로그·메모리·도구 호출 기록을 보관.

    • 즉, HOT/WARM/COLD 저장소 전 구간에서 메모리 사용량 증가.

    • 단순 캐시 수준이 아니라 장기 저장·분석용 데이터까지 축적됨.

이로 인해 GPU용 HBM뿐 아니라 범용 DRAM, SSD, CXL 기반 메모리 풀링까지 전방위 수요가 확대된다.


1-6. 정리: 왜 메모리 수요가 더 커졌는가?

  1. 단일 패스에서 멀티 루프 구조로 전환 → 같은 질문도 수십~수백 배 토큰 연산 필요.

  2. 도구 사용·검색·RAG 강화 → 외부 데이터 접근 및 캐시 메모리 사용 증가.

  3. 분산 데이터센터 연결(Scale across) → 글로벌 레벨에서 데이터 복제·저장 확대.

  4. Agentic RAG → 단순 최종답변 외에, 중간 계획·행동·검증 로그까지 보관 필요.

→ 따라서 기존 ChatGPT 단계의 메모리 수요가 "GPU 연산 지원용"이었다면, Agentic AI 단계에서는 연산+데이터 저장+분산 네트워크 전반에 걸쳐 메모리 수요가 폭발적으로 증가하게 된다.



2. 구체적인 사용 예시: 


2-1. “여행 일정 계획하기”


기존 ChatGPT (범용 LLM)

  • 질문: “파리에서 3일 여행 일정 짜줘.”

  • 과정:

    1. 사용자가 입력한 프롬프트를 모델이 단 한 번 추론.

    2. 기존 학습된 지식(2023년까지 학습 데이터) 기반으로 텍스트 생성.

  • 출력:

    • “1일차: 에펠탑, 루브르, 2일차: 오르세, 베르사유, 3일차: 몽마르트 …”

    • 단순히 텍스트 기반 일정 제안, 최신성 부족, 현지 상황 반영 불가.

사용자 체감: 결과물은 아이디어 수준, 직접 검색·예약을 별도로 해야 함.


Agentic AI

  • 질문: “파리에서 3일 여행 일정 짜줘.”

  • 과정:

    1. 계획 단계: 일정 구조 설계 (아침·점심·저녁, 교통 동선 고려).

    2. 검색/도구 호출:

      • 구글/트립어드바이저 API에서 최신 명소 리뷰·운영 시간 확인.

      • 항공·기차 API로 교통편 조회.

      • 식당 예약 플랫폼 API 호출.

    3. 관찰/검증: 결과가 겹치거나 시간이 맞지 않으면 재계산.

    4. 최적화 루프: 비용, 거리, 이용자 취향(예: 미술/음식 선호)까지 반영.

    5. 출력:

      • “Day1: 루브르 9시 티켓 예약완료, 근처 레스토랑 점심 예약, 오후 에펠탑 전망대 (현재 공사 중이라 저녁 7시까지만 운영).

      • Day2: 오르세 미술관 (예약됨), 저녁은 미슐랭 1스타 레스토랑 예약됨 …”

사용자 체감:

  • 단순한 ‘추천’이 아니라 실제 실행 가능한 일정표 + 예약 완료 상태.

  • 사용자는 바로 여행 확정이 가능.


2-2. 산출량 비교 (사용자 입장)

구분 기존 ChatGPT Agentic AI

출력 수준 

단순 추천 (텍스트)

실행 가능한 계획 (검색+예약+최적화 반영)
최신성 학습 데이터 시점에 제한 실시간 API 호출로 최신 정보 반영
정확성 오류·운영시간 불일치 가능           검증 루프 통해 오류 최소화
사용자 효용           “아이디어 초안”  “실제 결과물 (준비 완료)”
체감 차이  편의성 제한적 시간 절감 + 즉시 실행 가능 → 월등히 유용


2-3. 메모리 사용량 비교 (단계별)

기존 ChatGPT (단일 패스 추론)

  1. 프롬프트 입력 처리 → 모델 내부 임시 메모리 사용 (DRAM/HBM 소규모).

  2. LLM 추론 → 한 번의 forward pass, GPU HBM 사용.

  3. 출력 생성 → 토큰 단위 출력, 캐시 메모리 소규모 사용.

메모리 수요:

  • 주로 HBM (수십 GB)

  • DRAM은 보조적 캐시 정도


Agentic AI (다중 루프 추론)

  1. 계획 단계 (모델 호출)

    • 여러 후보 일정 생성 → 임시 캐시 필요.

    • 메모리 사용: HBM + DRAM (기존 대비 3~5배).

  2. 도구/검색 호출

    • API 결과(리뷰, 운영시간, 교통편) 저장.

    • 메모리 사용: DRAM (수 GB~수십 GB, 기존 대비 5~10배).

  3. 관찰/검증

    • 이전 출력과 현재 검색결과 비교.

    • 캐시 메모리와 GPU 메모리 병행 사용.

    • 메모리 사용: 기존 대비 2~3배.

  4. 최적화 루프 (반복)

    • 여러 번의 추론과 API 호출 반복.

    • 중간 산출물 저장 필요 (장기 메모리·로그).

    • 메모리 사용: 기존 대비 10배 이상 증가.

  5. 최종 출력

    • 모든 과정을 통합한 일정표 생성.

    • 최종 결과만 남기지만, 과정 데이터는 저장/분석을 위해 보관.

    • 장기 메모리 수요: 기존 대비 5배 이상.


2-4. 종합 비교

항목 기존 ChatGPT Agentic AI

연산 구조

단일 패스 추론 (1회)

다중 루프 추론 (n회) + 도구 호출
메모리 사용 패턴          모델 가중치 + 소규모 캐시     모델 가중치 + 반복 캐시 + 외부 데이터 저장
메모리 수요 배율 기준 (1x) 10~20배 이상 (작업 복잡도에 따라 증가)
사용자 가치 텍스트 추천 실행 가능한 결과물 (검색·예약·최적화 반영)


2-5. 결론

  • 기존 ChatGPT: “똑똑한 검색/요약기” → 메모리 사용은 GPU 위주, 단일 추론 중심.

  • Agentic AI: “작업을 대신 수행하는 실행 엔진” → 계획·검색·검증·반복 과정에서 중간 데이터 저장·호출이 폭증하여 메모리 수요가 기하급수적으로 증가.

  • 사용자 입장에서는 “아이디어 제공” 수준에서 “완결된 결과물 제공”으로 유용성이 질적으로 도약하고, 메모리 반도체 입장에서는 시장 수요가 구조적으로 커지는 전환점이 된다.



3. 메모리 제품별 구분

이제 Agentic AI의 메모리 수요 증가를 **메모리 반도체 종류별(HBM / DRAM / NAND)**로 구분해서 정리해보자. 


3-1. HBM (High Bandwidth Memory)

  • 주요 역할: GPU 연산에 필요한 초고속 데이터 공급.

  • 기존 ChatGPT:

    • LLM 모델 파라미터 로딩 및 추론 과정에서 주로 사용.

    • 1회 추론이므로 일정 용량(수십 GB) 선에서 충분.

  • Agentic AI:

    • 동일 질의에도 **반복적 모델 호출(Plan→Act→Observe 루프)**이 발생.

    • 각 단계에서 대규모 파라미터와 토큰 처리를 GPU가 계속 수행해야 함.

    • GPU 패키지에 탑재된 HBM 사용량이 기존 대비 10배 이상 증가.

    • 예: GPT 단일 응답 시 수십 GB였던 메모리 대역폭이 Agentic AI에서는 수백 GB 이상 필요.

HBM은 Agentic AI 시대의 절대 핵심. GPU 당 HBM 적층(8hi → 12hi → 16hi) 경쟁이 본격화.


3-2. DRAM (DDR5 / GDDR6 등 일반 서버 메모리)

  • 주요 역할: GPU 외부에서 데이터 캐싱, 중간 연산 저장, API 호출 결과 보관.

  • 기존 ChatGPT:

    • 프롬프트 입력, 출력 토큰 저장, 소규모 캐시 수준.

    • 서버 단위 DRAM 수요는 제한적.

  • Agentic AI:

    • 검색·도구 호출로 들어온 **외부 데이터(리뷰, 문서, API 응답)**를 임시 저장.

    • 여러 번의 루프 과정에서 **중간 산출물(계획안, 검증 결과, 로그)**을 메모리에 적재.

    • 즉, “GPU가 계산”하는 동안 “DRAM이 기억”해야 하는 데이터가 폭발적으로 증가.

    • 기존 대비 5~8배 이상 DRAM 수요 증가 예상.

DRAM은 Agentic AI의 보조 두뇌. HBM이 뇌세포라면 DRAM은 단기 기억 공간.


3-3. NAND (SSD / Storage)

  • 주요 역할: 장기 저장소.

  • 기존 ChatGPT:

    • 학습 데이터 저장소나 모델 파일 보관용으로 주로 활용.

    • 추론 단계에서는 NAND 활용 제한적.

  • Agentic AI:

    • Agentic RAG가 도입되면서 중간 로그·검색 결과·계획 단계 데이터를 영속적으로 저장.

    • 예: 사용자의 질문–답변 과정 전체를 아카이브 → 다음 질의 시 활용.

    • “데이터센터 간 분산(Scale across)” 시, 데이터 복제와 동기화에 NAND가 필수.

    • 기존 대비 2~3배 이상의 SSD 저장 수요 확대 예상.

NAND는 Agentic AI의 장기 기억. 작업 로그와 추론 과정을 보존해 AI의 “경험 데이터베이스”를 만든다.


3-4. 종합 비교




3-5. 결론

  • 기존 ChatGPT: HBM 위주 수요 증가 (GPU 성능 강화).

  • Agentic AI: HBM 수요는 기본적으로 폭발, 동시에 DRAM·NAND까지 수요가 전방위적으로 확대.

  • 이는 메모리 반도체 업계가 “HBM 단일 성장”에서 “HBM+DRAM+NAND 전방위 수요 확대” 국면으로 진입했음을 의미한다.



OPENAI는 여전히 CHATGPT를 포함하는 AI 시장에 확실한 선두주자이며, Agentic AI로 진화하는 AI 흐름에서도 앞서있다.



향후 공격적인 OPENAI의 투자가 얼만큼의 메모리 수요를 요구하는지를 추정해보고자 한다. 


4. OpenAI의 Agentic AI 향 메모리 수요 추정


4-1 ChatGPT 이용자 수: 2030년까지 추정

■ 사실관계(2025년 기준)

  • 주간활성이용자(Weekly Active Users) 7~8억명 수준으로 보도·집계가 일치한다. (Backlinko)

  • 월간 방문은 40~60억 회/월, 일평균 방문자 1.9억명대 추정. (DemandSage)

■ 추정 방법

  • 전세계 인터넷 사용자(2025년 약 54억명)의 채택이 **S-커브(로지스틱)**로 수렴한다고 보고, 2025~2030 채택 상한 25~40% 범위를 가정.

  • 성장 둔화(경쟁사 증가·기업내재화)를 반영해 3개 시나리오로 산출.

시나리오 2025        주간활성 2030         주간활성(추정)          25→30 CAGR
Bear 7.0억 12억 ~11%
Base         7.5~8.0억 20억 ~18~19%
Bull 8.0억 30억 ~28%

설명: 2025년 이후 경쟁 플랫폼 지분 확대에도 불구하고, OpenAI는 여전히 과점적 지위를 유지한 채 절대 이용자 수는 증가한다. (Similarweb 기준 점유율은 24년 87%→25년 76%로 하락했으나 절대 트래픽은 성장) (Digital Information World)


4-2 OpenAI 데이터센터 규모·전력: 2030년까지 추정

■ 공개 정보(2024~2025)

  • “Stargate” 프로젝트: 5~10GW급 초대형 캠퍼스 구상(28~30년 1차 가동 가정). 초기 보도는 5GW, 이후 파트너 확장과 함께 7~10GW 목표로 상향 언급. (데이터센터다이내믹스)

  • 2025년: Oracle/SoftBank/ CoreWeave 등과 신규 부지·용량 계약을 잇달아 체결, 누적 계획치가 약 7GW에 근접했다는 보도. (Reuters)

  • 외부 추정치는 총 전력수요를 10~15GW까지 언급(보수적·공격적 견해 혼재). (Certrec)

■ 정리(보수적 범위)

  • 2030년 목표 운영·가용 전력: 7~10GW 범위(중앙값 8.5GW).

  • 전력→GPU 환산 전제:

    • GPU 1개당 실효 전력 1.5~2.0kW(시스템·네트워크 포함), GPU가 전체 전력의 60~80%를 차지.

    • 그러면 1GW당 GPU 30만~58만 개 탑재 가능. → 8.5GW이면 255만~493만 GPU.

    • 계산식: GPU수 = 1,000,000kW × (GPU전력비율)/GPU당kW.


4-3 Agentic AI 대세화 시, 2025→2030 메모리 수요 추정

핵심 전제

  • 모델·시스템 스펙 변화: 2025년 HBM 144~192GB/GPU(HBM3E) → 2030년 256~384GB/GPU(초기 HBM4/4E) 가정.

  • Agentic 워크플로우(Plan→Act→Observe→Reflect 루프) 확산으로 DRAM/스토리지의 중간 산출·로그·캐시가 대폭 증가.

  • 업계 전망: HBM 시장 30~33% CAGR로 2030년까지 고성장, DRAM 내 HBM 비중이 절반에 근접. (오픈 데이터 사이언스)

4-3-1 HBM(패키지 온 메모리)

  • 단위 환산(보수적): 1GW당 HBM 134~192PB(2030년형 256~384GB/GPU 가정).

    • 산출: 1GW당 35만~50만 GPU × 0.384TB(상단) = 134~192PB.

  • 2030년 8.5GW 기준 총량: 1.1~1.6EB.

  • 2025년(가용 2GW 가정, 192GB/GPU) 대비 증가분:

    • 2025 총량(2GW): 1GW당 67~96PB → 134~192PB → 총 0.13~0.19EB.

    • 2030 총량(8.5GW): 1.1~1.6EB.

    • 증가폭: ~0.9~1.5EB(약 6~12배).

  • 업계 트렌드와 정합성: 30%대 CAGR·HBM 비중 확대와 부합. (오픈 데이터 사이언스), 그러나 수요증가폭은 CAGR로 약 43%~64% 

4-3-2. DRAM(서버 메모리/CXL 풀 포함)

  • 전제: Agentic 추론은 중간 계획·툴 응답·RAG 캐시서버 DRAM/메모리 풀이 2025 대비 5~8배 팽창(동일 전력 대비).

  • 실무 환산(보수적): GPU 1개당 0.25~0.5TB의 시스템 DRAM이 2030년 표준화된다고 가정.

    • 그러면 1GW(35만~50만 GPU)당 DRAM 88~250PB.

  • 2030년 8.5GW 총량: 0.75~2.1EB.

  • 2025년(2GW, 0.1~0.2TB/GPU) 대비 증가배수: 대략 6~10배.

4-3-3. NAND(SSD/오브젝트 스토리지)

  • 전제: Agentic RAG 도입으로 단기(HOT/WARM) 로그·트레이스 보존과 장기(COLD) 의사결정 근거 축적이 보편화.

  • 실무 환산(활성 스토리지만): 1GW당 200~400PB의 고성능 SSD/오브젝트 스토리지가 “활성 데이터”로 상주(클러스터·리전 복제 제외, 보수적).

  • 2030년 8.5GW 총량: 1.7~3.4EB(활성). 리전 복제(×1.5~2배)와 저가 콜드스토리지를 더하면 3~7EB 수준까지 확대 가능.

  • 2025년(2GW, 활성 50~100PB/GW 가정) 대비 2.5~6배.

요약: 2025→2030(Agentic 전환) 동안 OpenAI 단일 사업자 기준으로만 보아도

  • HBM: +0.9~1.5EB(약 6~12배)

  • DRAM: +0.6~1.9EB(약 6~10배)

  • NAND(활성): +1.3~3.0EB(약 2.5~6배) 로 확대될 여지가 있다. 

 
동일 계산을 하이퍼스케일러 전반으로 확장하면 업계 총수요는 이보다 훨씬 커진다. (오픈 데이터 사이언스)

 


4-4 왜 Agentic이 메모리를 더 먹는가(정량적 직관)

  • 모델 호출 횟수: 단일 패스(기존) → n회 루프. 같은 질문에도 토큰 소비량 수배.

  • 중간 상태 유지: 계획안/툴 응답/검증 로그를 GPU 외부 DRAM에 상주시켜 반복 참조.

  • 지식 축적: 실행 과정 전체를 NAND에 영속 저장(사용자별 맥락, 정책·감사 대응 데이터).

  • 위 3요인이 **HBM(연산 대역폭)·DRAM(상태 캐시)·NAND(경험 축적)**을 동시 확대시킨다.

  • 컨설팅·학계 보고서도 Agentic이 전통적 GenAI 대비 복잡도·자율성·시스템 통합에서 구조적 상향을 지적. (McKinsey & Company)


4-5 리스크·불확실성

  • OpenAI의 정확한 가동 전력과 GPU구성, 연간 증설 페이스는 비공개다. 본 추정은 공개 보도를 바탕으로 7~10GW 범위를 가정했다. (Reuters)

  • GPU 세대 변화(전력/메모리 스택 용량)와 소프트웨어 최적화(서버당 유효 활용률)는 수요를 ±20~30% 흔들 수 있다.

  • 전력·입지 제약이 증설 속도를 제한할 수 있다(전력망·원전/재생E 확보 이슈). (The Times)


4-6 결론

  • 이용자 저변은 2030년에 12~30억 주간활성으로 확대 가능(기본 20억 가정). (Backlinko)

  • 데이터센터는 2030년 7~10GW급으로 스케일할 공산이 크다. (Reuters)

  • Agentic 대세화에 따라 2025→2030 사이 OpenAI만 놓고 보아도 HBM +0.9~1.5EB, DRAM +0.6~1.9EB, NAND(활성) +1.3~3.0EB 수준의 추가 메모리 수요가 합리적으로 추정된다. ─ 이는 업계 전체로 확장 시 HBM 43%~64% CAGR 로 추정된다.

다음은 위에서 계산한 OPENAI의 메모리 수요를 충족시키기 위해서 메모리3사의 공급은 얼만큼 매년 늘어야 하는지를 추정해본다.

5. 2030년 메모리 각사별 메모리 (계획된) 공급증가 추정



5-1. 2025E→2030E 생산 CAPA 추정(회사별)




  • 근거: 표 2의 “DRAM capacity 12″” 2025E 660 → 2027E 758, “NAND capacity 12″” 2025E 436 → 2027E 478. 2030E는 25→27의 CAGR(약 7.2%, 4.7%)을 3년 더 연장.


  • 근거: 표 1의 “Total DRAM capacity per month(12″ equiv.)”와 “HBM % of DRAM(빨간 수치)” 추세. 2027E 42%가 찍혀 있어 2030E는 보수적으로 55–60%로 외삽.



  • 근거: 표 3·4의 2025E→2027E 증가율(하이라이트) 적용해 2030E까지 지수 외삽.

주: 하이닉스·삼성은 wpm(웨이퍼), 마이크론은 Bit(1Gb/1GB) 단위로 표기돼 있다. 절대치 비교보다 증가율/방향성 비교가 타당하다.

 


6. 2030년 메모리 각사별 (추정되는) 수요증가 


앞서 합의한 OpenAI 단일 수요(중앙값) 를 재기억:

  • HBM: 2025→2030 +~1.2EB(총량 1.36EB, 6~12배)

  • DRAM(서버/풀): +~1.25EB(6~10배)

  • NAND(활성): +~2.15EB(2.5~6배)


HBM (2025→2030, OpenAI 추가 수요 배분)


해석
: 점유율을 유지하려면 3사 모두 매년 45~60% 수준의 HBM CAPA 증설이 필요하다. TSV·패키징 수율 개선과 HBM4(12-Hi/16-Hi) 전환이 필수적이다.


DRAM (서버·메모리 풀, 2025→2030)


해석: 하이닉스·삼성은 HBM 우선 배치 속에서 범용 DRAM 라인의 전환을 조율해야 하며, CXL 메모리 풀·고용량 RDIMM 채택이 핵심 대응책이다.


NAND (활성 스토리지, 2025→2030)


해석: NAND는 Agentic RAG의 로그·스토리지 수요 확대로 가장 가파른 증설 압력이 발생한다. 삼성은 리더십 유지로 최대 수혜를 보고, 하이닉스(솔리다임 포함)와 마이크론도 리전 복제·콜드스토리지 포함 수요 흡수로 성장 여력이 크다.


6-1 회사별 CAPA 로드맵과 “충족 가능성” 평가

  • SK하이닉스

    • 2027E 기준 DRAM 월CAPA ~1.14M wpm, HBM 비중 42% → 2030E 55~60%로 상향 시, **HBM 절대 CAPA는 25→30 연복 ~45–60%**가 요구된다. TSV/패키징 라인이 병목이므로 M10F/M15X 증설 + 16-Hi 대응이 관건.

    • DRAM 범용 라인은 서버향 RDIMM·CXL 수요에 맞춰 피봇.

  • 삼성전자

    • DRAM 660k→930k wpm(2030E 외삽)만으로는 HBM 비중이 낮으면 총 EB가 부족할 수 있다. P4 라인 가동률/수율 개선 + HBM4(12-Hi/16-Hi) 조기 전개가 필수.

    • NAND는 리더십 유지로 OpenAI 스토리지 증분의 최대 수혜. QLC 전환·컨트롤러 최적화로 $/TB 경쟁력 유지가 중요.

  • 마이크론

    • DRAM Bits 25→30 CAGR 15~16% 외삽만으로는 Agentic 수요의 서버향 DRAM 40~55%/년에 못 미친다. HBM 라인(패키징 포함)의 공격적 증설서버향 DRAM 제품 믹스 상향이 필요.

    • NAND는 14% 외삽 → **상단 시나리오(30~40%)**에 미달. 북미 데이터센터 고객사와의 장기공급(LC) 확대가 요구된다.


6-2 핵심 수치 요약(필요 증설률)



7. 메모리 제품별 Agentic AI 수요를 충족시키기 위한 공급증가 추정 정리


7-1. 전제 (앞서 계산한 값 정리)

  • 2025 (2GW 기준)

    • HBM: 약 0.13~0.19EB

    • DRAM: 약 0.1~0.2EB

    • NAND(활성): 약 0.05~0.1EB

  • 2030 (8.5GW 기준, 4.25배 전력 증가)

    • HBM: 약 1.1~1.6EB

    • DRAM: 약 0.75~2.1EB

    • NAND(활성): 약 1.7~3.4EB


7-2. 2025 → 2030 증가 배수


메모리 2025 CAPA 2030 필요 증가 배수
HBM 0.13~0.19EB 1.1~1.6EB 약 6~12배
DRAM 0.1~0.2EB  0.75~2.1EB            약 6~10배
NAND              0.05~0.1EB                1.7~3.4EB   약 25~34배


HBM/DRAM 수요
: 주로 연산 성능 확대에 비례해 증가(6~12배 수준).

NAND 수요: 연산 확대 + 데이터 폭증 + 장기 보관 필요까지 반영되어, 상대적으로 훨씬 큰 폭 (25~34배)의 증가가 나타난다.



7-3. 회사별 필요 증설 배수 (점유율 유지 가정)


HBM (2025 점유율: 하 62%, 삼 17%, 마 21%)

  • SK하이닉스: 0.08~0.12EB → 0.7~1.0EB → 약 6~11배

  • 삼성전자: 0.02~0.03EB → 0.2~0.3EB → 약 7~12배

  • 마이크론: 0.03~0.04EB → 0.25~0.35EB → 약 6~10배

DRAM (2025 점유율: 하 36%, 삼 34%, 마 25%)

  • SK하이닉스: 0.04~0.07EB → 0.3~0.7EB → 약 6~10배

  • 삼성전자: 0.03~0.07EB → 0.25~0.7EB → 약 6~10배

  • 마이크론: 0.025~0.05EB → 0.2~0.5EB → 약 6~10배

NAND (2025 점유율: 삼 35%, 하 21%, 마 15%)

  • 삼성전자: 0.018~0.035EB → 0.6~1.2EB → 약 25~33배

  • SK하이닉스(솔리다임 포함): 0.01~0.02EB → 0.35~0.7EB → 약 25~34배

  • 마이크론: 0.007~0.015EB → 0.25~0.5EB → 약 25~33배


7-4. 해석

  1. HBM

    • 2025→2030 사이 6~12배 증설 필요.

    • TSV 패키징/수율 개선과 HBM4(12-Hi→16-Hi) 양산 속도가 핵심.

  2. DRAM

    • 서버/CXL 메모리 풀 수요 반영 시 6~10배 증설 필요.

    • 하이닉스·삼성 모두 RDIMM 고용량 제품 믹스로 대응해야 함.

  3. NAND

    • Agentic RAG로 인한 로그/스토리지 수요 때문에 25~34배 확대 필요.

    • 사실상 NAND가 가장 큰 폭으로 늘어나야 하며, 삼성은 최대 수혜.


즉, **2030년 8.5GW 기준으로는 HBM·DRAM은 대략 1자리수 배수(6~12배)**지만, NAND는 20배 이상, 많게는 30배 이상 증설이 필요함. 





위 그래프는 **2025년을 기준(=1)**으로 두고, 2030년까지 HBM, DRAM, NAND 수요 증가 범위를 보여줌. 

  • HBM: 약 6~12배 증가 → CAGR 29~45%

  • DRAM: 약 6~10배 증가 → CAGR 29~38%

  • NAND: 약 25~34배 증가 → CAGR 54~62%


즉, Agentic AI 확산으로 인해 NAND의 증가세가 가장 가파르고, HBM과 DRAM도 각각 한 자릿수 배수 확대가 필요하다는 점이 한눈에 보인다. 

8. OpenAI의 야심


샘 알트먼이 직원들에게 보낸 내부 메모를 통해, 그의 OPENAI에 대한 야심이 한층 더 확대되고 있음을 짐작할 수 있다.






OpenAI는 광고 책임자를 찾고 있음

피지 시모(Fidji Simo)는 모든 수익화 전략을 총괄할 인물을 물색 중이다. ChatGPT에 광고를 도입하는 일도 포함된다.

“어제 샘 알트먼이 OpenAI 직원들과 공유한 내부 슬랙 메모를 보았다. 그날 그는 텍사스 애빌린에 있었고, 다섯 개의 새로운 미국 데이터센터를 발표했다. 메모에는 OpenAI의 ‘대담한 장기 목표’가 적혀 있었는데, 2033년까지 250기가와트 용량을 구축하는 것이다.”

“그 메모에서 알트먼은 또한 OpenAI가 올해 초 약 230메가와트의 용량으로 시작했으며, 이제 2025년 말까지 2GW 이상의 운영 용량을 달성할 궤도에 올랐다고 밝혔다.”





위 그래프는 OpenAI가 2033년까지 250GW 데이터센터를 구축한다고 가정했을 때, 2025년을 기준(=1)으로 본 HBM, DRAM, NAND 수요 증가율을 나타냄. 



  • HBM: 약 85~125배 증가 → CAGR 52~58%

  • DRAM: 약 60~125배 증가 → CAGR 50~58%

  • NAND: 약 63~125배 증가 → CAGR 50~58%

9. 결론


Agentic AI는 ‘정답 한 번’에서 ‘여러 번 생각·실행·검증하고, 그 근거까지 저장하는’ 시스템으로의 질적 비약
이다. 이 전환은 **HBM(연산 대역폭)·DRAM(상태 캐시)·NAND(경험 저장)**을 동시에, 구조적으로 확대시킨다.

OPENAI의 2030년 8.5GW 데이터센터 증설 기준으로 HBM·DRAM은 6~12배, NAND는 25~34배 증설이 필요하며, 2033년 250GW 시나리오에선 HBM·DRAM·NAND 모두 수십~백 배 성장을 요구한다.


따라서 메모리 업계의 초점은 HBM 적층/패키징 증설, 서버향 DRAM 믹스 전환·CXL 풀링, NAND의 활성/복제/콜드 전층 최적화에 맞춰진 다축(三軸) 증설 전략이어야 한다.


#글을 마치며


향간에 따르면, NVIDIA는 삼성전자와 SK하이닉스에 내년 메모리 입찰가격을 사실상 오픈해 두었으며, 당장은 물량만 확보해 달라는 식의 주문을 내고 있는 것으로 전해진다.

이는 곧 메모리 가격 인상분을 NVIDIA가 모두 수용하겠다는 의미로 해석된다. 이러한 방식은 2018년 메모리 쇼티지가 절정에 달했을 때 일시적으로 나타났던 입찰 구조와 유사하며, 메모리가 다시 구조적 쇼티지 국면에 진입하고 있음을 시사한다.

더불어 Agentic AI 시대에 단순한 산술적 추정만으로도 메모리 수요가 폭증하고 있어, 메모리 병목 현상은 Agentic AI의 진화 속도에 비추어 볼 때 구조적으로 해소되기 어려울 것으로 전망된다.

=끝