2025년 12월 15일 월요일

생각정리 144 (* Broadcom)

이번 AI Theme 조정의 근원이 되었던 두 기업부터 먼저 짚어보고자,

이전 Oracle에 이어, 이번에는 그동안 모은 정보를 취합해 내가 생각하는 Broadcom에 대한 글을 정리해본다.


0. 서론: 왜 Broadcom인가


AI 경쟁의 중심은 점점 모델에서 칩·네트워크·데이터센터를 하나로 묶은 풀스택 인프라로 옮겨가고 있다.


특히 NVIDIA의 차세대 GPU인 Blackwell(GB200) 이후에는

  • GPU 진영의 1~1.5년 주기 세대교체 속도,

  • 랙·전력·네트워크까지 포함한 TCO(토큰당 총비용) 경쟁


이 동시에 강화될 가능성이 크다.

이 구조 속에서 Broadcom은

  • 구글 TPU 등 맞춤형 AI 가속기(XPU) ASIC,

  • Tomahawk·Jericho 계열 AI용 이더넷 스위치·라우터,

  • TSMC 선단공정·CoWoS 패키징 레퍼런스

를 동시에 쥔 몇 안 되는 기업이다. 

2024 회계연도 기준 Broadcom의 AI 매출은 122억 달러(전년 대비 +220%), 반도체 매출의 41% 수준이며,

AI 칩 관련 서비스 가능 시장(SAM) 150~200억 달러 중 약 70%를 Broadcom이 점유한다고 회사는 설명한다.

여기에 더해, 최근 중국 DeepSeek의 컴퓨팅 한계,
그리고 Google Gemini 3가 “Scaling law는 여전히 유효하다”는 것을 재확인했다는 평가
“결국 대규모 컴퓨팅을 얼마나 안정적으로 계속 키울 수 있느냐가 LLM 경쟁의 본질”이라는 점을 다시 부각시킨다.



이 글의 목적은,
이러한 환경에서 Broadcom의 해자(진입장벽)가 왜 시간이 갈수록 두터워질 수밖에 없는지

  1. 기본 용어

  2. Broadcom의 위치

  3. 전환비용·“1세대 삐끗”·글로벌 컴퓨팅 격차(DeepSeek vs Gemini 3)

  4. 고객 Lock-in

  5. 풀스택과 Blackwell

  6. 경쟁 구도(Broadcom vs Marvell vs MediaTek)

  7. Jevons의 역설·플라이휠·설계자동화

순으로 정리하는 것이다.


1. 기본 용어 정리


1) GPU, ASIC, XPU

  • GPU
    행렬 연산에 특화된 범용 가속기. AI 학습·추론의 기본 엔진이다.
    NVIDIA A100/H100, 차세대 Blackwell(GB200) 등이 대표적이다.

  • ASIC
    특정 목적에 맞춘 맞춤형 칩이다.
    구글 TPU, 아마존 Trainium/Graviton, 하이퍼스케일러들이 Broadcom과 함께 설계하는 커스텀 AI 가속기가 여기에 속한다.

  • XPU
    Broadcom이 쓰는 용어로, GPU·TPU·ASIC 등 AI 가속기 전체를 포괄하는 표현이다.

2) 프론트엔드 vs 백엔드 설계

  • 프론트엔드 설계
    “어떤 연산 유닛을 몇 개, 어떻게 연결할 것인가”를 정하는 아키텍처·논리 설계 단계이다.

  • 백엔드 설계
    이 논리를 실제 실리콘 위에 **배치·배선(Place & Route)**해서
    전력·발열·신호 품질을 모두 만족시키는 물리 설계 단계이다.
    공정이 5nm·3nm로 미세해질수록 난도가 폭증하고,
    Try & Error 기반의 경험이 해자의 핵심이 된다.

구글 TPU는
Google이 프론트엔드, Broadcom이 백엔드+TSMC 협업을 맡는 구조로 알려져 있다.

3) SerDes, CoWoS, HBM, 풀스택, TCO

  • SerDes / PHY

    • 칩 내부의 느린 병렬 데이터를 극도로 빠른 직렬 신호로 바꿔 케이블·광섬유로 보내는 회로이다.

    • AI 데이터센터에서 네트워크 속도·품질을 좌우하는 핵심 IP이다.

  • HBM
    수직으로 여러 개를 쌓은 고대역폭 메모리.
    거대한 LLM을 돌릴 때 필수적인 메모리 수단이다.

  • CoWoS
    TSMC의 2.5D 패키징 기술로, XPU와 여러 개의 HBM을 하나의 초대형 패키지로 묶는다.
    공정 난이도·설비 제약 때문에 NVIDIA·Broadcom·AMD·애플 등 소수 고객에게 우선 배분되는 병목 자원이다.

  • 풀스택(Full Stack)
    XPU뿐 아니라

    • 스위치 ASIC, NIC

    • 광 모듈·케이블

    • 랙·전력·냉각

    • 운영 소프트웨어
      까지 데이터센터 한 덩어리로 제안하는 구조이다.
      NVIDIA NVL72, Broadcom AI Ethernet 플랫폼이 대표 사례이다.

  • TCO(Total Cost of Ownership)
    칩 가격, 전력·냉각, 데이터센터 CAPEX/OPEX, 운영 인력까지 포함한 토큰당 총비용이라 보면 된다.


2. Broadcom의 위치: XPU + 이더넷 + 랙


Broadcom은 HP/아질런트 통신·저장장치용 반도체 사업부에서 출발해,
Avago 인수 이후 네트워킹·스토리지·소프트웨어 업체들을 흡수하며
데이터센터 인프라 종합 기업으로 변신해 왔다.

AI 시대 Broadcom의 축은 크게 두 가지이다.

  1. 맞춤형 AI 가속기(XPU)

    • 구글 TPU 등 하이퍼스케일러의 커스텀 AI ASIC
      선단공정·CoWoS로 설계·생산한다.

    • 2024 회계연도 AI 매출은 122억 달러(전년 대비 +220%),
      반도체 매출의 41% 수준이다.

  2. AI 이더넷 풀스택

    • 102.4Tbps Tomahawk 6 스위치, Jericho 라우터, Thor NIC, 고속 SerDes·광 DSP를 묶어
      AI 클러스터용 이더넷 패브릭 레퍼런스를 제시하고 있다.


2025년 10월에는 OpenAI와 10GW 규모의 맞춤형 AI 가속기 + 이더넷 + 랙 시스템 공동 개발·배치 계약을 체결하며,
실질적으로 “칩+네트워크+랙” 풀스택 공급자로서의 위상을 공식화했다.

여기서 중요한 점은, AI 워크로드가 **“XPU 몇 개”가 아니라 “수천 개 XPU + 스위치·NIC + 랙·전력·냉각이 결합된 시스템”**으로 돌아간다는 점이다.

따라서 스위치·NIC·통신장비·데이터센터 물리 설계 능력이 없는 상태에서 XPU만 잘 만들어도,
실제 클러스터에서 나오는 **TCO와 성능(토큰 처리량·지연·신뢰성)**은 GPU 풀스택 대비 크게 떨어질 수밖에 없다.


2-1. XPU 백엔드 경험과 통신/스위치 역량의 상호 강화


결론부터 말하면, 브로드컴이 고객사용 ASIC XPU(예: TPU류)에 대해 백엔드 설계를 잘할수록,
그 경험은 통신칩·스위치 ASIC·데이터센터 물리 네트워크 설계 능력으로 거의 그대로 연결된다.


구조적으로 보면 세 가지 축이 서로 피드백을 주고받는다.

  1. 공통 인프라: 고속 IO/SerDes/PHY

    • AI XPU이든 스위치 ASIC이든,
      모두 112G/224G급 고속 SerDes·PHY를 대량으로 사용한다.

    • XPU 백엔드에서
      “이 SerDes 블록을 어디에, 어떤 전력·열·배선 조건에서 배치해야
      SI(신호 무결성)·IR drop·열 문제 없이 속도를 뽑을 수 있는지”에 대한
      실전 경험이 쌓이고,

    • 같은 문제가 그대로 스위치/통신칩 설계에도 등장한다.

    XPU 백엔드를 잘할수록 고속 IO·채널 설계 노하우가 두꺼워지고,
    이게 다시 스위치·NIC·통신칩 쪽 역량을 끌어올리는 구조
    이다.

  2. 시스템 시야: 칩을 넘어 패브릭·랙까지 보는 감각

    • 고객사 XPU 백엔드를 하려면
      “이 칩이 어떤 네트워크 토폴로지 안에, 어떤 랙 구성으로,
      어디가 병목인 환경에서 사용되는지”를 함께 설계하게 된다.

    • 같은 회사의 스위치 ASIC·NIC 팀은
      그 패브릭을 실제 스위치·케이블·광모듈로 구현해야 한다.


    → Broadcom 내부에서는
    칩 레벨 경험 + 패브릭 토폴로지 이해 + 랙·데이터센터 설계 경험이 서로 공유되며,
    다른 ASIC 전용 하청업체보다 **“물리 스택 전체를 보는 눈”**이 넓어질 수밖에 없다.

  3. 패키징·전력·쿨링 경험의 공유

    • 3nm급 XPU와 51.2/102.4Tbps 스위치 ASIC은 모두
      CoWoS, 대형 die, 고전력·고열 환경에서 동작한다.

    • XPU·스위치·NIC 패키지를 반복 설계하면서
      “이 정도 전력밀도·패키지 사이즈면 랙/섀시 레벨에서
      공랭/액랭을 어떻게 설계해야 하는지”에 대한
      실전 데이터와 직감이 축적된다.

이렇게 보면 Broadcom은

XPU 백엔드 설계 → 고속 SerDes/PHY·패키징 노하우 축적 →
스위치·NIC·통신장비·데이터센터 물리 설계 역량 강화


라는 선순환을 통해 단순한 ‘칩 설계 하청업체’를 넘어
XPU–네트워크–시스템을 아우르는 풀스택 인프라 플레이어로 자리 잡고 있으며,
이러한 구조적 역량(*Mediatek과 같은 후발주자가 따라잡을 수 없는)이 동사만의 두터운 경쟁우위이자 고객사와의 가격협상에서 우위를 제공하는 요인으로 작용한다.



3. 전환비용, “1세대 삐끗”의 치명성, 그리고 글로벌 컴퓨팅 격차


AI 서버 시장은 2030년 8,500억 달러 규모까지 성장할 수 있다는 전망이 있다.
AI 추론 수요가 구조적으로 늘어날수록 Broadcom의 해자는

  1. 기술·시간 기반 전환비용

  2. 파운드리·공급망 전환비용

  3. 운영·소프트웨어 전환비용

  4. 글로벌 컴퓨팅 격차(DeepSeek vs Gemini 3)

로 더 두터워진다.

3-1. 기술·시간 기반 전환비용과 “1세대 삐끗” 리스크

  • 3nm/2nm급 AI XPU는

    • HBM·CoWoS 인터포저

    • 수백억 개 트랜지스터

    • 극단적인 전력·열·신호 관리
      를 동시에 맞춰야 하는 초난도 설계 문제이다.

  • 업계 경험상, 실전에서 경쟁력 있는 가속기까지는 최소 2~3세대 반복이 필요하다는 인식이 강하다.
    한 세대 1~1.5년이라면, 3세대는 이미 NVIDIA가 GPU 아키텍처를 두 번 이상 올린 뒤이다.

  • 이 구조에서 중요한 포인트는,
    ASIC 업체가 단 한 세대라도 GPU 대비 성능·TCO에서 밀리면
    이후 세대에서 그 격차를 만회하기가 기하급수적으로 어려워진다
    는 점이다.
    한 번 늦으면

    • 추가 CAPEX·OPEX 투입

    • 파운드리 CAPA·우선순위 협상력 약화

    • 그 사이 GPU 진영은 또 다음 세대로 이동
      이라는 악순환이 발생한다.

Broadcom처럼 이미 다수 세대를 안정적으로 테이프아웃한 업체는
이 레이스에서 **“실패 확률이 상대적으로 낮은 쪽”**에 속한다.

3-2. 공급망·파운드리 전환비용

  • TSMC의 CoWoS·HBM 패키징 CAPA는 여전히 병목이며,
    Google TPU조차 패키징 CAPA 제약을 받고 있다는 보도가 있다.

  • NVIDIA·Broadcom·AMD·애플 등은
    반복된 성공 레퍼런스와 대규모 물량으로 선단공정·CoWoS 우선권을 확보하고 있다.

새로운 ASIC 플레이어가 여기에 진입하려면
여러 세대의 성공·장기계약이 필요하며,
이는 “첫 세대 실패 → CAPA 협상력 약화 → 일정 지연 → GPU 격차 확대” 루프를 강화한다.

3-3. 운영·소프트웨어 전환비용

XPU와 네트워크 칩은

  • 패킷 스케줄링·혼잡 제어, 장애 복구,

  • 텔레메트리·모니터링, 자동 배포·업데이트 도구

와 결합된 운영 스택의 일부이다.

Broadcom AI Ethernet 플랫폼은 Tomahawk·Jericho·Thor·소프트웨어를 묶어
AI 패브릭 레퍼런스를 제공하는 방향으로 진화 중이다.

한번 이 기준으로 데이터센터를 설계하면,
다른 벤더로 옮기는 것은 칩 교체가 아니라 운영·툴·조직 노하우 전체를 갈아엎는 일이 된다.

3-4. DeepSeek vs Gemini 3: 글로벌 컴퓨팅 격차의 신호


여기에 최근 중국 DeepSeekGoogle Gemini 3 사례가
“컴퓨팅 격차”를 극명하게 보여준다.

  1. DeepSeek: 제한된 컴퓨팅에서의 효율 극대화

    • DeepSeek는 V3·R1 모델을 공개하며,
      GPT-4·OpenAI o1에 근접한 수준의 성능을 “상당히 적은 훈련 컴퓨팅”으로 달성했다고 주장한다.

    • RAND·Brookings 분석에 따르면,
      DeepSeek V3·R1은 미국 프론티어 모델 대비 훈련 컴퓨팅을 크게 줄였지만,
      이것이 “컴퓨팅 자원 중요성이 줄었다”는 의미라고 보는 것은 잘못된 해석이며,
      여전히 장기적으로는 막대한 컴퓨팅 자원을 지속적으로 투입할 수 있는 진영이 유리하다고 지적한다.

    • Dario Amodei 역시 DeepSeek 사례를 논하면서,
      미국의 GPU 수출 통제가 중국 LLM의 장기적 컴퓨팅 확보 능력을 제약하는 가운데,
      DeepSeek 성공은 오히려 수출 통제 정교화의 필요성을 보여주는 사례라고 평가한다.

    요약하면, DeepSeek는
    **“컴퓨팅이 부족한 환경에서도 알고리즘·효율 개선으로 어느 정도 따라갈 수 있다”**는 점을 보여주지만,
    동시에 GPU·선단공정 접근이 제약된 진영이 장기적으로 프론티어 레이스에서 불리할 수밖에 없다는 현실을 드러낸다.

  2. Gemini 3: Scaling law가 여전히 통한다는 재확인

    • 중국 36Kr·해외 테크 블로그 분석에 따르면,
      Gemini 3는 Google이 Scaling law를 가장 극단적으로 실행한 사례로 평가되며,
      “충분한 compute·데이터·엔지니어링 최적화가 주어지면 Scaling law는 아직도 큰 보상을 준다”는 것을 보여줬다는 평가가 많다.

    • Tomasz Tunguz는 “Gemini 3의 성과와 NVIDIA 실적을 보면 ‘스케일링 월’(Scaling wall) 논지는 사실상 붕괴했고,
      Blackwell의 추가 연산력이 그대로 모델 성능 향상으로 이어질 것
      ”이라고 주장한다.

    즉, Google은
    **“충분한 인프라(컴퓨팅)를 계속 늘리면 여전히 모델 성능이 크게 올라간다”**는 사실을 시장에 재확인시킨 셈이다.

  3. 이 두 사례가 시사하는 것

    • DeepSeek: 컴퓨팅 제약이 있는 진영의 “효율 극대화” 전략

    • Gemini 3: 컴퓨팅 제약이 덜한 진영의 “Scaling law 무한 증폭” 전략

    이 대비는 LLM 경쟁의 핵심이
    결국 **“얼마나 큰 클러스터를, 얼마나 자주, 실패 없이 돌릴 수 있는가”**라는 점을 다시 확인해 준다.

  4. 여기서 Broadcom의 위치

    • 미국·하이퍼스케일러 진영이 이 “Scaling law 레이스”를 계속 밀어붙이려면,

      • 선단공정 XPU(구글 TPU 등),

      • 대규모 이더넷 패브릭,

      • CoWoS·HBM 패키징
        을 안정적으로 공급할 파트너가 필요하다.

    • Broadcom은

      • Google TPU,

      • OpenAI 10GW XPU+랙,
        를 통해 사실상 **“미국 측 Scaling law 실행 인프라의 한 축”**을 담당한다.

DeepSeek vs Gemini 3의 대비는,
컴퓨팅·인프라와 연결된 공급망(=Broadcom 같은 업체)의 중요성이 앞으로 더 커질 수밖에 없다는 정성적 근거가 된다.


4. 고객사 입장에서 Broadcom Lock-in이 합리적인 이유


하이퍼스케일러 입장에서 “탈 Broadcom”을 가정해 보면 다음 리스크들이 한꺼번에 튀어나온다.

  1. 리스핀·일정 리스크

    • 선단공정 AI ASIC에서 마스크 한 번 실패는
      수천만~수억 달러 손실 + 수개월 일정 지연을 의미한다.

    • 그 사이 NVIDIA는 Blackwell 이후 차세대까지 올릴 수 있다.

    • 즉 한 세대 삐끗하면 그 세대는 끝이고,
      다음 세대부터는 항상 “추격자” 포지션이다.

  2. GPU 세대 교체 속도와 동기화 압박

    • 1~1.5년 주기로 GPU 세대가 바뀌는 상황에서,
      프론트엔드·백엔드·패키징·네트워크·랙을 모두 같은 템포로 업그레이드해야 한다.

    • 이때 백엔드를 Broadcom/Marvell 없이 전부 내재화하는 것은
      일정 리스크를 크게 키우는 선택이다.

  3. TSMC·HBM CAPA 리스크

    • CoWoS·HBM4 CAPA가 타이트한 환경에서
      TSMC는 검증된 대형 고객에게 우선 배분한다.

    • Broadcom처럼 레퍼런스를 쌓은 파트너를 통하는 편이
      직접 진입보다 CAPA·수율 측면에서 훨씬 안전하다.

  4. 풀스택·랙 통합 부재

    • Broadcom은 OpenAI와 XPU+이더넷+랙 시스템을 10GW 규모로 공동 설계·배치한다.

    • 자체로 이 수준의 통합을 구현하려면
      칩뿐 아니라 네트워크·전력·냉각·운영 SW까지 직접 책임져야 한다.

요약하면,
GPU와의 세대 레이스에서 한 번 삐끗하면 격차가 구조적으로 벌어지는 상황에서는
Broadcom에 어느 정도 Lock-in되는 것이 오히려 합리적인 리스크 관리가 된다.


5. Full-stack 설계 능력과 Blackwell의 분기점


5-1. Blackwell이 만드는 새로운 기준선

NVIDIA의 Blackwell(GB200)·NVL72는

  • 칩 성능·전력 효율

  • NVLink·NVSwitch·이더넷

  • 랙·전력·냉각·소프트웨어

까지 포함한 참조 데이터센터 아키텍처를 제시한다.

경쟁 기준은 단순해진다.

같은 랙·같은 전력 하에서
누가 더 많은 토큰을 더 싸게 처리하느냐 (TCO)

 

5-2. Blackwell 랙 효율화 시점의 의미

  • Blackwell 랙이 실제 대규모 배치되고,
    6~12개월간 디버깅·튜닝이 진행되면
    이전 세대 대비 TCO에서 큰 격차가 드러날 가능성이 크다.

이 시점에서 하이퍼스케일러의 질문은 하나다.

“우리가 Broadcom과 같이 만드는 TPU/XPU + 이더넷 풀스택으로
Blackwell 랙과 비슷한 TCO를 낼 수 있는가?”

 

풀스택 설계·통합 능력이 없다면
개별 칩의 FLOPS/Watt가 좋아도 시장 경쟁력은 급격히 떨어진다.
Blackwell 랙 효율화 시점이 다가올수록
풀스택 역량의 중요성은 기하급수적으로 커진다.


6. 경쟁 구도: Broadcom vs Marvell vs MediaTek


6-1. Broadcom·Marvell: 이미 형성된 양강 구도

SemiEngineering 분석에 따르면 Broadcom은 커스텀 ASIC 시장 점유율 약 80% 수준이며,
Marvell이 2위로 뒤따르고, MediaTek·Alchip·GUC 등이 도전자로 거론된다.

  • Marvell

    • Custom cloud-optimized silicon, 스위치·NIC·SerDes·첨단 패키징을 묶어
      데이터센터용 커스텀 실리콘 파트너를 지향한다.

    • 10개 이상의 고객, 50개 이상의 커스텀 실리콘 프로젝트를 진행 중이며
      평생 매출 잠재력은 750억 달러 수준으로 추산된다.




  • Broadcom

    • Google TPU, OpenAI 10GW 등 상징적인 XPU+랙 프로젝트를 보유하고,

    • 스위치·라우터·SerDes·광 DSP를 묶은 AI 이더넷 풀스택을 제공하며,

    • TSMC CoWoS·선단공정에서 오랜 레퍼런스를 가진 핵심 고객이다.

결국 ASIC 진영에서 Broadcom과 Marvell이 기본 축을 형성하고 있다고 보는 것이 자연스럽다.

6-2. MediaTek: 왜 Google의 복수 벤더지만 구조적으로 열위인가


Google은 향후 TPU 세대에서 MediaTek과의 협업을 확대하려는 움직임을 보이고 있다.
동시에 Broadcom이 TPU v7 등 핵심 물량을 계속 확보하고 있다는 보도도 있다.



이를 종합하면 다음과 같다.

  1. Google 입장: MediaTek은 “브로드컴 견제 + 비용 압박용 세컨 벤더”

    • 여러 기사들은 Google이 Broadcom 의존도를 일부 낮추고
      백엔드 벤더를 듀얼화해 협상력을 높이려 한다고 해석한다.

    • 그러나 현 시점에선
      MediaTek이 Broadcom을 완전히 대체하기보다는
      일부 세대·일부 블록에 참여하는 보조 벤더에 가깝다.

  2. MediaTek의 출발점: 모바일 중심, 데이터센터는 확장 영역

    • MediaTek은 스마트폰·소비자용 SoC에서 세계적인 플레이어지만,
      데이터센터·클라우드 ASIC은 아직 **“증명해야 할 새로운 사업”**에 가깝다.

    • 2026년 클라우드 AI 칩 10억 달러, 그 이후 수십억 달러 매출을 목표로 하고 있으나,
      아직 실적·레퍼런스는 Broadcom·Marvell에 비해 제한적이다.

  3. 풀스택·네트워크 포지션의 차이

    • Broadcom·Marvell은 이미
      스위치 ASIC·SerDes·네트워크 장비를 통해 데이터센터 이더넷 핵심 벤더로 자리 잡았다.

    • MediaTek도 고속 인터커넥트·SerDes IP를 홍보하고 있으나,
      현재는 모바일·엣지 + 일부 클라우드 ASIC 단계이며,
      “XPU+이더넷+랙” 풀스택을 당장 제공하는 수준은 아니다.

  4. TSMC·CoWoS 레퍼런스 깊이 차이

    • TSMC CoWoS 공식 자료에서
      Nvidia·Broadcom·HiSilicon 등 HPC·AI용 대형 고객 레퍼런스가 오랫동안 쌓여 있다.

    • MediaTek 역시 주요 고객이지만,
      데이터센터급 CoWoS·HBM 패키징에서의 레퍼런스는 상대적으로 얕다.

  5. 세대 레이스 관점에서 후발주자의 핸디캡

    • GPU 진영이 1~1.5년 주기로 아키텍처를 올리는 상황에서

    • Broadcom·Marvell은 이미 다수 세대의 커스텀 ASIC을 통해
      Try & Error 데이터·조직 학습을 축적해 왔다.

    • MediaTek은 지금부터 그 레이스에 합류하는 입장이라,
      “한 세대 삐끗하면 회복이 어려운 구조”에서 출발선이 뒤에 있는 선수에 가깝다.

정리하면,

  • Google 입장에서 MediaTek은 의미 있는 복수 벤더·가격 압박 카드이지만,

  • 풀스택·레퍼런스·조직 학습·TSMC CAPA 관점에서 Broadcom·Marvell 대비 구조적 후발주자이다.

  • 따라서 MediaTek 점유율 상승은 Broadcom 단일 벤더 리스크를 다소 낮추더라도,
    Broadcom의 “핵심 AI 인프라 벤더” 지위를 근본적으로 흔들 수준은 아니다라는 결론이 자연스럽다.


7. Jevons의 역설, 플라이휠, 설계자동화·조직학습력


7-1. Jevons의 역설: 효율이 좋아질수록 수요는 더 빨리 늘어난다

Jevons의 역설

어떤 자원의 효율이 높아질수록,
전체 사용량은 줄지 않고 오히려 늘어난다


는 현상이다.

GOLDMAN SACHS

GOLDMAN SACHS

GOLDMAN SACHS


GOLDMAN SACHS

AI에서도,

  • Blackwell, TPU v7+, 맞춤형 XPU,

  • Broadcom의 이더넷·패키징·설계 최적화,

  • Gemini 3로 다시 확인된 Scaling law의 유효성

토큰당 추론 비용을 낮출수록
AI는 더 많은 서비스·업무·디바이스 속으로 파고든다.

중요한 점은, 이런 Jevons의 역설이 작동하는 시장에서는

  • 효율 향상이 곧 수요 폭증으로 이어지고,

  • 수요 폭증은 다시 플레이어 간 경쟁을 더욱 가속화시키며,

  • “조금만 뒤처져도 회복이 어렵다”는 인식 때문에
    ‘뒤처지면 끝’이라는 심리가 제도·투자·전략에까지 스며든다는 점이다.

결국, 효율 향상이
단순히 시장 파이를 키우는 데서 끝나는 것이 아니라,
경쟁의 속도와 강도를 동시에 끌어올리는 촉매로 작동하는 구조에서 
브로드컴 고객사 입장에서 체감하는 전환비용은 및 RISK는 더욱 커질 수 밖에 없다. 

https://www.threads.com/@xie_ct


7-2. Try & Error 데이터 → 설계자동화 AI → 플라이휠


경쟁이 가속화될수록 더 중요해지는 것은 동사의 핵심 경쟁우위, 즉 해자가 어디에 형성되어 있는가이다.
Broadcom 해자의 핵심은 단순히 “AI/EDA를 쓴다”가 아니라,
AI가 학습할 수 있는 내부 설계 데이터와 조직 학습력이다.

  1. 수십 년간 누적된 Try & Error 설계 데이터

    • 과거 칩들의

      • 회로 구조, 배치·배선 결과

      • 전력·타이밍·열 시뮬레이션 vs 실제 실리콘 측정치

      • DRC/LVS 에러 위치와 ECO(수정) 히스토리
        가 모두 내부 전용 데이터셋으로 축적되어 있다.

  2. 이 데이터가 설계자동화 AI의 훈련 데이터

    • 이 히스토리를 기반으로

      • 자동 배치·배선

      • 전력망·클럭 트리 설계 가이드

      • 설계 변경 시 품질 영향 예측
        을 수행하는 설계 어시스턴트 AI를 만들 수 있다.

    • 즉, 과거의 Try & Error 자체가 설계자동화 AI의 해자가 되고,
      이를 많이 가진 회사일수록 같은 OPEX로 더 많은·더 복잡한 칩을 더 빨리 설계할 수 있다.

  3. OPEX보다 더 빠르게 증가하는 마진

    • Broadcom AI 매출은 폭발적으로 늘지만,
      R&D·인건비 등 OPEX는 같은 비율로 증가하지 않고 운영 레버리지가 붙고 있다.

    • 이는 설계자동화·조직 학습력이 실제로
      비용 구조 개선과 마진 레버리지로 연결되고 있음을 시사한다.

  4. 플라이휠 구조

정리하면 Broadcom의 플라이휠은 다음과 같다.

  • AI 추론 수요 폭증
    → XPU·이더넷·랙 프로젝트 증가
    → Try & Error 설계 데이터 축적
    → 설계자동화 AI·조직 학습력 강화
    → 같은 OPEX로 더 많은·더 복잡한 칩, 더 빠른 타임투마켓
    → 높은 수익성·현금흐름
    → R&D·CAPA·TSMC 계약에 재투자
    → 기술·공급망·레퍼런스 우위 강화
    → 고객 Lock-in 심화
    → 다시 Broadcom이 AI 인프라 수요의 더 큰 몫을 흡수


여기에

  • GPU 진영의 1~1.5년 세대 레이스,

  • “1세대 삐끗하면 회복이 어려운 구조”,

  • DeepSeek vs Gemini 3가 보여준 글로벌 컴퓨팅 격차,

  • Broadcom·Marvell 중심 ASIC 올리고폴리,

  • MediaTek의 상대적 후발·부분 벤더 위치,

  • 그리고 XPU 백엔드 경험과 통신/스위치·데이터센터 물리 설계 역량이 서로 피드백을 주는 구조


가 겹치면서,

AI 경쟁이 치열해질수록 오히려 Broadcom 내부에 축적되는 역량과 데이터가
더 강한 해자와 플라이휠을 만들어낸다
는 그림이 자연스럽게 나온다.

 


이 모든 요소를 종합할 때,

Broadcom은 단순한 칩 공급자가 아니라,
Scaling law를 실질적으로 실행해 줄 수 있는 AI 인프라 플랫폼의 한 축이며,
시간이 갈수록 해자가 두터워지는 구조적 수혜자

 

라고 볼 수 있다.

시장이 노이즈로 쉬어갈때 가끔씩 이렇게 생각을 정리할겸 개별기업에 대한 생각을 글로 남겨보는것도 괜찮지 않을까 싶다. 

=끝

2025년 12월 14일 일요일

생각정리 143 (* Oracle)

연일 오라클의 부채레버리지에 대한 공포감이 시장에 조성되어 주가가 고점대비 많이 하락한 모습이다. 

이와 관련해서 개인적으로 생각하는 오라클에 대한 생각을 정리 기록해본다.


AI 인프라 시대, 왜 오라클의 DB·OCI·선제적 레버리지가 중요한가


이 글의 질문은 결국 한 줄로 정리된다.

“OpenAI가 2030년까지 계획하는, 사용자·매출·추론 서비스 폭증 시나리오에 왜 OCI(Oracle Cloud Infrastructure)가 잘 맞고, 그래서 OpenAI 관련 Oracle의 RPO(잔여 수행의무·백로그)가 상대적으로 탄탄하다고 볼 수 있는가?”

 

이를 설명하기 위해

  1. 기본 용어,

  2. 오라클의 역사와 DB 포지션,

  3. 전환비용이라는 해자가 어떻게 쌓였는지,

  4. 고객이 오라클 DB를 못 떠나는 현실적 제약,

  5. 그 위에 얹힌 OCI와 GPU가 실제로 쓰이는 지점,

  6. OCI AI 데이터센터와 고객 관점의 경쟁우위,

  7. OpenAI 2030 로드맵·3,000억 달러 딜·Oracle RPO,

  8. 마지막으로 AI 인프라 시대의 선제 레버리지 효과

순서대로 살펴본다.


1. 용어 정리


1) 데이터베이스(DB)


기업의 모든 중요한 “기록”이 들어가는 저장소이다.
고객 계좌, 주문·결제, 재고, 세금 신고, 보험 계약, 콜센터 상담 이력, 각종 업무 로그 등이 여기에 쌓인다.
쉽게 말해, **“회사 업무의 모든 숫자와 기록이 모이는 디지털 금고”**이다.


2) 관계형 데이터베이스(RDBMS)


엑셀처럼 행·열 구조의 테이블에 데이터를 저장하고, SQL이라는 언어로 조회·집계·수정하는 방식의 DB이다.
은행·정부·대기업의 “원장 시스템(System of Record)” 대부분이 관계형 DB를 쓴다.


3) 트랜잭션 / ACID


돈·재고처럼 절대 틀리면 안 되는 데이터를 다룰 때, 여러 작업이 동시에 들어와도:

  • 원자성(Atomicity)

  • 일관성(Consistency)

  • 격리성(Isolation)

  • 지속성(Durability)

을 보장하는 성질이다. 이게 깨지면 회계·정산·결제 전체가 무너진다.

4) 오라클 데이터베이스(Oracle Database)

1970년대 말부터 상용화된 대표적인 관계형 DB이다.
초기에는 미국 정부·정보기관·군에서 쓰이기 시작했고, 1980~90년대부터 금융·공공·글로벌 대기업 핵심 시스템의 사실상 표준으로 자리 잡았다.

5) Exadata

오라클 DB 전용으로 설계된 통합 DB 머신이다.

  • DB 서버

  • 스토리지 서버

  • 초저지연 네트워크(iDB + RDMA over RoCE)

를 한 세트로 묶었다. 오라클 설명에 따르면, DB 서버는 **전용 프로토콜(iDB)**와 RDMA over RoCE로 스토리지와 통신하고, 스토리지에서 **Smart Scan(SQL Offload)**로 먼저 데이터를 걸러 주기 때문에 일반 서버+스토리지 조합보다 트랜잭션·쿼리 성능을 크게 올릴 수 있다.

6) OCI(Oracle Cloud Infrastructure)

오라클의 클라우드 인프라(IaaS)이다.

  • 일반 VM, 스토리지, 네트워크

  • Exadata 기반 DB 서비스(Autonomous DB 등)

  • 대규모 GPU 클러스터(학습·추론용 AI Supercluster)

를 함께 제공한다.

7) Oracle AI Vector Search

오라클 DB 안에:

  • 벡터 데이터 타입

  • 벡터 인덱스

  • 벡터 검색 SQL 연산자

를 넣어서, 문서·텍스트 같은 비정형 데이터를 의미(semantic) 기반으로 검색하는 기능이다.
오라클은 이를 RAG(검색 증강 생성)·엔터프라이즈 LLM용으로 설계했다고 설명한다.


2. 오라클의 출발점: “실패하면 안 되는 데이터”에서 시작한 회사


오라클은 1977년 Larry Ellison, Bob Miner, Ed Oates가 설립한 회사로, IBM의 E. F. Codd가 제시한 관계형 DB 이론을 상용 제품으로 구현한 선두주자다.

초기 스토리에서 자주 언급되는 부분은 다음과 같다.

  • ‘Oracle’이라는 제품명은 당시 CIA 내부 프로젝트 코드명에서 따온 것으로 알려져 있다.

  • 실제로 초기 고객군에는 미국 정부·정보기관·국방 관련 조직이 포함됐다는 설이 여러 자료에서 반복된다.

이후:

  • 미국 정부·국방,

  • 글로벌 금융기관,

  • 통신사,

  • 다국적 제조·서비스 기업


으로 확장되면서, 오라클 DB는 **“장애가 나면 안 되는 시스템”**의 표준 플랫폼이 되었다.
출발점부터 고객군이 이렇다 보니, 시간이 지날수록 자연스럽게 전환비용이 높은 자리를 선점하는 구조가 된다.


3. 전환비용 해자는 어떻게 쌓였는가


오라클의 전환비용은 단순히 “데이터가 많아서 갈아타기 힘들다” 수준이 아니다.
시간이 지나면서 데이터·업무 시스템·규제·조직·인프라가 모두 오라클 DB와 엉켜 붙으면서 형성된 것이다.

  1. 데이터 누적

    수십 년에 걸친 거래, 계약, 세금, 로그, 규정, 리포트 데이터가 오라클 DB 안에서 정합성을 유지한 채 누적되어 있다.

  2. 업무 시스템 누적

    ERP, 회계·재무, 리스크 관리, CRM, 콜센터, 정산, 배치, ETL 등 수십~수백 개 시스템이:

  • 오라클 스키마 구조,

  • 오라클 SQL,

  • PL/SQL·프로시저·트리거·힌트 등


오라클 고유 기능에 깊게 의존한다.

  1. 규제·감사·보안 프레임

    은행·증권·보험·정부 시스템은:

  • 접근 통제,

  • 감사 로그,

  • 백업·복구·DR(재해복구),

  • 변경 승인 프로세스


를 오라클 DB 기준으로 설계하고, 이를 규제기관·감사인 검증까지 받은 상태다.

  1. 조직·운영 역량

    DBA·개발·운영·보안팀의 노하우와 프로세스가:

  • 장애 대응,

  • 성능 튜닝,

  • 업그레이드,

  • 야간 배치 설계


모두 오라클 기준으로 최적화되어 있다.

이 네 요소가 겹겹이 쌓이면서, 오라클 DB는 단순한 “소프트웨어 제품”이 아니라, 기업의 신경계와 면역체계가 연결된 인프라가 된다.

그래서 “갈아타면 라이선스 비용은 줄 수 있지만, 잘못 갈아타면 회사가 위험해질 수 있는” 구조가 되는 것이다.


4. 고객이 오라클 DB를 못 떠나는 현실적인 이유


고객사(특히 금융·공공·대형 엔터프라이즈) 입장에서 “오라클 DB를 다른 DB로 바꾸자”고 했을 때, 실제로 부딪히는 현실 제약을 직관적으로 정리하면 다음과 같다.

4-1. 다운타임 리스크


예시: 카드 결제 승인, 주식 매매, 항공 예약 시스템.

  • 주말 새벽 몇 시간조차 다운타임 허용이 어려운 경우가 많다.

  • 마이그레이션 도중 승인·체결·예약이 멈추면

    • 매출 손실,

    • 고객 민원·이탈,

    • 보상·소송,

    • 언론·정치 리스크까지 동시에 발생한다.


새 DB가 싸고 성능이 좋아 보이더라도,
**“실제 전환 과정에서 다운타임 없이 안전하게 갈아탈 수 있느냐”**가 첫 번째 관문이다.

4-2. 데이터 정합성·트랜잭션 리스크


가장 무서운 것은 “크게 다운되는 장애”가 아니라 조용한 오차다.

  • 특정 상품·통화·세율에서만 이자가 조금씩 틀리게 계산된다든지,

  • 특정 케이스에서만 수수료가 잘못 계산되는 문제는

    • 바로 눈에 안 띄고

    • 몇 달 뒤에야 쌓인 오류가 튀어나올 수 있다.


그렇게 되면 이미 발행된

  • 거래내역,

  • 명세서,

  • 회계·세무 신고,

  • 공시


를 되돌려야 하고, 그 과정에서 막대한 비용과 평판 손실이 발생한다.

오라클 DB는 수십 년간 이런 ACID·정합성을 최우선으로 검증받아 온 시스템이다.
CIO 입장에서는 “바꿔서 좋아질 가능성”보다 “바꿨다가 터질 리스크”가 더 크게 느껴진다.

4-3. 피크 트래픽에서의 성능 회귀 리스크


예시: 블랙프라이데이, 연말정산, 공모주 청약, 요금제 개편일.

  • 평소에는 새로운 DB로도 충분히 잘 돌아간다.

  • 문제는 1년에 몇 번 오는 극단적 피크다.

  • 이때 실행 계획, 인덱스, 락 패턴이 기존과 조금만 달라도

    • 응답 시간이 늘어나고,

    • 큐가 쌓이고,

    • 결국 시스템이 “멈춘 것처럼” 보일 수 있다.

“피크에서도 성능 회귀 없이 완벽히 마이그레이션했다”는 수준으로 검증하려면,
테스트·튜닝에 들어가는 시간·비용·인력 피로도가 현실적으로 감당하기 어려울 만큼 커진다.

4-4. 애플리케이션 종속성


현실에서는 많은 비즈니스 로직이 DB 안에 들어가 있다.

  • PL/SQL 프로시저,

  • 트리거,

  • 스토어드 함수,

  • 복잡한 뷰·배치 작업


으로 구현된 핵심 로직을 다른 DB로 옮기는 것은
핵심 레거시를 재개발하는 프로젝트다.

작은 버그 하나가

  • 요금 계산,

  • 정산,

  • 적립금,

  • 세금,

  • 리스크 산정


등에서 장기적인 오류로 이어질 수 있다.

4-5. 규제·감사·보안 리스크


금융·공공·헬스케어에서는 DB 교체가 그 자체로 굵직한 감사 이벤트다.

  • 새로운 DB에서

    • 접근 통제,

    • 감사 로그,

    • 백업·복구·DR,

    • 변경 관리·승인 프로세스
      를 다시 설계해야 하고,

  • 이를 가지고 규제기관과 감사인의 검증·승인을 다시 받아야 한다.


이 모든 리스크를 종합하면,
오라클 DB의 전환비용은 단순한 “IT 비용”이 아니라 경영진 책임·기업 존립 리스크가 된다.
이게 오라클 DB가 가진 핵심 경제적 해자다.


5. AI 시대에는 전환비용이 왜 더 커지는가


AI를 얹으면 전환비용은 오히려 한 겹 더 두꺼워진다.

  1. AI의 성능은 “어떤 모델이냐”보다 “어떤 원본 데이터를 얼마나 잘 읽느냐”에 크게 좌우된다.

    • 같은 GPT라도

      • 10년치 콜센터 로그,

      • 클레임·심사 기록,

      • 세무·규제 문서,

      • 내부 매뉴얼·메일 요약
        을 잘 읽고 반영할 수 있느냐에 따라 답변의 질이 달라진다.

  2. 이 핵심 데이터의 상당수가 이미 오라클 DB 안에 있다.

    • 대형 금융·공공·글로벌 기업의 트랜잭션 데이터는 오라클 같은 RDBMS에 쌓여 있다.

  3. Oracle AI Vector Search는 이 오라클 DB 내부에서:

    • 데이터 조각을 벡터로 임베딩하고,

    • 벡터 인덱스를 생성하고,

    • 의미 기반 검색을 SQL로 바로 수행하게 해준다.

    즉, **“핵심 데이터는 그대로 DB 안에 두고, 그 안에서 곧장 AI 검색을 하게 하는 구조”**를 만들어 준다.

  4. 규제·보안·데이터 주권 관점에서, 많은 고객은

    • 계좌, 의료, 세무, 국방 같은 민감 데이터를

    • 외부 벡터 DB로 다시 복제해서 여기저기 뿌리는 것보다는

    **“DB 안에서 끝낼 수 있다”**는 옵션을 훨씬 선호한다.

결과적으로, AI 도입이 늘수록:

  • 오라클 DB를 버리고 다른 DB로 갈아타는 일은

    • 단순히 “업무 중단 리스크”뿐 아니라

    • 데이터 주권·보안·AI 품질 리스크까지 함께 떠안는 선택이 된다.

그래서 AI 시대에는 오라클 DB의 전환비용이 더 커지는 방향으로 작용하는 측면이 있다.
AI는 오라클을 대체하는 힘이라기보다, 오라클 위에 더 많은 기능과 트래픽을 얹는 힘이 되기 쉽다.


6. DB 위에 얹힌 OCI: GPU는 어디서 실제로 쓰이는가


중요한 포인트는 이것이다.

오라클 DB와 Vector Search 자체는 GPU가 필수가 아니다.
GPU가 폭발적으로 쓰이는 지점은 DB가 아니라 “모델 컴퓨트(LLM·멀티모달·에이전트)” 레이어이다.
 


OCI는 크게 두 가지 축을 동시에 제공한다.

  • DB 인프라: Exadata, Autonomous DB, AI Vector Search 등

  • AI 인프라: LLM 학습·추론·배치 처리에 쓰이는 GPU 클러스터(Supercluster 등)

GPU가 실질적으로 많이 쓰이는 구간은 세 가지다.

6-1. 실시간 추론 서빙(LLM Inference)


예시: 카드사 ChatGPT형 상담봇

  1. 고객 질문이 들어온다.

  2. 시스템은 오라클 DB(또는 Oracle Database@Azure)에서

    • 거래 이력,

    • 요금제·혜택,

    • 약관·이벤트 설명을 벡터 검색으로 찾는다.

  3. 이렇게 찾은 텍스트 조각을 LLM에 넣어 답을 생성한다.

  4. 답변 생성 단계에서 GPU 추론 성능이 크게 쓰인다.


질문 수가 늘어나고,
질문·컨텍스트 길이가 길어질수록
GPU가 처리해야 하는 토큰량이 선형 이상으로 증가한다.

OCI는 이를 위해:

  • GPU 인스턴스,

  • LLM 엔드포인트,

  • Dedicated AI Clusters(테넌트 전용, 최소 744 unit-hours 커밋)

같은 상품을 제공한다.

6-2. 학습·파인튜닝(Training / Fine-tuning)


예시: 보험사의 “자사 약관·청구 패턴에 특화된 GPT”

  • 과거 청구·심사·약관·내규 데이터를 모아
    기본 LLM 위에 파인튜닝을 한다.

  • 이때는

    • 수십~수천 개 GPU를

    • 며칠~몇 주 동안 묶어서 쓰는 경우가 많다.

OCI의 AI Supercluster(예: Zettascale 구성)는:

  • 수만~10만 단위의 NVIDIA Blackwell/GB200 GPU,

  • 초저지연 RDMA 네트워크,

  • 고대역폭 스토리지

구성을 내세우며,
“프런티어 모델을 통째로 학습·추론할 수 있는 클러스터”로 포지셔닝한다.

6-3. 야간 배치(대량 임베딩 생성·재생성, 대량 요약·분류)


예시: 글로벌 제조사의 품질·A/S 데이터

  • 낮 동안 쌓인

    • A/S 이력,

    • 고객 민원,

    • 센서 로그,

    • 매뉴얼 변경 기록을

  • 밤에 한꺼번에:

    • 문서 단위로 나누고,

    • 임베딩(벡터)을 생성해 DB에 저장하며,

    • 요약·분류·리스크 태깅을 돌린다.

Oracle AI Vector Search를 활용하면,
이 임베딩과 원본 텍스트를 모두 오라클 DB 내부에 저장하고,
다음 날부터는 **“DB 안에서 바로 의미 기반 검색”**을 할 수 있다.

GPU는 이 대량 임베딩·요약·분류 작업을 밤사이에 끝내기 위한 연산 자원이다.
데이터가 많을수록 야간 배치용 GPU 시간이 전체 AI 비용에서 점점 더 큰 비중을 차지한다.


7. OCI AI 데이터센터와 고객 관점의 경쟁우위


AWS·Azure·GCP도 모두 강력한 AI 인프라를 갖고 있다.
오라클의 전략은 “이들을 정면으로 이긴다”기보다는,

  1. AI/HPC 특화 슈퍼클러스터,

  2. 멀티클라우드(특히 Azure 확장),

  3. 칩 뉴트럴,

  4. 전용 클러스터+장기 커밋 구조

위에,
5) “오라클 DB에 이미 깊게 락인된 고객”이라는 출발점을 결합해 니치 우위를 만드는 것이다.

7-1. Zettascale Supercluster: 초대형 단일 클러스터


OCI Supercluster(특히 Zettascale급)는:

  • 수만~10만 단위의 NVIDIA Blackwell/GB200 GPU,

  • 초저지연 RDMA 네트워크,

  • 수십 Pbps급 대역폭

을 내세운다.


이는 한마디로 말해
**“프런티어 모델과 초대형 추론을 위한 전용 공장”**에 가깝다.

7-2. 멀티클라우드 구조: Azure AI를 확장하는 추가 컴퓨트


오라클·마이크로소프트·OpenAI 공동 발표에 따르면,

OpenAI는 Microsoft Azure AI 플랫폼을 확장하기 위해
Oracle Cloud Infrastructure(OCI)를 사용한다.

 

분석 기사들은 이를

  • 논리적으로는 Azure,

  • 물리적으로는 Azure + OCI

구조로 본다.
즉 OpenAI·엔터프라이즈 고객은:

  • 계정·결제·보안·엔터프라이즈 온보딩은 기존 Azure 스택을 유지하면서,

  • 실제 GPU·전력·네트워크는 OCI까지 확장해 쓸 수 있다.

이는 한 클라우드에 대한 의존도·가격 협상 리스크를 줄여준다.

7-3. 칩 뉴트럴 전략


오라클은 스스로를 chip-neutral AI 인프라라고 부르며,

  • NVIDIA뿐 아니라 AMD(예: MI355X) 기반 zettascale 클러스터도 제공하겠다고 밝힌다.

OpenAI를 포함한 대형 AI 고객 입장에서는,

  • 특정 GPU 벤더 공급 문제,

  • 세대별 가격·성능 차이에 대응하기 위해

여러 칩을 섞을 수 있는 인프라가 필요하다.
OCI는 이 지점에서 비용·공급망 리스크를 조절해 줄 수 있는 추가 옵션이 된다.

7-4. Dedicated AI Clusters와 장기 커밋 구조


OCI Generative AI의 Dedicated AI Clusters는:

  • 한 고객 전용 클러스터

  • 호스팅 클러스터 기준 최소 744 unit-hours 커밋 등 장기 사용 약정

구조를 갖는다.

이는

  • ChatGPT Enterprise,

  • 대형 API 고객,

  • 디지털 노동·에이전트,

  • 광고·쇼핑 엔진

처럼 트래픽이 크고 예측 가능한 워크로드에 잘 맞는다.
고객은 “우리 전용 GPU 공장”을 예약할 수 있고,
오라클은 이 물량을 RPO에 반영해 미래 매출로 락인한다.

7-5. 고객 입장에서 본 OCI 선택 이유(대비 Azure/AWS/GCP)


이제 정말 중요한 질문으로 돌아가 보자.

“고객 입장에서, 왜 그냥 Azure/AWS/GCP만 쓰지 않고 OCI를 쓸 유인이 생기는가?”


대표적인 경우를 몇 가지로 나눠 볼 수 있다.

  1. 이미 오라클 DB 락인이 강한 고객

  • 대형 금융·공공·제조·통신사는

    • 핵심 시스템이 오라클 DB 위에 올라가 있고,

    • Exadata·Autonomous DB·AI Vector Search를 함께 쓰고 싶어 한다.

  • 이런 고객에게는

    • “DB·애플리케이션·AI를 한 스택에서 관리”

    • “오라클이 설계한 성능·고가용성·백업·보안 레퍼런스를 그대로 따라가는 것”
      이 가장 낮은 리스크의 클라우드 전환 경로다.

  • 같은 AI 워크로드를 Azure/AWS/GCP 위에 얹으려면

    • 오라클 DB와의 네트워크·보안·운영 통합을 다시 설계해야 하지만,

    • OCI에서는 오라클이 DB+AI 인프라를 한꺼번에 제공한다.

  1. 규제·보안·데이터 주권 요구가 강한 고객

  • 금융·공공·헬스케어는

    • “핵심 트랜잭션 데이터는 오라클 DB로 유지”하면서

    • 그 안에서 벡터 검색·RAG·요약·분류 같은 AI 기능을 쓰고 싶어 한다.

  • OCI는

    • Exadata·Autonomous DB·Cloud@Customer 등을 통해

    • 동일한 DB 스택을 온프레미스·전용 리전·퍼블릭 클라우드에 통일된 형태로 제공한다.

  • 이 경우 고객은

    • 데이터 주권·보안 요구를 만족시키면서

    • AI 기능과 GPU 배치를 같은 벽(or 같은 거버넌스 체계) 안에서 관리할 수 있다는 장점이 있다.

  1. 멀티클라우드·락인 회피 전략을 원하는 고객

  • 이미 Azure/AWS/GCP에 애플리케이션을 잔뜩 올려놓은 고객이

    • “DB·AI 인프라는 별도로 잡고 싶다”

    • “특정 클라우드 한 곳에만 올인하고 싶지 않다”
      라고 생각할 수 있다.

  • 이 때 시나리오는 다음과 같다.

    • 애플리케이션은 기존처럼 Azure/AWS/GCP에 유지

    • 핵심 DB·벡터 검색·야간 배치·일부 추론은 OCI로 분리

    • 양쪽을 전용 회선/인터커넥트로 묶어 사용

  • Oracle Database@Azure 같은 코로케이션 모델은

    • **“앱은 Azure, DB는 오라클이 Azure 데이터센터 안에서 운영”**이라는 타협안을 제공한다.

  1. AI 프로젝트에서 “전용 클러스터+장기 커밋”을 원하는 고객

  • 대형 은행·통신사·국가 프로젝트·OpenAI 같은 플레이어는

    • “토큰당 과금(on-demand)”보다

    • “용량을 통째로 예약하고 단가를 낮추는 장기 커밋”을 선호할 수 있다.

  • OCI Dedicated AI Clusters는

    • 이런 “전용 GPU 공장 예약” 모델에 특화된 상품이다.

  • Azure/AWS/GCP도 유사한 옵션이 있지만,

    • 오라클은 DB 해자·멀티클라우드(특히 Azure 연동)·칩 뉴트럴을 함께 묶어

    • “두 번째·세 번째 AI 인프라 축”으로 자리 잡으려는 전략을 취한다.

요약하면, 고객 관점에서 OCI의 경쟁우위는

  • 오라클 DB 락인을 그대로 활용하면서 클라우드·AI로 확장하기 쉽다는 점,

  • 규제·보안·데이터 주권을 DB 레벨에서 관리하면서 AI를 붙일 수 있다는 점,

  • 멀티클라우드·락인 회피 전략을 설계하기 좋다는 점,

  • 전용 클러스터+장기 커밋 구조에 특화된 AI 인프라 옵션이라는 점

으로 정리할 수 있다.


8. OpenAI 2030 로드맵, 3,000억 달러 OCI 딜, 그리고 Oracle RPO


이제 다시 OpenAI 이야기로 돌아가자.

8-1. OpenAI 2030 로드맵의 구조


여러 보도를 종합하면, OpenAI는 투자자 대상 시나리오에서 대략 다음과 같은 궤적을 그린 것으로 알려져 있다.

  • 2023년 매출: 약 37억 달러

  • 2024~25년: 40억~130억 달러 구간

  • 2029~30년: 1,250억~1,740억 달러 수준 (자료마다 다름)

사용자 측면에서도:

  • 2025년 기준 주간 활성 사용자(WAU): 약 8억 명,

  • 2030년: 20억~30억 명 수준,

  • 유료 침투율: 8~10% 수준(2억 명 이상 유료) 시나리오 등이 거론된다.

숫자마다 차이는 있지만, 공통점은:

  • 사용자 수, 유료 비중, ARPU, 사업 라인(구독·API·에이전트·광고·쇼핑)이 모두 크게 늘어난다는 점이다.

  • 그 결과, 실시간 추론·API·배치·광고/쇼핑에서의 토큰·질문 수와 모델 수가 폭증한다는 것이다.

즉 OpenAI 로드맵의 본질은 **“매출”보다 “컴퓨트 수요”**에 있다.

8-2. Oracle–OpenAI 3,000억 달러/5년, 4.5GW 딜과 RPO


WSJ 등 복수 매체에 따르면:

  • OpenAI와 Oracle은 2027~2032년 5년간 총 3,000억 달러 규모의 클라우드 컴퓨팅 계약을 체결했다.

  • Oracle은 이 기간 동안 OpenAI에 연간 4.5GW 수준의 데이터센터 전력 용량과 수백만 AI 가속기(GPU 등)를 제공한다.

  • 이는 AI 인프라 역사상 최대급 계약 중 하나로 평가된다.

이와 병행해, Oracle의 잔여 수행의무(RPO)는 2025년 들어 급증했다.

  • FY26 Q2 실적 기준, Oracle은 총 RPO 5,230억 달러, 전년 대비 438% 증가를 발표했다.

RPO는 단순 파이프라인이 아니라

  • 이미 계약서에 서명된 금액 중,

  • 아직 매출로 인식되지 않은 향후 의무 이행 금액이다.

취소 불가 또는 취소 시 상당한 페널티가 있는 장기 계약에서 나오는 금액이기 때문에,
OpenAI–Oracle 3,000억 달러 딜이 이 RPO의 중요한 구성 요소라는 해석이 자연스럽다.


9. 결론: AI 인프라 시대, 오라클의 선제적 레버리지는 왜 더 큰 레버리지로 돌아올 수 있는가


앞으로 몇 년은 AI Capex(설비투자)가 본격화되는 시기다.
여기서 중요한 것은, 이게 단순 서버 확장이 아니라는 점이다.

  • 고성능 GPU,

  • 대용량 전력·변전·송전,

  • 냉각·부지·건설,

  • 전용 네트워크·광케이블·라우팅

이 모두 한 번에 따라붙는 AI 데이터센터 인프라는 매우 자본집약적이고, 공급이 물리적으로 제한적이다.

인플레이션·인건비·원자재 가격·규제비용·금리 등을 고려하면,
시간이 지날수록 동일한 규모의 인프라를 새로 짓는 비용(기회비용 포함)은 우상향하기 쉽다.

이 관점에서 보면, 지금 오라클이 취하고 있는 전략은 이렇게 정리할 수 있다.

  1. DB에서 출발한 전환비용 해자

    • 오라클 DB는 수십 년간 쌓인 데이터·업무·규제·조직·운영 락인으로 인해

      • “쉽게 바꿀 수 없는 인프라”가 되었다.

    • AI Vector Search와 RAG 도입으로

      • 핵심 데이터 위에서 곧장 AI 의미 검색·추론이 가능해지면서,

      • DB를 바꾸는 리스크는 오히려 더 커졌다.

  2. 이 해자를 활용해 OCI라는 AI 인프라로 확장

    • 오라클은 Exadata·Autonomous DB·Vector Search 위에

      • Zettascale Supercluster,

      • Dedicated AI Clusters,

      • 멀티클라우드(특히 Azure 확장) 구조를 얹어
        AI 학습·추론·야간 배치를 위한 전용 GPU 공장을 만들고 있다.

  3. AI Capex를 부채 레버리지로 앞당겨 쓰는 전략

    • Oracle은 OpenAI와의 3,000억 달러/5년(연 4.5GW) 딜을 포함해, 메타·기타 대형 고객과 초대형 AI 인프라 계약을 맺으며

      • RPO를 5,230억 달러 수준까지 끌어올렸다.

    • 이는 현재 대규모 부채·Capex 부담을 감수하는 대신,

      • 향후 수년간 사용할 AI 인프라를 “지금의 조건과 가격”으로 대량 선점했다는 뜻이다.

이 구조를 “AI 인프라 시대”라는 맥락에 놓고 보면, 오라클은 이렇게 말하는 셈이다.

“전환비용이 높은 DB 해자를 바탕으로
한정된 AI 인프라 자원을 남들보다 먼저 레버리지로 확보해 두고,
앞으로 OpenAI를 포함한 초대형 추론 수요가 본격적으로 올라올 때
그 인프라에서 최대한의 영업·재무 레버리지를 뽑아내겠다.”


인플레이션·금리 상방 압력·자본비용 상승을 고려하면,

  • 같은 규모의 AI 데이터센터를

    • 나중에,

    • 더 높은 금리와 자본비용을 부담하면서,

    • 더 엄격한 규제를 통과해 지어야 하는 후발 주자들과 비교할 때,

지금 오라클이 확보한 인프라의 교체가치·희소성은 시간이 지날수록 커질 여지가 있다.

물론 이 전략의 성패는

  • OpenAI 및 기타 AI 수요가 실제로 계약 수준 이상으로 인프라를 채우는지,

  • 오라클이 이 인프라에서 어느 정도의 마진과 현금 회수 속도를 보여주는지,

  • AI 인프라 투자 사이클이 버블로 끝나는지, 아니면 전력·통신에 준하는 장기 인프라 산업으로 정착하는지

에 달려 있다.


그러나 “AI 인프라가 새로운 희소 자산이 되는 시대”라는 전제를 깔고 볼 때,
오라클이 선택한 공격적인 선제 Capex + 장기 커밋 구조는,
전통적인 IT 설비투자를 넘어 실물 인프라(전력·데이터센터) 레벨에서의 레버리지 플레이로 이해할 수 있다.

DB 해자가 이미 단단하게 깔린 상태에서,
이 위에 AI 인프라와 OpenAI 같은 “컴퓨트 괴물 고객”을 장기 계약으로 얹어 놓은 것이
현재 오라클이 시장에서 차지하는 특이한 포지션이라고 정리할 수 있다.

정리해 보면,

  1. 기술·조직·규제·운영까지 얽힌 Oracle DB 해자 때문에,

    • 기존 엔터프라이즈의 핵심 데이터·트랜잭션은 쉽게 다른 RDBMS로 옮겨가지 못한다.

    • AI 도입이 늘어날수록 오히려 DB를 바꾸는 리스크는 커진다.

  2. Oracle은 이 해자를 활용해,

    • DB+Vector Search 위에 OCI Zettascale, Dedicated AI Clusters, Azure 멀티클라우드 구조를 올려

    • **“DB에서 시작한 AI 인프라 사업자”**라는 독특한 포지션을 만들었다.

  3. OpenAI 2030 시나리오·3,000억달러 딜·5,230억달러 RPO는

    • 이 포지션 위에서 탄생한 장기·대형 compute 계약의 결과이며,

    • 현재의 부채 레버리지는 본질적으로 “AI 인프라 희소성에 대한 선제적인 롱 베팅”이다.

  4. 따라서 최근의 “부채로 망한다”는 식의 서사는,

    • 이 인프라의 교체가치·희소성·옵션 가치를 무시한 과장된 공포에 가깝다

#글을 마치며


https://www.wsj.com/livecoverage/stock-market-today-dow-sp-500-nasdaq-12-11-2025/card/oracle-stock-poised-for-biggest-drop-since-deepseek-rout-xwjCp7iyhViKT0SIyYFQ

요즘 “부채 레버리지로 오라클이 망할 수 있다”는 식의 주장은, AI 인프라에 대한 거대한 선제 투자를 단순 부채비율 몇 개로만 잘라 본 과장된 공포 서사에 가깝다고 본다.

80을 넘긴 나이에도 수천억 달러 규모 AI 인프라 프로젝트에 베팅하고 있는 래리 엘리슨이, 단순히 재무 레버리지 산수를 몰라서 이런 결정을 내렸다고 보기는 어렵다.

과거 테슬라·스페이스X를 두고 “머스크는 뭘 모른다”던 비평가들에게 엘리슨이 사실상 “로켓을 바다 위에 착륙시키는 사람과, 숫자만 보며 비난하는 사람 중 누구를 믿겠느냐”고 되물었던 것처럼, 오라클의 부채 레버리지를 평가할 때도 같은 질문을 던져 볼 필요가 있다고 생각한다.

=끝

2025년 12월 11일 목요일

생각정리 142 (* Stable Coin, Bubble)

 더불어부동산당은 믿음이다..


https://www.sedaily.com/NewsView/2H1NX5VLJG


원화 스테이블코인에 MBS를 담보로 넣겠다는 발상은 왜 나오고, 무엇이 달라지는가


(주금공의 ‘MBS 담보 인정’ 검토를 계기로 본 한국형 신용재창출 경로와 부동산 버블 리스크)

1) 왜 하필 MBS인가: “원화·원화국채의 구조적 약세”를 우회하려는 유혹


원화 스테이블코인은 본질적으로 “원화 1원 = 코인 1개”로 환매를 약속하는 민간의 단기부채이다. 이 약속을 지키려면 발행사는 코인만큼의 준비자산(담보자산) 을 들고 있어야 한다.


문제는, 한국에서 “가장 정석적인 준비자산”으로 상정되는 원화 예금·원화 국채 쪽이 구조적으로 매력도가 약해졌다는 인식이 커져 있다는 점이다. 기축통화국과 달리, 한국은 대외충격(자본흐름·환율)과 금융안정 제약이 커서 정책 여지가 제한적이며(외환시장 ‘얕음’과 변동성, 거시건전성 중요성 등), 이창용 총재의 IMF 강연에서도 한국 경제가 외환·금융안정 제약 아래에서 정책 조합을 고민해온 맥락이 강조된다.


이런 배경에서 “원화 국채 대신, 한국에서 수요가 가장 강하고 ‘안전자산’에 가깝게 인식되는 담보를 쓰자”는 아이디어가 나오는데, 그 후보가 주택담보대출 기반 MBS이다. 실제로 한국주택금융공사(주금공)는 원화 스테이블코인 담보자산 범위에 MBS를 포함하는 방안을 내년 과제로 검토 중이라고 알려졌고, MBS 수요 기반 확충을 통해 정책모기지 금리를 낮추는 효과를 기대한다는 취지까지 언급된다. (서울경제)


2) 행위주체를 분해하면 보이는 구조: 누가 무엇을 사고, 무엇이 늘어나는가


여기서부터는 “사람(기관)”을 명확히 잡고 봐야 이해가 쉽다.

(A) 차주(가계)

  • 은행에서 주택담보대출을 받는다.


(B) 은행(또는 대출 취급기관)

  • 대출을 실행하면 예금(통화) 이 만들어진다. 즉, 은행대출은 통화(특히 M2)의 핵심 생성 경로이다. (한국은행)

  • 다만 은행은 대출을 계속 늘리려면 자본비율·유동성·규제(DSR/LTV 등)와 자금조달 비용에 묶인다.


(C) 주금공(KHFC) / MBS 발행 구조

  • 은행이 만든 주택담보대출을 “증권화”해 MBS로 만들어 시장에 판다.

  • 주금공의 증권화 과정은 “은행이 모기지를 ‘증권화’하여 시장에 매각함으로써 (자금조달을) 용이하게 한다”는 취지로 설명된다.


(D) 스테이블코인 발행사(민간)

  • 규제가 허용하면, 준비자산으로 국채·예금뿐 아니라 MBS도 대규모로 편입한다. (서울경제)

  • 이용자가 코인을 사기 위해 넣는 원화(또는 예금)가 발행사로 들어오고, 발행사는 그 돈으로 MBS를 산다.


(E) 코인 이용자/투자자/결제 생태계

  • 코인이 결제·송금·거래 담보로 널리 쓰일수록, 코인은 사실상 “민간이 만든 지급수단”이 된다.


3) 핵심 질문: MBS를 광범위하게 담보로 인정하면 DSR/LTV 밖 신용창출 경로가 열리나?


결론부터 말하면, 단번에 “DSR/LTV를 우회해 무제한 대출”이 되는 구조는 아니다.
DSR/LTV는 기본적으로 대출을 ‘만드는 순간(Origination)’ 에 은행·대출기관에 적용되는 규제이기 때문이다.

다만 위험한 지점은 따로 있다. 규제를 우회한다기보다, “규제의 효과를 약화시키는 방향으로 자금조달 비용을 떨어뜨리고 대출공급 유인을 키우는” 경로가 열린다.


3-1) “규제 밖”이 아니라 “규제의 둑을 낮추는” 메커니즘

  • 스테이블코인 준비자산으로 MBS 수요가 커지면 → MBS 금리(수익률)가 내려가고 → 주금공/은행 입장에서는 주택담보대출을 더 싸게 자금화할 수 있다. (서울경제)

  • 자금화가 쉬워지면, 은행은 같은 규제 안에서도 대출을 더 ‘하고 싶어지는’ 유인이 커진다(판매처가 확실해지기 때문이다).

3-2) “M2는 반드시 늘어나는가?”는 구분이 필요하다


이 지점에서 혼동이 생기는 이유는 통계상의 M2경제적으로 체감되는 유동성이 반드시 일치하지 않기 때문이다.


첫째, 좁은 의미의 M2(통계 포함 여부) 관점이다. 스테이블코인이 법적으로 예금과 동급으로 분류되지 않는다면, 코인 자체는 M2 통계에 직접 포착되지 않을 수 있다. 한국은행이 설명하는 M2는 현금과 각종 예금, 시장형·실적배당형 상품, 금융채 등 “현금으로 비교적 쉽게 전환 가능한 금융자산”의 범주로 정의된다. (한국은행)


둘째, 경제적 유동성(실질 구매력) 관점이다. 설령 통계상 M2에 포함되지 않더라도, 스테이블코인이 결제·송금·담보로 널리 쓰이기 시작하면 시장에서는 이를 사실상 **예금 대체재(준화폐)**로 인식하게 되고, 결과적으로 체감 유동성은 증가할 수 있다.


그럼에도 불구하고 “M2가 늘 수 있는” 전통적 경로는 분명하다. 한국은행이 설명하듯 통화량은 중앙은행이 찍어낸 현금만으로 결정되는 것이 아니라, 은행의 대출과 예금이 반복되는 과정에서 파생통화가 만들어지며 확대될 수 있다. (한국은행)


따라서 MBS 수요 확대 → MBS 금리 하락(자금화 용이) → 은행의 주담대 공급 유인 확대 → 대출 증가 → 예금 증가 → M2 증가라는 연결은 충분히 성립할 수 있다.


4) 왜 ‘서브프라임’이 떠오르는가: “기초자산이 바뀌지 않았는데, 포장만 바뀌며 신용이 증식”하는 순간


2008년 위기의 핵심은 단순히 “주택가격이 떨어졌다”가 아니다.
복잡한 구조화 상품이 ‘안전해 보이게’ 포장되는 동안, 리스크 인식이 왜곡되고 레버리지가 누적된 것이 본질이다.


IMF는 당시 구조화 상품이 복잡성과 불충분한 공시로 인해 “자금조달·신뢰 위기”에 노출됐고, 서브프라임 기반 구조화 상품에서 AAA 등급까지 포함한 대규모 강등이 발생했다고 지적한다. (IMF)


이 프레임을 한국의 “MBS-담보 스테이블코인”에 대입하면, 우려 포인트는 다음 3가지이다.

(1) “안전자산처럼 보이는” 착시 강화


스테이블코인의 준비자산은 통상 현금성 자산(예금, 단기국채 등) 으로 제한하는 방향이 논의돼 왔다. 한국은행의 사례 분석에서도 스테이블코인이 단기국채·예금 등 현금성 자산을 준비자산으로 보유한다는 구조가 핵심으로 제시된다.

그런데 여기에 MBS를 폭넓게 넣기 시작하면, 시장은 “MBS도 사실상 현금성/준국채급”이라는 신호로 받아들이기 쉽다. 이때부터 담보의 ‘안전자산 내러티브’가 커진다.

(2) 수요 기반 확대가 곧 공급 유인으로 되돌아오는 순환고리

  • 스테이블코인 발행사: “MBS를 담보로 더 많이 발행할 수 있다”

  • MBS 시장: “새로운 대형 매수자(스테이블코인 준비금)가 생긴다”

  • 은행/취급기관: “대출을 만들어도 팔 곳이 있다”
    → 결과적으로 주담대–MBS–스테이블코인이 서로의 성장을 정당화하는 구조가 된다.

(3) 온체인에서는 ‘재담보(rehypothecation)’ 유혹이 훨씬 커진다


이 부분이 가장 현대적인 위험이다.

  • 스테이블코인이 거래소/디파이에서 담보로 쓰이면, 코인 위에 다시 레버리지가 쌓인다.

  • 겉으로는 “담보가 있으니 안전”처럼 보이지만, 충격 시에는 환매(런) + 담보 가치 하락이 동시에 와서 유동성이 말라버릴 수 있다.


5) 이 이슈를 한 문장으로 요약하면


원화·국채의 매력이 약해진 환경에서, ‘한국에서 가장 잘 팔리는 담보(주담대/MBS)’를 스테이블코인 준비자산으로 승격시키면, 주담대–증권화–민간 지급수단 발행이 서로를 밀어주는 신용재창출 루프가 생기고, 그 힘은 결국 도심 주택(특히 아파트) 가격의 상방 압력으로 귀결될 가능성이 크다
는 문제의식이다. (서울경제)


맺음말


주금공의 문제의식 자체(정책모기지 금리를 낮추고 MBS 수요 기반을 넓히고 싶다)는 이해 가능하다. (서울경제)

그러나 MBS를 스테이블코인 담보로 ‘광범위하게’ 인정하는 순간, 이는 단순한 “핀테크 혁신”이 아니라 부동산 금융을 기반으로 한 민간 통화(지급수단)의 확대라는 거시 이벤트가 된다. 그리고 한국에서 그 신용이 향하는 방향은 생산적 투자보다 주거용 부동산일 가능성이 높다.

서브프라임은 “나쁜 자산”이라서 터진 것이 아니라, 자산이 바뀌지 않았는데도 ‘포장’과 ‘등급’과 ‘유통채널’이 신용을 과대 증식시키는 동안, 위험이 보이지 않게 누적되면서 터졌다. (IMF)

한국형 MBS-담보 스테이블코인도 마찬가지로, 규제 문구 몇 줄(담보 인정 범위·헤어컷·유동성 규정) 이 실제 위험의 크기에 영향을 줄 순 있으나,

규제 문구 몇 줄을 덧붙여 위험을 차단하려 해도, 한국의 투자문화에서는 대개 규제의 빈틈을 빠르게 찾아 단기 과대수익을 추구하는 방식으로 변형·확산될 가능성이 크다.

실제로 국내 시장은 과거 여러 국면에서 과도한 레버리지와 이른바 ‘빚투’가 반복되며, 규제의 의도와 반대로 위험이 그림자 경로로 이동해 증폭된 경험이 있다.

이런 맥락에서 MBS의 원화 스테이블코인 담보자산 편입은 단순한 상품 설계 변경이 아니라, 주택금융을 기반으로 한 신용창출의 새로운 통로를 열 수 있는 사안이다. 따라서 이는 레버리지 확대 → 버블 형성 → 조정 국면에서의 급격한 디레버리징(버블 붕괴) 으로 이어질 위험을 결코 과소평가하기 어렵다고 본다.


글을 마치며


하워드 막스는 오크트리 메모에서 Hobart와 Huber의 구분을 빌려, 버블을 두 부류로 설명한다

1. Mean reverting bubbles

 : 세상을 변화시키기 보다는 단기적 수요를 촉진시키는 경우.


2. Inflection bubbles 

 : 기술을 기반으로 세상의 패러다임을 진보키는 경우.


그가 말하는 Mean-reverting bubbles(평균회귀형 버블) 은 세상을 전진시키는 구조적 혁신보다는, “위험 없이 수익을 낼 수 있다”는 약속이 상상력을 자극하며 단기 수요와 레버리지를 부풀리는 유형이다.

하워드 막스는 자신이 읽었거나 직접 목격한 금융 유행으로 이들은 인류의 진보를 가져올 것이라는 기대가 아니라 “돈이 될 것”이라는 감각이 앞섰다고 정리한다.

특히 서브프라임 모기지 붐이 주거를 혁신할 것이라는 믿음은 거의 없었고, 단지 새로운 구매자를 뒷받침하며 그 과정에서 수익을 얻을 수 있다는 기대가 지배적이었다는 취지이다. (Oaktree Capital)

반대로 Inflection bubbles(변곡점형 버블) 은 철도·인터넷처럼 기술 진보가 실물 인프라를 깔아 “버블 이후에도 세상이 이전 상태로 되돌아가지 않는” 유형이다. 즉, 두 유형 모두 투자자 부를 파괴할 수 있지만, 변곡점형은 장기적으로 사회·기술적 기반을 남길 수 있는 반면, 평균회귀형은 거품이 꺼지면 남는 것이 제한적이라는 대비가 핵심이다. (Oaktree Capital)

이 관점에서 보면, 한국형 원화 스테이블코인이 주택금융(MBS)을 ‘안전자산’으로 포장해 신용을 재창출하는 방향으로 제도화될 경우, 이는 ‘세상을 바꾸는 혁신’이라기보다 단기 수요와 레버리지를 부추기는 Mean-reverting bubbles의 성격에 부합하지 않나 싶다. 

=끝

2025년 12월 10일 수요일

생각정리 141 (* FOMC, Mining Capex)

며칠 전부터 메탈 시장의 변화가 유난히 두드러져, 오랜만에 산업재 섹터를 다시 들여다보고 있었다.






그런데 어제 FOMC 발표 내용을 검토하다 보니, 그동안 정리해 온 산업재 사이클과 맞물리는 지점들이 다수 포착되어, 이를 하나의 글로 엮어 정리해 보고자 한다.



1부. 연준·유동성·구조적 변화: 큰 구조부터


1. QT·QE라는 “도구”의 본질


1) QT(Quantitative Tightening)


QT의 본질은 단순하다.

  • 정의:
    중앙은행이 보유한 국채·MBS 등 자산을 줄여 대차대조표(B/S)를 축소하고, 그 과정에서 시중 유동성을 흡수하는 정책이다.

  • 수단:

    • 만기 상환분을 전액 재투자하지 않고,

    • 일정 한도만 재투자(roll-off)하며,

    • 필요하면 보유 자산을 직접 매각하기도 한다.

  • 효과:

    • 중앙은행 자산 감소와 함께 은행 준비금·RRP 등 유동성 풀 자체가 줄어들고,

    • 장기금리와 리스크 프리미엄에 긴축 압력이 걸린다.

즉, QT = B/S 축소 + 유동성 흡수 + 긴축이다.

2) QE(Quantitative Easing)


QE는 QT의 정반대 축이다.

  • 정의:
    중앙은행이 장기 국채·MBS 등을 대규모로 매입해 B/S를 확대하고, 장기금리·크레딧 스프레드를 낮춰 금융여건을 완화하는 비전통적 완화정책이다.

  • 수단:

    • 장기물 중심의 대규모 매입 프로그램(LSAP),

    • “고용·물가 목표 달성 전까지 계속”과 같은 조건부 포워드 가이던스를 수반한다.

  • 효과:

    • 장기금리의 term premium 하락,

    • 포트폴리오 재조정을 통해 주식·크레딧 등 위험자산으로 자금 이동,

    • 실질 금융여건 완화 → 수요·기대 인플레이션 상향이다.

정리하면,

  • QT는 B/S를 줄이면서 유동성을 흡수하는 구조적 긴축,

  • QE는 B/S를 늘려 유동성을 공급하는 구조적 완화이다.

현재는 QT가 정지된 이후, “어떤 형태의 B/S 재확대로 갈 것인가”를 두고 해석이 갈리는 과도기 구간이다.


2. 기업·연준·자금시장: 세 축이 어떻게 유동성을 말려버렸는가


2-1. 기업 축: 빅테크의 현금 소각 → AI CAPEX → 대출시장 흡수


지난 10여 년을 한 줄로 요약하면, **“빅테크가 현금을 벌어 쌓고, 그 현금을 주주환원으로 태우던 시대”**였다.

그러나 AI 경쟁이 본격화되면서, 이 구도는 뚜렷하게 바뀌고 있다.

  • AI CAPEX 스케일업

    • AI 데이터센터, GPU, 전력 인프라, 네트워크, 소프트웨어 인력 등

    • 단일 프로젝트당 수십억~수백억달러 규모의 장기 투자가 동시에 진행 중이다.

  • 현금 흐름 구조 변화

    • 현금 유출은 지금,

    • 수익 회수는 중장기에 발생하는 구조이므로,

    • 빅테크는 그간 쌓아둔 현금성 자산을 빠르게 소진하고 있다.

  • 외부 자금 조달 확대

    • 부족분은 회사채·CP·대출시장에서 조달하기 시작했다.

결과적으로, 과거에는 유동성의 최종 공급자에 가까웠던 빅테크가,
지금은 유동성의 최상위 수요자로 변신한 셈이다.

은행·자본시장은 신용도·규모·수익성 측면에서 우선순위가 높은 대형 플레이어에게 먼저 자금을 공급한다.

그만큼 중소기업·부동산·기타 차입자에게 돌아갈 대출 여력은 줄어들고,
이것이 시중에서 체감하는 유동성 부족으로 나타난다.

2-2. 연준 축: QT로 2조달러 넘게 빨아들인 대차대조표


이 민간 측 구조 변화 위에서, 연준은 2022년 이후 QT를 통해 B/S를 2조달러 이상 축소했다.

  • 팬데믹 정점 약 9조달러 수준이던 자산이
    → 최근 6조 중반대까지 내려왔다.

  • 이는 곧 은행 준비금·RRP 등 금융시스템 유동성을 구조적으로 흡수한 것이다.

  • 특히 ON RRP 잔액이
    2.6조달러 수준에서 사실상 0 근처까지 내려오면서,
    이제 QT를 추가로 더 진행할 경우, 준비금 자체를 “살” 깎듯 줄여야 하는 단계에 진입해 있었다.

2-3. 자금시장 축: 세 축이 겹친 “트리플 드라이” 구조


정리하면, 현재 유동성 환경은 다음 세 축이 겹친 결과이다.

  1. 빅테크

    • AI CAPEX로 내부 현금 소진 + 시장에서 자금 흡수

  2. 연준

    • QT로 B/S 축소, 준비금·RRP 축소

  3. 자금시장

    • 빅테크·대형 프로젝트에 우선적으로 자금 공급,

    • 여타 부문에는 대출·유동성 부족이 체감되는 구조

이 세 축이 동시에 작동하면서, 지금의 유동성 환경은

“이전과 구조적으로 다른 수준의 마름(dryness)”


을 보이는 국면이라고 할 수 있다.


3. 에너지·AI·주거비: 물가를 식혀놓은 세 가지 축


아이러니하게도, 유동성은 이렇게 마른데 물가는 상대적으로 안정되어 있다. 그 뒤에는 세 가지 요인이 있다.

3-1. 에너지: 중동 재편 + OPEC·러시아 제재가 만든 유가 안정


정치·지정학 관점에서 보면, 최근 유가 안정은 상당 부분 정책 결과이다.

  • 러시아산 저가 오일에 대한 제재·가격 상한

  • 사우디·OPEC에 시장 점유율·생산능력 확대 여지를 부여하는 미국의 전략

  • 사우디에 대한 안보·무기 공급과 교환된 공급 여력 보장

이 조합이, **“충분한 생산능력을 전제로 하되, 급등은 제어된 유가 레짐”**을 만들어 놓았다.
이는 CPI·PCE에서 에너지 항목을 안정시키는 가장 강력한 하방 요인이다.

3-2. AI: 서비스 물가를 누르는 “보이지 않는 디플레”


AI는 서비스 부문에 구조적인 디플레 압력을 걸고 있다.

  • 단순 반복 사무직, 콜센터, 번역, 코드·리서치 일부 등
    지식 노동의 상당 부분이 “사람 1 + AI 1” 구조 혹은 AI 중심 자동화로 재편된다.

  • 이 과정에서

    • 해당 직군의 임금 교섭력은 약화되고,

    • 기업 입장에서는 원가 절감 + 생산성 향상이 동시에 발생한다.

  • 미국 CPI·PCE에서 서비스 비중이 압도적으로 크다는 점을 감안하면,
    AI는 서비스 물가 상단을 장기적으로 눌러주는 힘으로 작용한다.


즉, AI CAPEX는 성장·수요를 밀어올리면서도, 동시에 서비스 물가를 식히는 모순적인 힘을 동시에 행사하고 있는 것이다.

3-3. 주거비: 선행지표 기준 고점 통과 + 통계 반영의 지체


주거비의 경우,

  • 실물 임대료·리얼타임 렌트 지표 기준으로는 이미 고점을 통과해 둔화 국면에 접어들었고,

  • CPI·PCE에는 **지체(lag)**를 두고 반영되는 구조이다.


따라서 앞으로는 헤드라인·코어 물가에서 주거비 관련 세부 항목이 완만하게 식어갈 여지가 크다.

이렇게 에너지·AI·주거비를 합쳐보면, 현재는

“유동성은 마르는데, 물가는 구조적으로 식어가는 기묘한 조합”


이 만들어져 있는 시기라고 정리할 수 있다.


4. 이번 FOMC 이후 연준의 좌표: QT 종료와 ‘준비금 관리형 매입’


이제 다시 연준과 FOMC로 돌아가 보자.

4-1. QT는 형식·실질 모두에서 종료


연준은 10월 FOMC에서 이미 **“2025년 12월 1일부로 증권 보유 축소(runoff)를 종료한다”**고 명시했다.

즉, 제도·운영상 QT는 공식적으로 끝난 상태이다.

  • 더 이상 만기 상환분을 그냥 소멸시키지 않고,

  • 만기 도래 금액을 전액 재투자하는 모드로 전환했다.

4-2. 대신 등장한 도구: T-bill 매입(RMP, Reserve Management Purchases)


QT 종료와 동시에, 연준·뉴욕연은은 **“준비금 관리형 매입(RMP)”**이라는 새로운 B/S 도구를 꺼냈다.

  • 목적

    • “준비금이 ample 수준을 유지하도록 하기 위해”

    • 현금통화, TGA, RRP 등 비지준 부채의 변동을 상쇄하면서 준비금 레벨을 관리하는 것이다.

  • 수단

    • **T-bill(필요 시 만기 3년 이하 국채)**를 2차 시장에서 매입하는 방식,

    • 첫 달 기준 약 400억달러 규모를 예고했다.

  • 형식적 포지셔닝

    • 연준은 반복해서
      **“이는 QE가 아니라, 단기금리 통제를 위한 기술적 수단(technical operation)”**이라고 강조한다.

그러나 현실적으로 보면,

  • QT로 2조달러 이상 유동성을 이미 흡수한 뒤,

  • RRP가 거의 고갈된 상태에서,

  • 다시 B/S를 늘려 준비금을 채워 넣는 방향으로 회전하고 있다.

그래서 시장 입장에서는, 현재 국면을

“형식상은 RMP, 실질적으로는 QE-lite/technical QE에 가까운 유동성 전환”


으로 해석하게 된다.


5. 인구구조·반세계화·AI: 연준 위에 덮여 있는 구조적 레이어


이 거시적 통화정책 위에는 더 큰 구조적 힘이 하나 더 얹혀 있다.

5-1. 저출산·고령화·반세계화: 구조적 인플레이션 압력


그린스펀식 문제의식은 대략 다음과 같이 요약된다.

  • 저출산·고령화

    • 생산가능인구 감소 → 노동력 부족 → 임금 상승 압력

    • 고령화 → 복지·의료 지출 확대 → 재정지출·정부부채 증가

  • 반세계화·탈세계화

    • 저임금 국가로의 아웃소싱과 글로벌 분업 구조가 흔들리면서,

    • 비용이 더 높은 공급망 재편이 이루어진다.

이 둘을 합치면,

“장기적으로 물가와 금리가 위쪽에서 버티려는 구조적 힘”


이 생긴다.

 이 힘은 정책금리 25bp·50bp 조정으로 쉽게 뒤집을 수 없는 스케일이다.

5-2. AI: 구조적 디플레와 성장 동력의 이중 역할


반대로 AI는 다음과 같은 이중 효과를 갖는다.

  • 노동 대체·생산성 향상

    • 서비스 부문 임금 인플레이션과 단가를 장기적으로 누르는 힘(구조적 디플레)

  • 신성장·CAPEX·부가가치 창출

    • AI CAPEX, 신산업, 플랫폼 비즈니스 확장을 통해

    • 성장률·기업 수익성을 끌어올리는 축

즉,

  • 인구구조·반세계화구조적 인플레이션을,

  • AI구조적 디플레이션을 만들어내며,


이 두 힘이 충돌하는 가운데, 연준은 그 위에서 완충장치 역할을 수행해야 하는 상황이다.

5-3. 연준의 실질적 독립성 약화


이 구조 속에서, 연준의 실질적 “힘의 배분”에도 변화가 생긴다.

  • 재정·정치의 요구

    • 높은 국가부채·복지·국방 지출 등을 고려하면,

    • 낮은 금리·안정된 채권시장·적당한 인플레이션이 정치적으로 선호된다.

  • AI 전환에 따른 고용 충격

    • 특정 직군·계층·지역에 실업·임금 정체가 집중될 수 있으며,

    • 이를 완화하기 위해
      기준금리를 과도하게 높은 수준에 오래 두기 어려운 정치·사회적 제약이 커진다.

결국 연준은, 시간이 갈수록

“물가 안정”과 “고용 안정” 사이에서, 구조적으로 고용 쪽을 더 중시할 수밖에 없고,
그 과정에서 중립금리는 내려앉으며, 상시적인 약완화·B/S 확대 쪽으로 기우는 중앙은행


이 될 가능성이 높다.

실질적으로는,

  • 정책금리의 파워는 줄고,

  • B/S 운용(유동성·준비금 관리)과 고용 안정 기능이 상대적으로 강조되는 방향으로 역할이 바뀐다.


6. “진짜 QE까지 갈 수 있느냐”를 볼 때 체크해야 할 방향·지표


결국 FED의 QE로 가는 방향성은 확실시 되고 있고, 그 속도를 면밀히 지켜볼 필요가 있다.  


**“지금이 QE인지, QE로 가는 길목인지, 아니면 단지 기술적 RMP인지”**를 구분하려면, 무엇을 봐야 하는가.

6-1. 자산 측(Assets): B/S 규모와 구성

  1. 총자산(WALCL)

    • QT 이후 이어지던 하락 추세가 확실히 멈추는지,

    • 더 나아가 분기·연 단위로 명확한 우상향 추세로 전환하는지.

  2. Securities Held Outright(WSHOSHO)

    • B/S 재확대가 T-bill 위주 증가에 그치는지,

    • 아니면 5~10년 이상 장기 국채·MBS 보유액이 일관되게 증가하는지.

    • 전자는 RMP·기술적 매입, 후자는 QE에 가까운 시그널이다.

6-2. 부채·유동성 측(Liabilities): Reserves·RRP·TGA

  1. 은행 준비금(Reserves)

    • QT 말기에 감소하던 준비금이 바닥을 찍고 재상승하는지.

  2. ON RRP

    • 이미 0 근처라 공간은 제한적이지만,

    • 이 상태에서 B/S가 늘어나면, 추가 매입이 곧바로 준비금 증가로 이어질 가능성이 커진다.

  3. TGA(재무부 일반계정)

    • 납세 시즌 전후로 출렁인 뒤,

    • 이후에는 완만한 하향 안정 경로를 보이면서

    • 준비금 증가와 동행하는 패턴이 나타나는지.

요약하면,

Reserves ↑ + RRP 저점 + TGA 완만한 하향


이 세 가지가 동시에 나오면,
**“B/S 재확대가 실제 시스템 유동성 완화로 작동하는 국면”**에 진입했다고 볼 수 있다.

6-3. 커뮤니케이션과 시장 가격

  1. 연준의 언어 변화

    • 자산매입 목적이

      • “준비금 관리·단기금리 통제”에서

      • “금융여건 완화·경기·고용 지원·디플레 리스크 대응”으로 이동하는지.

  2. 시장 가격 반응

    • 장기금리 term premium

      • 자산매입 기대와 함께 의미 있게 하락하는지,

    • 하이일드·크레딧 스프레드가

      • 연준 B/S 확대와 동행해 구조적으로 눌리는 패턴을 보이는지.

자산·부채·커뮤니케이션·가격 네 축이 동시에 QE 방향으로 기울면,
그때는 **“이제는 진짜 QE”**라고 불러도 무리가 없을 것이다.

현재는 그 직전 단계, 즉

QT 종료 + RMP(준비금 관리형 매입) + 고용 중시로의 무게 이동


이라는 정도로 정리하는 것이 가장 정확하다고 본다.


2부. AI·금속 슈퍼사이클·연준 전환·건설장비: 압축 투자 프레임


이제 1부에서 깔아 놓은 거시 구조 위에,
AI·금속 슈퍼사이클·연준 전환·건설장비를 하나의 투자 프레임으로 올려본다.

1. AI CAPEX와 전기화가 만든 금속 슈퍼사이클 초입


1-1. AI 데이터센터·전력망·EV·태양광: 구리 집약적 CAPEX


AI 데이터센터, 송배전망, 재생에너지, EV, 고성능 반도체는 모두 구리를 과도하게 사용하는 인프라이다.

  • 데이터센터 전력 수요는 2030년까지 두 배 이상 증가할 것으로 추정되며,

  • 전력망 투자도 AI·전기화 수요로 가파른 상향 추세이다.

  • 데이터센터 1MW당 구리 사용량이 기존 센터 대비 2배 이상이라는 추정도 존재한다.

한 줄로 정리하면,

“AI CAPEX + 전기화 = 구리 수요의 2차 충격”


이다.

1-2. 구리·귀금속의 구조적 공급 부족과 가격 레짐 전환


이 수요 충격은 이미 구리 가격 레짐 자체를 위로 끌어올리는 단계에 진입했다.

  • 신규 대형 광산 개발은 규제·환경·정치 리스크로 잦은 지연을 겪고 있고,

  • 기존 광산은 광석 품위 저하 + 비용 인플레이션으로 부담이 커졌다.

  • 이 와중에 전력망·AI·EV·태양광 수요가 한꺼번에 겹치면서,
    **다년간의 구조적 공급 부족(Structural deficit)**이 예상되는 그림이 형성되고 있다.

동시에 금·은 등 귀금속은,

  • 반도체·전자·태양광 등 기술·산업용 수요가 꾸준히 증가하는 가운데,

  • AI·전기화 CAPEX와 맞물리면서,
    산업용 수요 + 인플레이션 헤지 수요가 동시에 붙은 상태이다.

즉,

“구리(산업금속) + 금·은(귀금속)의 채산성 레짐이 동시에 상향 조정된 구간”


이고, 이 레짐 전환은 광산 CapEx 의사결정을 구조적으로 바꾸기 시작했다.


2. 미국 NSS·아프리카 전략: 광산 CapEx의 지리적 분산


미국의 새로운 국가안보전략(NSS)은 **“핵심 광물 + 아프리카 경제 교류”**를 핵심 축으로 올려놓았다.

  • 미국은 다수 핵심 광물에서 수입 의존도가 매우 높고,

  • 아프리카는 세계 매장량의 큰 비중을 보유하고 있다.

  • 중국은 이미 2009년 이후 아프리카 최대 무역·투자 파트너이고,

  • 미국은 뒤늦게 FDI·교역을 확대하는 중이다.

이는 곧,

“미·중·유럽의 핵심 광물 확보 경쟁 → 아프리카·라틴·신흥국 광산 프로젝트 재가동”


이라는 의미이다.

구리·금·은 가격 레벨이 받쳐주고,
정치·안보 전략이 뒤에서 밀어주는 조합 속에서 CapEx는
캐나다·미국·호주 같은 전통 광구뿐 아니라,
아프리카·남미 등 신흥 프로젝트로 지리적으로 분산된 형태로 풀릴 가능성이 높다.


3. 연준 전환과 금리 인하: 건설·주택·인프라 쪽 온기


1부에서 보았듯, 연준은

  • QT를 종료했고,

  • **T-bill 매입(RMP)**으로 준비금 관리를 시작했으며,

  • 고용 둔화에 대응해 기준금리 인하로 방향을 틀었다.

이 조합은,

  • 모기지금리·부동산 금융 여건 완화,

  • 전력망·데이터센터·도로·항만 등 인프라 CAPEX에 대한 자금 조달 부담 축소,

  • 신흥국 입장에서는 강달러·고금리 압력 완화로 이어질 수 있다.

결과적으로,

금속 슈퍼사이클이 광산 CapEx를 밀어 올리고,
금리 인하·유동성 전환이 건설·주택·인프라 쪽에 온기를 불어넣는 조합

 

이 형성되는 구간에 진입하고 있다.


4. 광물 → 광산 CapEx → 건설기계: 수요 브리지


수요 브리지를 구조적으로 정리하면 다음과 같다.

  1. AI·전기화
    금속 수요 증가
    금속 가격 레짐 상향

  2. 금속 가격 레짐 상향
    광산 채산성 개선
    광산 CapEx 증가

  3. 광산 CapEx 구성

    • 신규 광산 개발: 부지 정지, 도저, 굴삭기, 덤프 트럭

    • 기존 광산 확장·자율·전동화: 대형 트럭, 로더, 자율 솔루션 등

  4. 인프라·주택·도시화 CapEx

    • 전력망, 데이터센터, 도로, 항만, 상·주거용 건설

    • 금리 인하에 따른 주택·상업 건설 회복

  5. 결과

    • **중대형 건설장비(굴삭기·휠로더·덤프 등)**에 대한
      교체 수요 + 증설 수요가 동시에 증가한다.

이 구조에서 건설기계 업체는,

“금속 가격 → 광산 CapEx → 장비 수요”라는 긴 밸류체인의 마지막 구간에 있지만,
CapEx 사이클에는 가장 직접적으로 레버리지되는 포지션

 

이라고 볼 수 있다.


5. 건설기계 투자 아이디어로의 연결


이 모든 것을 투자 아이디어 관점에서 간단히 묶으면 다음과 같다.

5-1. 테마 정의

  • AI CAPEX + 전기화 → 금속 슈퍼사이클 → 광산 CapEx 확대

  • 연준의 QT 종료 + RMP + 금리 인하 → 건설·주택·인프라 쪽 유동성 완화


이 두 축이 겹치면서,

“광산 + 인프라 + 주택” 삼중 사이클


이 만들어질 여지가 크다.

5-2. 밸류체인 상 포지션

  • 업스트림: 금속·광산 회사 (가격 레벨에 직접 노출)

  • 미들스트림: 제련·소재·케이블

  • 다운스트림 CapEx 레버리지:

    • 광산·인프라·건설 현장에 장비를 공급하는 중대형 건설기계 업체

5-3. 건설기계의 장점

  • 금속 가격 상승이 직접적인 마진 압박으로 이어지는 구조가 아니라,
    오히려

    • 광산·인프라 발주 증가 → 볼륨 확대,

    • 중대형·고사양 장비 비중 확대 → 믹스 개선,

    • 가격 전가 여력 증가까지 동반할 수 있다.

  • 광산·금속 기업 대비

    • 가격 탄성은 낮지만,

    • **CapEx 사이클·장비 교체 수요에 더 직결된 “Equipment 베타”**라고 볼 수 있다.

5-4. 지리적 레버리지

특히 아프리카·신흥국·유럽에 이미 영업·서비스 네트워크를 깔아 둔 업체는,

  • 미국 NSS,

  • 미·중·유럽의 자원 확보 경쟁이 촉발할

“아프리카·신흥국 자원개발 CapEx”

 

에 자연스럽게 올라탈 수 있다.


맺음말


정리하면,

  • 1부에서는

    • QT·QE라는 도구의 본질,

    • 빅테크·연준·자금시장이 함께 유동성을 말려온 구조,

    • 에너지·AI·주거비가 물가를 식혀놓은 메커니즘,

    • QT 종료와 RMP라는 새로운 B/S 레짐,

    • 인구구조·반세계화·AI라는 구조적 레이어,

    • 그리고 “진짜 QE”를 구분하기 위한 지표를 정리했다.

  • 2부에서는

    • AI CAPEX와 전기화가 만든 금속 슈퍼사이클,

    • 미국 NSS·아프리카 전략이 불러올 광산 CapEx의 지리적 분산,

    • 연준 전환과 금리 인하가 건설·주택·인프라에 주는 온기,

    • 광물 → 광산 CapEx → 건설기계로 이어지는 수요 브리지,

    • 그리고 중대형 건설장비를 “금속 슈퍼사이클 × 연준 전환”의 실물 레버리지 플레이로 보는 투자 프레임을 정리했다.

=끝

2025년 12월 9일 화요일

생각정리 140 (* Alex Karp, Palantir Technology)

이전에 팔란티르 테크놀로지(Palantir Technologies)의 CEO이자, 현재 미국에서 가장 주목받는 인물 중 한 사람인 알렉스 카프가 쓴 『기술 공화국 선언』을 읽었다.

평소 알렉스 카프의 인터뷰와 기사, 영상들을 꾸준히 챙겨봐 온 터라, 책 자체에서 특별히 새로운 정보를 얻었다는 느낌은 크지 않았다. 이미 여러 차례 들어본 그의 주장과 세계관이 정리된 텍스트라는 인상이 강했고, 그래서 비교적 가볍게 읽어 내려갔던 것으로 기억한다.

그럼에도 불구하고, 이 책을 통해 알렉스 카프라는 인물 자체를 보다 입체적으로 이해하게 되었다는 점은 분명하다. 그의 인생사와 인생관, 철학적 태도, 그리고 그런 성향이 고스란히 반영된 팔란티르 테크놀로지라는 회사의 성격을 이전보다 더 선명하게 바라볼 수 있게 되었다.

이번 글에서는 그 연장선에서, **알렉스 카프 – 팔란티르 테크놀로지 – 그리고 이를 둘러싼 현재 미국의 ‘시대정신’**이라고 부를 만한 흐름을 간략히 정리해 두고자 한다.
 


왜 지금, 알렉스 카프인가


알렉스 카프(Alex Karp)는 오랫동안 실리콘밸리에서 “괴짜 철학자 CEO” 정도로 취급받던 인물이다.
유대계·흑인 혼혈, 난독증, 좌파적 집안, 독일 프랑크푸르트에서 철학 박사를 마친 뒤,
CIA가 투자한 데이터·군사 소프트웨어 회사 **팔란티르 테크놀로지(Palantir Technologies)**를 공동 창업한 사람이다.

기본적인 이력은 위키피디아 ‘Alex Karp’ 항목에서 확인할 수 있다. (위키백과)


wiki


한때 팔란티르는 실리콘밸리에서 “군산복합체와 너무 가까운 이상한 회사” 정도로 여겨졌고,
카프 역시 주류 테크 서사에서 비켜나 있던 인물이었다.

그런데 러시아–우크라이나 전쟁, 중동 전쟁, 미·중 패권 경쟁, 구조적 저성장과 부채,
군비 재무장과 AI 군사화가 동시에 진행되는 지금,
카프와 팔란티르는 전혀 다른 의미로 시장과 정치의 중심에 떠올랐다.

이 글은 다음 네 가지 축을 따라 카프와 팔란티르를 정리한다.

  1. 알렉스 카프의 인생사와 인생관 형성 과정

  2. 박사논문에 드러난 그의 내면적 세계관

  3. 그 세계관이 구현된 팔란티르 테크놀로지라는 회사

  4. 왜 지금에서야 카프와 팔란티르가 재조명되는지 – 시대 구조의 변화


1. 인생사: 항상 “벽 쪽에 서 있던” 아이


1-1. 흑인과 유대인, 과학과 예술의 경계에서


알렉스 카프는 1967년 뉴욕에서 태어나 필라델피아에서 자랐다.
아버지는 독일계 유대인 소아과 의사, 어머니는 아프리카계 미국인 예술가였다.
이 기본적인 배경은 위키피디아와 간단한 전기 기사 등에 잘 정리돼 있다. (위키백과)

즉, 그는

  • 인종적으로는 흑인과 백인의 경계,

  • 문화적으로는 유대계 인텔리 전통과 흑인 커뮤니티,

  • 가정 배경으로는 과학(의사)과 예술(화가)

이 교차하는 지점에 서 있었던 셈이다.

카프는 인터뷰에서
“어떤 흑인은 나를 흑인으로 보지만 어떤 흑인은 그렇지 않다”고 말하며,
자신을 특정 범주보다 **그냥 ‘나’**로 본다고 이야기한다. (위키백과)
어릴 때부터 어디에도 완전히 속하지 못하는 주변인이라는 감각을 갖고 있었다고 볼 수 있다.

1-2. 빈곤과 난독증: 불리하게 설계된 시스템


표면적으로 “의사+예술가” 가정이라 중산층처럼 보이지만,
카프는 최근 인터뷰에서 어린 시절을 **“poverty and hardship(빈곤과 고난)”**으로 회상한다.
대표적으로 AOL 기사가 그의 난독증과 어려운 성장 환경을 비교적 상세히 다루고 있다. (AOL)


여기에 **난독증(dyslexia)**이 겹친다.
그는 어려서부터 글자를 읽고 쓰는 데 큰 어려움을 겪었고,
학교 시스템 안에서 “문제아”에 가까운 취급을 받았다고 한다.
그 대신, 텍스트를 그대로 읽기보다 추상적 구조와 패턴을 잡는 방식으로 사고해야 했고,
카프 본인은 이것이 나중에 팔란티르를 만드는 데 중요한 자산이 되었다고 말한다. (AOL)

즉, 도시 빈곤, 난독증, 인종적 애매한 정체성은 한 방향으로 수렴한다.

  • 사회의 규칙과 제도는 “정상적인 다수”에게 맞춰져 있고,

  • 자신 같은 사람에게는 항상 불리하게 설계되어 있다는 체감,

  • 국가와 사회의 강제력은 언제든 자신 쪽으로 향할 수 있다는 정서적 기본값이다.

이 감각이 나중에 그가 군사력, 감시, 국가 폭력을 이야기할 때
동시에 **“그 폭력이 나 같은 소수자에게도 돌아올 수 있다”**는 자의식으로 작동한다.

1-3. 좌파 인권운동의 공기


위키피디아에 따르면,
카프의 부모는 미국 시민권·인권 운동에 적극적으로 참여한 진보적 좌파 가정이었다.
카프는 어릴 때부터 시위 현장에 갔고,
인종차별과 파시즘, 국가 폭력에 대한 경계심을 자연스럽게 배웠다. (위키백과)


그는 훗날, 파시즘이 다시 온다면
자신이 **“벽에 1번이나 2번으로 세워질 것”**이라고 항상 생각해 왔다고 말한 바 있다(프로필 기사 인용). (CEO Today)

요약하면, 카프의 유년기는 세 가지 층위를 가진다.

  • 인종·정체성의 경계인

  • 경제·교육 시스템에서의 불리한 위치

  • 좌파 인권·반파시즘 감수성을 가진 정치적 공기

이 셋이 합쳐져, 그는 일찍부터
**“폭력과 강제력은 항상 배경에 깔려 있는 현실”**이라는 인식을 몸에 새긴 사람이라고 볼 수 있다.


2. 철학적 인생관: 폭력은 예외가 아니라 구조이다


2-1. 법학과 독일 사회이론: 폭력–제도–무의식


카프의 학문 경로는 매우 명확하다.

  • 하버퍼드 대학에서 철학·문학 전공

  • 스탠퍼드 로스쿨에서 법학박사(JD) 취득

  • 독일 프랑크푸르트 괴테대에서 사회이론(네오고전 사회이론) 박사

  • 지크문트 프로이트 연구소에서 연구원으로 활동위키피디아 (위키백과)

법학은 국가 강제력과 규범을 다루는 학문이고,
프랑크푸르트학파·정신분석 전통은 권력·이데올로기·무의식을 분석하는 도구이다.

카프는 처음부터 **“폭력–제도–무의식”**이라는 삼각형을 파고드는 길을 택한 셈이다.
이 선택은 그대로 그의 박사논문, 그리고 팔란티르의 철학적 기반으로 이어진다.

2-2. “서구는 조직된 폭력 능력으로 떠올랐다”


카프는 투자자 서한과 인터뷰에서 여러 차례
사무엘 헌팅턴(Samuel P. Huntington)의 명제를 인용한다.

서구의 부상은 아이디어나 가치, 종교의 우월성 때문이 아니라
조직된 폭력을 적용하는 능력의 우월성 때문이었다.

 

이는 위키피디아의 정치관 관련 서술을 비롯해
여러 기사에서 반복적으로 등장하는 인용이다. (위키백과)

카프는 이 명제에 동의하면서,
서구가 이 사실을 잊고 있다고 비판한다.

그의 개인사와 결합하면 이 인식은 자연스럽다.

  • 개인적으로 그는 국가 폭력의 피해자가 될 수 있는 위치에서 자라났고,

  • 연구자로서 공격성과 폭력이 사회질서 속에 어떻게 내재하는지를 이론적으로 분석했으며,

  • 정치적으로는 서구 문명이 폭력의 적용 능력으로 지탱되어 왔다는 현실을 인정한다.

여기서 그의 기본 세계관이 정리된다.

  1. 폭력은 인간과 사회에서 제거할 수 없다.

  2. 문제는 그 폭력을 누가 어떤 규범 아래에서 어떻게 행사·관리하느냐이다.

  3. 자신이 속한 서구·자유민주 진영이
    충분한 조직된 폭력 능력을 갖추지 못하면,
    언젠가 자신과 같은 소수자에게 훨씬 더 야만적인 폭력이 돌아올 수 있다.

이 세계관이 나중에
**“서구의 조직된 폭력 능력을 데이터·AI로 극대화하되,
민주주의 안에서 관리하겠다”**는 팔란티르의 전략으로 연결된다.


3. 박사논문: 생활세계 속 공격성과 엘리트 담론


3-1. 논문 제목과 기본 구조


카프의 박사논문 제목은 다음과 같다.

Aggression in the Lifeworld: Expanding Parsons’ Concept of Aggression Through the Description of the Relationship Between Jargon, Aggression, and Culture
(“생활세계 속 공격성: Jargon, 공격성, 문화의 관계를 통해 파슨스의 공격성 개념을 확장하기”)


영문 번역본은 이 PDF에서,
독어 원문은 프랑크푸르트 대학 저장소 OPUS 페이지에서 볼 수 있다. (saismaran.org)

논문의 큰 뼈대는 다음과 같다.

  1. 탈컷 파슨스(Talcott Parsons)의 공격성 개념 재검토

  2. 아도르노(Theodor W. Adorno)의 ‘진정성의 전문용어(Jargon der Eigentlichkeit)’ 분석

  3. 헬무트 플레스너(Helmuth Plessner)의 독일 역사·사회 분석

  4. 마르틴 발저(Martin Walser) 논쟁 사례 분석과 종합[논문 목차 부분] (saismaran.org)

핵심 질문은 한 줄로 요약하면 이렇다.

현대 사회에서 공격성·폭력 욕망은 어떻게 언어와 문화 속에서
‘괜찮은 것’처럼 정당화되는가?

 

3-2. 생활세계 속 공격성: 일탈이 아니라 구조


카프는 **“생활세계(lifeworld)”**라는 개념을 사용한다.
이는 법·제도·통계가 아니라,
우리가 일상에서 경험하는 대화, 미디어, 감정의 세계를 뜻한다.

그는 파슨스의 이론을 출발점으로 삼되,
공격성을 단순한 “사회화 실패의 부산물”로만 보는 파슨스를 비판한다.

카프의 수정은 다음과 같다.

  • 공격성은 질서를 깨는 예외가 아니라,
    질서를 떠받치는 긴장 요소이기도 하다.

  • 외부의 적을 상정하고 내부 결속을 강화하는 데
    공격성이 정교하게 동원될 수 있다.

  • 따라서 정상적인 시민, 지식인, 엘리트
    공격성의 핵심 행위자이다.[논문 2장 내용 요약] (saismaran.org)

다시 말해,
폭력과 공격성은 사회 바깥의 일탈이 아니라
사회 내부를 재조직하는 에너지
라는 것이다.

3-3. Jargon: 고상한 언어 속에 숨은 공격성


논문의 부제가 말해주듯,
카프는 **Jargon(전문용어, 특유의 고상한 말투)**에 주목한다.

아도르노의 『진정성의 전문용어(Jargon der Eigentlichkeit)』를 따라, 그는 이렇게 본다.

  • Jargon은 단순한 어려운 말이 아니라,
    자기 집단의 도덕성과 깊이를 과시하는 언어 코드이다.

  • “기억의 남용”, “도덕적 몽둥이”, “정상국가” 같은 표현들은
    실제로는 금기된 공격성(예: 홀로코스트 피로감, 반유대주의적 정서)을
    우회적으로 표현·정당화하는 기능을 한다.[논문 3장 요약] (saismaran.org)

여기서 공격성은 Jargon 속에 흡수되어,
“고상한 언어”의 형태로 실행되는 사회적 행위
가 된다.

카프는 이를 독일이라는 특수한 역사·문화 맥락 속에서 읽어낸다.
파시즘과 홀로코스트 이후, 노골적인 폭력 언어는 금지되었지만, 그 감정 자체는 Jargon의 형태로 계속 돌아온다는 것이다.

3-4. 발저 논쟁: 기억 피로감과 공격성의 귀환


카프는 1998년 작가 마르틴 발저의 수상 연설과,
그 이후의 **“발저 논쟁”**을 사례로 분석한다.

발저는 홀로코스트에 대한 지속적인 상기와 기념이
오늘날 독일인에게 과도한 죄책감을 강요한다는 취지의 발언을 했다.
이 연설은 독일 사회에 거센 논쟁을 불러일으켰다.


카프의 해석은 다음과 같다.

  • 표면적으로는 “기억 정치에 대한 철학적 비판”처럼 보이지만,

  • 심층에서는 홀로코스트 피로감, 반유대주의적 공격성
    도덕적·철학적 언어로 포장해 정당화하는 Jargon이 작동하고 있다.[논문 4장 요약] (saismaran.org)

이 분석을 통해 그는 결론에 이른다.

공격성은 사회적 금기 때문에 사라지는 것이 아니라,
언어와 문화 속에서 다른 이름으로 돌아온다.
특히 엘리트 담론은 이를 정교하게 가려주면서 동시에 동원한다.

 

이 인식은 훗날
**“서구의 군사력·정보력·감시 능력을 어떻게 말하고, 어떻게 정당화할 것인가”**라는
카프의 정치·경영적 선택에 직접 연결된다.


4. 팔란티르 테크놀로지: 세계관의 기업 형태


4-1. CIA에서 전장까지: 서구 폭력의 운영체제


팔란티르는 2003~2004년경,
CIA의 벤처캐피털인 In-Q-Tel의 초기 투자를 받으며 출발했다.
테러 대응과 정보 분석을 위해 만들어진 데이터 분석 플랫폼이었다는 것은
위키피디아 ‘Palantir Technologies’ 항목
여러 초기 보도에서 공통적으로 확인된다. (위키백과)

현재 팔란티르는 다음과 같은 역할을 수행한다.

  • 정부·군사 영역

    • 미국 국방부, 정보기관, 이민세관단속국(ICE), 유럽 동맹국 등의
      데이터 통합·정보 분석 플랫폼

    • 우크라이나 전쟁에서 위성·드론·전장 보고를 통합해,
      표적 선정·타격 결정을 돕는 시스템으로 사용되었다는 내용은
      TIME 기사 등에서 상세히 다뤄진다. (Palantir Investor Relations)

  • 평시 안보·행정

    • 세금 징수, 사기 탐지, 보건·인프라 데이터 관리 등
      정부 의사결정 인프라로 활용

2025년 기준으로 팔란티르는
Q4 2024 실적에서 연 매출 36% 성장(8.28억 달러),
2025년 매출 가이던스를 37.4~37.6억 달러 수준으로 제시했고,
이후 2025년 2분기에는 가이던스를 41.42~41.50억 달러로 상향 조정했다.
이는 Investor Relations 보도자료
미 SEC 공시에서 확인할 수 있다. (Palantir Investor Relations)

한마디로, 팔란티르는
**“서구 군사·정보·행정 체계가 데이터와 AI를 통해 폭력을 더 정밀하게 행사·관리할 수 있도록 하는 운영체제”**에 가깝다.

4-2. 반-Jargon 전략: “우리는 전쟁 소프트웨어 회사다”


흥미로운 점은,
박사논문에서 Jargon을 비판했던 카프
기업 커뮤니케이션에서는 오히려 탄탄하고 노골적인 언어를 쓴다는 것이다.

  • 그는 팔란티르를 “서구를 방어하는 회사”라고 규정하고,

  • “적에게 전쟁을 피할 만큼의 공포를 줘야 한다”고 말한다.
    (관련 내용은 위키피디아 정치관 서술과 각종 인터뷰 기사에서 반복적으로 확인된다.) (위키백과)

  • ICE와의 협력, 이스라엘·우크라이나 지원 등
    가장 논란이 큰 지점도 숨기지 않는다.
    최근에는 워싱턴포스트 기사에서
    팔란티르의 ICE 추방 시스템 지원이 상세히 보도되기도 했다. (The Washington Post)

이는 일종의 반-Jargon 전략이다.

  • 폭력과 강제력을 “데이터 분석”“효율화” 같은 중립어로 포장하기보다는,

  • 차라리 **“우리는 서구의 군사·정보·치안 능력을 기술적으로 증폭시키는 회사”**라고 솔직하게 말한다.

박사논문에서 비판했던
“폭력을 감추는 고상한 언어(Jargon)” 대신,
팔란티르는 **“폭력의 현실을 드러내는 노골적 언어”**를 택하고 있는 셈이다.
그 선택이 옳으냐는 별개의 문제지만,
카프의 철학적 일관성이라는 관점에서는 이해가 된다.


5. 왜 지금에서야 카프와 팔란티르가 재조명되는가


이제 질문으로 돌아가 보자.

왜 이제서야 그의 사고관·인생관·철학관이 주목을 받게 되었고,
왜 팔란티르는 이제야 성공할 수 있었을까?

 

5-1. 2000~2010년대: 평화의 배당과 테크 유토피아


2000~2010년대 세계는
냉전 붕괴 이후의 **‘평화의 배당’**을 누리던 시기였다.

  • 냉전은 끝났고,

  • 9·11 이후 테러와의 전쟁은 있었지만,

  • 대국 간 전면전은 없었다.

투자자와 사회의 관심은
광고, SNS, 전자상거래, 모바일, 클라우드 등
B2C 중심 빅테크에 쏠려 있었다.

이 시기에 CIA와 밀착해 군·정보기관을 상대하는 소프트웨어 회사
시장에서도, 실리콘밸리 문화에서도 주변부였다.
팔란티르는 10년 넘게 적자를 지속했고,
카프 본인도 “우리는 실리콘밸리의 프릭쇼였다”고 말한 바 있다. (CEO Today)

즉, 그들의 철학과 비즈니스 모델은
당시의 시대정신과 맞지 않았다고 보는 편이 정확하다.

5-2. 2020년대: 저성장·불평등·전쟁·군비 재무장의 결합


2020년대 들어 구조가 바뀌었다.

  1. 구조적 저성장과 장기 침체 우려

  2. 고부채·물가·소득 불평등

    • 각국 정부는 확장적 재정으로 저성장을 메우려 했고,
      그 결과 누적된 국가부채·금리 부담·재정 압박이 커졌다.

    • 생활비 상승은 저소득층의 앵겔지수를 악화시키고,
      정치적 양극화와 포퓰리즘을 자극하고 있다. (GreekReporter.com)

  3. 무역전쟁·패권경쟁·군비 재무장

    • 미·중 관세전쟁과 리쇼어링, 공급망 재편,

    • 러시아–우크라이나 전쟁, 중동 분쟁, 대만 리스크,

    • 나토와 동맹국들의 대규모 방위비 증액 등으로
      방산 수요와 군비 경쟁이 구조적으로 재점화되었다. (Reuters)

  4. 글로벌 군사비·무기 매출 사상 최고치

    • SIPRI에 따르면 2024년 전 세계 군사비는 약 2.7조 달러로
      1990년대 이후 가장 빠른 증가율을 기록했고,
      이는 로이터 기사에서 잘 정리돼 있다. (Reuters)

    • 상위 100대 방산기업의 무기 매출은 2024년에 6,790억 달러
      사상 최고치를 기록했는데,
      이는 AP 통신
      Greek Reporter 기사에서 공통적으로 인용된다. (AP News)

요약하면, 

저성장, 고부채, 물가압력, 소득불균형, 무역전쟁, 패권경쟁, 군비 재무장

 

이 한꺼번에 겹치면서
**“평화의 착시가 끝나고, 다시 야만의 시대가 열리는 국면”**이 도래한 것이다.

5-3. 그 위에서 재평가되는 팔란티르와 카프


이 환경 속에서 팔란티르는 두 가지 축에서 동시에 타이밍을 맞춘다.

  1. 외부 환경: 전쟁+AI 슈퍼사이클

    • 우크라이나 전쟁, 중동 분쟁에서
      팔란티르 소프트웨어가 실제 전장에 투입되며,
      “AI 전쟁 실험실”의 대표 기업으로 부상했다.
      관련 내용은 앞서 언급한 TIME 기사 등에서 상세히 확인할 수 있다. (Palantir Investor Relations)

    • 동시에 생성형 AI·LLM 붐이 일어나면서,
      **“AI를 실제로 굴릴 수 있는 엔터프라이즈/정부 인프라”**에 대한 수요가 폭발했다.

  2. 내부 변화: 적자 스타트업에서 수익성 있는 플랫폼으로

이 두 축이 만나는 지점에서,
카프의 “폭력 현실주의”와 팔란티르의 비즈니스 모델은
“저성장+고불안” 시대의 정합적인 해답 중 하나
로 재인식된다.


러시아–우크라이나 전쟁, 중동전쟁, 저성장·고물가·불평등, 무역·패권 전쟁이라는
여러 사회·지정학적 불안이 동시에 올라오면서,

“폭력을 정교하게 다루는 철학”과
“그 철학을 구현한 데이터·AI 안보 기업”

 

이 뒤늦게 시장과 정치의 요구에 맞아떨어졌다고 보는 것이 타당하다.


6. 맺음말: 한 개인의 내면에서 세계 구조까지


정리하면, 알렉스 카프와 팔란티르 테크놀로지는 다음과 같은 구조를 가진다.

  1. 인생사

  2. 철학·박사논문

    • 프랑크푸르트학파·정신분석·파슨스 이론을 결합해
      **“생활세계 속 공격성”**과 Jargon·문화·역사의 관계를 분석했다.

    • 공격성을 일탈이 아닌 질서를 떠받치는 구조적 힘으로 재정의하고,
      엘리트 담론이 폭력을 은폐·정당화하는 방식을 해부했다.
      (참고: 영문 논문 PDF) (saismaran.org)

  3. 팔란티르 테크놀로지

    • 서구 군사·정보·행정 체계가 폭력을 더 정밀하게 행사·관리할 수 있도록 하는
      데이터·AI 운영체제로 자리 잡았다.

    • 카프는 이를 숨기지 않고,
      “서구를 방어하는 기술”이라는 노골적인 언어로 설명한다.
      (참고: 팔란티르 IR 실적 자료) (Palantir Investor Relations)

  4. 시대 구조

결국, 

“평화의 시기가 끝나고 야만의 시대가 다시 도래했기 때문에,
그동안 지나치게 비관적이라고 여겨졌던 ‘폭력의 현실주의자’가
이제서야 시대의 언어가 된 것이다."


#글을 마치며


한번은 집에서 알렉스 카프 인터뷰 유튜브 영상을 틀어놓고 보고 있었는데, 와이프가 화면을 보더니 이렇게 말했다.

“와우, 여보 같은 사람이 여기 또 있네?”

그때는 나 스스로 “나는 저 사람처럼 그렇게 산만한 타입은 아닌데?”라고 생각해서, 솔직히 별로 공감이 되지 않았다. 그런데 시간이 지나 돌이켜보니, 와이프가 그런 말을 한 이유를 조금은 알 것 같기도 하다.

나는 한국 교육 시스템 안에서 언어 과목은 정말 형편없었지만, 다른 과목에서는 거의 만점에 가까운 성적을 받곤 했다.

아무리 노력해도 국어만큼은 도무지 점수가 오르지 않았다. 글을 읽을 때도 한 줄을 읽고 제대로 다음 줄로 내려가지 못하고, 줄을 건너뛰거나 다시 올라가는 식으로 텍스트를 매끄럽게 따라가지 못하는 경험을 자주 했고, 글의 전반적인 개요 및 구조가 쉽게 잡히지 않아 머릿속에서 혼잡되어 있다는 느낌을 받았던걸로 기억한다. 

심한 난독증이라고 부를 정도까지는 아니었겠지만, 적어도 **“정상적인 방식으로 글을 읽는 데 어려움이 있었던 사람”**이었던 것은 분명하다.

이런 문제가 어느 정도 해결된 것은 대학에 들어와서였다. 그냥 책을 많이 읽는 시간을 꾸준히 쌓다 보니, 읽는 속도와 집중력이 조금씩 나아졌고, 텍스트를 다루는 감각도 어느 정도는 보정된 느낌이 들었다. 다만 읽는 방식은 끝까지 남았다.

교과서·강의노트·모범답안을 그대로 받아들이는 게 잘 안 되었고, 대신 내용을 통째로 내 방식대로 재구성해서 이해해야만 비로소 잡히는 느낌이었다. 알렉스 카프가 말하는 것처럼, “남들이 쓰는 플레이북”을 그대로 따라가는 공부법은 애초에 나와 잘 맞지 않았던 것 같다는 생각을 뒤늦게 하게 된다.

대학 시절 과제 발표 시간에, 교수나 동기들이 보기에는 혼자 엉뚱한 소리를 하고 있는 것처럼 보였던 장면들도 떠오른다.

그때는 나도 왜 그렇게 말이 튀는지 잘 몰랐는데, 지금 생각해 보면 내 머릿속 구조와 남들이 공유하고 있는 구조가 애초에 달랐기 때문이었을 것 같다.

지금 주식투자를 할 때도 이 버릇은 그대로 이어지고 있다. 남들이 말하는 정석적인 투자 프레임이나 매뉴얼을 그대로 가져다 쓰기보다는, 시장 구조와 기업의 서사를 내 방식대로 해체하고 다시 조립하는 방식으로 이해하려 한다.

숫자·데이터 하나하나보다, 그 뒤에 있는 구조와 맥락을 먼저 잡는 쪽에 훨씬 가깝다.


그래서인지, 나라는 사람의 기질은
수동적으로 애널리스트 리포트를 읽고 소비하는 데 시간을 쓰기보다는,
직접 글을 써가며 내 나름의 구조화 프레임을 만들어가는 데 시간을 쓰는 쪽을 선호하게 만든 것 같다.


이 과정이, 남들과 투자 아이디어를 적극적으로 교류하고 토론하는 것의 필요성을 점점 덜 느끼게 된 데에도 어느 정도 영향을 미쳤을지 모르겠다.

남의 사고틀에 내 생각을 끼워 맞추기보다는, 내 사고틀을 스스로 다듬고 확장하는 것에 더 큰 의미를 두게 된 것이다.


아마 와이프는 알렉스 카프 인터뷰를 보면서, 내가 평소에 텍스트를 다루는 방식, 세상을 구조화해서 이해하려는 습관, 그리고 어딘가 “정상적인 공부법”과는 좀 다른 경로를 걸어온 느낌 같은 것들을 떠올렸던걸까?

그걸 한 번에 묶어서, 그냥 가볍게 “여보 같은 사람이 또 있네?”라는 말로 툭 던진 것이 아닐까 싶다.

=끝