2025년 11월 30일 일요일

생각정리 132 (* AlphaFold)

이번글의 핵심 메시지는 아래와 같다.

“우리는 이제 단백질의 문법을 이해하기 시작했고,
그걸 가지고 생명체의 부품을 직접 설계할 수 있는 시대에 들어서고 있다.”

 


0. 왜 하필 지금, 그리고 왜 바이오·제약인가


일리야 수츠케버는 최근 인터뷰에서,
지금의 거대 언어모델(LLM) 하나가 모든 걸 다 하는 시대보다는,

  • 위에 강력한 기반 AI가 있고

  • 그 위에 각 도메인에 특화된 수많은 니치 AI 서비스가 올라가는 구조를 예상했다.


즉, 그의 1차 목표는 “당장 초월적 슈퍼인공지능”이라기보다는,
현실 세계 거의 모든 문제에 쓸 수 있을 만큼 일반적이고 유용한 기반 AI를 만드는 쪽에 더 가깝다고 볼 수 있다.

 그 위에서 금융용 AI, 법률용 AI, 설계용 AI, 바이오·제약 AI 같은 것들이 파생·진화하는 그림이다.

현재 산업 지형을 이 관점에서 보면,
가장 큰 추가 부가가치를 만들어낼 분야는 바이오·제약일 가능성이 높지 않을까 했다.
그 한가운데에, **단백질 구조 예측 패러다임을 바꿔버린 AlphaFold(알파폴드)**가 자리하고 있다.


이전에 읽은 『알파폴드: AI 신약개발 혁신』과 관련 논의들을 바탕으로,

이 글에서는

  • 왜 단백질이 “언어”처럼 다뤄지기 시작했는지

  • AlphaFold와 그 이후의 단백질 디자인 기술이 무엇을 바꿔놓았는지

  • 이것이 의약·바이오 산업에 어떤 의미를 갖는지


를 정리해 두고자 한다.


1. 단백질은 사실상 하나의 ‘언어’이다


우리가 아는 단백질은 모두 아미노산이라는 작은 조각들이 줄줄이 이어진 사슬이다.

  • 아미노산 20종류 → 알파벳 20개

  • 아미노산이 이어진 서열 → 문장

  • 단백질 안의 기능 단위(도메인) → 문단 정도로 생각하면 이해가 쉽다.


    https://openbooks.lib.msu.edu/isb202/chapter/protein-structure-and-function/



    https://openbooks.lib.msu.edu/isb202/chapter/protein-structure-and-function/


요즘 인공지능이 사람 말을 배우는 방법과 매우 비슷하다.

  • 챗GPT 같은 언어모델
    수많은 문장을 읽으면서
    “어떤 단어 옆에는 어떤 단어가 자주 오는지”를 통계적으로 배운다.

  • 단백질 언어모델
    수억 개의 단백질 서열을 학습하면서
    “어떤 아미노산 옆에는 어떤 아미노산이 자주 오는지”를 배운다.

놀라운 점은, 이렇게 서열만 보고 학습한 모델 내부에

  • 단백질의 입체 구조에 대한 정보,

  • 기능에 중요한 위치에 대한 정보,

  • 서로 붙어서 상호작용하는 부분에 대한 정보가

꽤 많이 숨어든다는 것이다.

물론 이것이
“한 번 학습하면 구조가 공짜로 자동 튀어나온다”는 뜻은 아니다.
구조 예측에는 여전히 별도의 모델과 학습이 필요하다.

다만, “단백질 서열 = 의미 없는 코드”가 아니라,
분명한 문법과 규칙을 가진 언어
라는 인식은 거의 굳어졌다고 볼 수 있다.


2. 원래 단백질 구조 예측이 왜 그렇게 어려웠나


단백질이 몸 안에서 어떤 기능을 수행하는지는
결국 그 단백질의 **입체 모양(3차 구조)**에 의해 결정된다.

그리고 이 입체 모양은 다시 아미노산 서열에 의해 정해진다.

말만 들으면 단순하다.

“서열만 알면 구조도 알 수 있어야 하지 않나?”


하지만 현실은 이랬다.

2-1. 접히는 방법이 너무 많다

단백질이 어떻게 접힐 수 있느냐를 생각해 보자.

  • 마치 종이 한 장을
    가능한 모든 방식으로 접는 경우의 수를 상상하는 것과 비슷하다.

  • 이론적으로 가능한 모든 접힘을 다 탐색해 보고
    가장 안정적인 모양을 찾으려 한다면,
    계산상 지구 나이보다 더 오랜 시간이 걸린다는 이야기가 나올 정도이다.


실제로 세포 안에서 단백질은 이렇게 비효율적으로 움직이지 않는다.

  • 주변 물·이온·다른 분자들과 상호작용하면서
    **“에너지가 점점 내려가는 방향”**으로
    비교적 빠르게 안정된 구조를 찾아간다.

하지만 이 과정을 컴퓨터로 그대로 흉내 내서 계산하는 것은
지금도 매우 어렵고, 시간이 많이 든다.

2-2. 에너지 지형은 “깔때기 + 울퉁불퉁한 산악지대”


과학자들은 단백질 접힘을
에너지 지도 위에서 굴러다니는 공에 비유한다.

  • 전체적으로 보면 **낮은 곳(안정된 구조)**를 향해 내려가는
    깔때기(funnel) 모양이다.

  • 그러나 표면이 매끈한 경사로가 아니라,
    **수많은 작은 골짜기(국소 최소)**들이 중간중간 파여 있는
    울퉁불퉁한 산악지대에 가깝다.


https://www.researchgate.net/figure/Folding-funnel-energy-landscape-Globular-proteins-organize-themselves-from-a-random-coil_fig1_24268017


그래서 단백질은

  • 어떤 경우에는 잘 접혀서 “제대로 된 안정 구조”에 도달하지만,

  • 어떤 경우에는 중간 골짜기에 갇혀
    제대로 접히지 못하거나 엉겨 붙는(응집되는) 경우도 생긴다.



https://www.researchgate.net/figure/Schematic-of-a-a-funnel-shaped-energy-landscape-of-an-amino-acid-sequence-that-has_fig1_337614917



이처럼 경우의 수가 너무 많고 에너지 지형이 복잡하다 보니,
오랫동안 **“서열만 보고 구조를 맞추는 것”**은
이론적으로만 가능할 뿐, 현실에서는 거의 불가능한 문제로 여겨졌다.


3. 옛날 방식: 물리 계산과 “비슷한 것 따라 그리기”


이 난제를 풀기 위해, 과학자들은 크게 두 가지 길로 접근했다.

3-1. 물리적인 에너지 계산 + 조각 맞추기 (Rosetta 계열)

  • 단백질을 작은 구조 조각으로 나누고,

  • 이 조각들을 여러 방식으로 이어 붙여 보면서,

  • 에너지가 낮아지는 방향으로 구조를 탐색한다.

짧은 단백질이나 비교적 단순한 경우에는
이 방식이 어느 정도 통했다.

하지만

  • 단백질이 길어지고,

  • 도메인이 여러 개이고,

  • 복합체(여러 단백질이 합쳐진 덩어리)가 되면

가능한 조합 수와 계산량이 폭발하고,
로컬 최소에 갇혀 실패하는 경우가 많았다.

3-2. 비슷한 단백질 구조를 찾아서 따라 그리기 (상동모델링)


다른 한 축은 훨씬 실용적인, “비슷한 것 따라 그리기” 방식이다.

  • 이미 X선 결정 구조 같은 걸로
    입체 구조가 밝혀진 단백질들이 데이터베이스에 많이 쌓여 있다.

  • 새로 구조를 알고 싶은 단백질 서열이 들어오면,
    그 서열과 **비슷한 서열(상동 단백질)**을 데이터베이스에서 찾는다.

  • 그리고 그 상동 단백질의 구조를 템플릿 삼아,
    “모양을 입혀보는” 방식으로 구조를 예측한다.

서열 유사도가 높을 때는 이 방식이 꽤 잘 통한다.

하지만

  • 비슷한 구조가 데이터베이스에 없거나,

  • 서열이 너무 많이 달라져 있으면

예측 정확도가 급격히 떨어진다.

그래서 이 두 방법만으로는

“어떤 서열이 와도, 구조를 안정적으로 맞출 수 있는 일반적인 해법”

 

이라고 말하기 어려웠다.


4. AlphaFold 혁명: 진화 정보 + 딥러닝


상황을 바꾼 것은 **“진화 정보”와 “딥러닝”**의 결합이다.

요즘은 각종 생물의 유전체가 대량으로 해독되면서,
같은 계열 단백질에 대한 서열이 수없이 쌓여 있다.

이를 모아 정렬한 것을 **다중서열정렬(MSA)**이라고 부른다.

https://dromicslabs.com/multiple-sequence-alignment-technique/


이 MSA를 들여다보면 몇 가지 중요한 사실을 알 수 있다.

  • 서열은 꽤 바뀌어도, 구조는 크게 안 바뀌는 경향이 있다.

  • 특히 기능과 구조에 핵심적인 자리는
    아미노산이 잘 바뀌지 않고 보존된다.

  • 입체 구조상 서로 가까이 붙어 있는 아미노산들은
    **함께 변하는 경향(공변이)**을 보이는 경우가 많다.


    https://www.researchgate.net/figure/Multiple-sequence-alignment-of-conserved-regions-in-the-motor-domain-of-Eg5-from-five_fig1_325907668


AlphaFold는 이 진화 패턴을 딥러닝으로 읽어낸다.

4-1. AlphaFold 1: 거리·각도 분포를 예측한다


AlphaFold 1의 아이디어는 다음과 같다.

  • 입력

    • 단백질 서열

    • 그 서열의 MSA

    • (있다면) 비슷한 단백질의 템플릿 구조

  • 합성곱 신경망(CNN)을 이용해,
    아미노산 쌍마다 서로 얼마나 떨어져 있는지(거리),
    **어떤 방향으로 배치되는지(각도)**의 확률 분포를 예측한다.

  • 이 분포를 가장 잘 만족시키는 3차원 구조를
    일종의 에너지 최소화 문제로 풀어낸다.

즉,

**“MSA에서 공변이 정보를 추출 → 잔기–잔기 거리/각도 분포 예측 →
그 제약을 만족하는 구조를 최적화로 찾는 방식”**이다.

4-2. AlphaFold 2: 한 단계 더 나아간 end-to-end 구조 예측


AlphaFold 2는 이 접근을 한 단계 더 밀어붙였다.
대략적인 과정은 다음과 같다.

  1. MSA 만들기

    • 알고 싶은 단백질 서열과 비슷한 서열들을
      전 세계 데이터베이스에서 끌어와 하나의 큰 정렬표를 만든다.

  2. Evoformer라는 딥러닝 블록

    • 이 MSA를,
      챗GPT 등에 쓰이는 것과 비슷한 트랜스포머 계열 신경망으로 여러 번 돌린다.

    • 이 과정에서

      • “어떤 아미노산 쌍이 서로 관련 있는지”

      • “어떤 패턴이 진화적으로 보존되는지”
        같은 정보가 내부 표현에 농축된다.

  3. Structure module

    • 이렇게 정리된 정보를 입력 삼아
      **단백질의 3차원 좌표(원자 위치)**를 직접 예측한다.

    • AlphaFold 1처럼
      “거리 분포 → 에너지 함수 → 최적화” 단계를 따로 두기보다,
      신경망이 곧장 좌표를 내놓는 함수를 학습한 셈이다.

  4. 재순환(recycling)

    • 한 번 예측된 구조에서 거리·각도 정보를 다시 뽑아
      Evoformer 입력에 섞어 넣고,

    • 이 과정을 여러 차례 반복하면서
      구조를 점점 더 정밀하게 다듬는다.

이 접근 덕분에, AlphaFold 2는
수많은 단백질에 대해,
실험 구조에 상당히 근접한 수준의 예측을 자동으로 내놓을 수 있게 되었다.

 (물론 모든 단백질에 대해 완벽하다고 말할 수는 없지만,
“패러다임이 바뀌었다”고 부를 만한 수준의 도약이었다.)

알기 쉬운 그림설명은 아래의 블로그 참조

https://piip.co.kr/en/blog/AlphaFold-Breakthrough-AI-Challenges-Protein-Folding-Problem-1



5. “예측”에서 “디자인”으로: 단백질을 직접 설계하는 시대


구조를 잘 맞히게 된 것 자체도 엄청난 진전이지만,
궁극적으로 산업적 파급력이 더 큰 쪽은 **“디자인”**이다.

이제 질문은 이렇게 바뀌고 있다.

  • 예전:

    “이 서열은 어떤 구조를 만들까?”

     

  • 지금:

    “이런 구조를 만들고 싶은데,
    그 구조를 만들어 줄 서열은 무엇일까?”

     

5-1. ProteinMPNN: 구조에서 서열로 (structure → sequence)


여기서 등장하는 대표 도구가 ProteinMPNN이다.

  • 입력: 만들고 싶은 단백질의 입체 골격(뼈대 구조)

  • 출력: 그 구조를 안정적으로 형성해 줄 수 있는 아미노산 서열

즉, **“구조에서 서열로 가는 신경망”**이다.

이제는 특정 모양을 가진 단백질을 상상해 두고,
그 모양을 주면 AI가

“이런 서열로 만들면 그 구조가 잘 나올 것 같다.”


라고 후보들을 쭉 뽑아주는 시대가 된 것이다.

5-2. RFdiffusion·Chroma: 구조 골격 자체를 AI가 만든다


그 다음 단계는 아예 골격 자체를 생성하는 것이다.

RFdiffusion, Chroma 같은 모델은
이미지 생성에 쓰이는 것과 비슷한 **확산모델(diffusion model)**을 이용해,

  • 처음에는 엉망인 노이즈 구조에서 시작해,

  • 점점 더 “단백질답게 보이는” 구조로 정제해 가면서,

  • 결국 **새로운 단백질 골격(backbone)**을 만들어낸다.

이를 활용한 전형적인 설계 루프는 다음과 같다.

  1. RFdiffusion/Chroma

    • 특정 표적 단백질에 잘 달라붙는다든지,

    • 특정 대칭 구조를 가진다든지 하는
      원하는 조건을 만족하는 새로운 단백질 골격을 생성한다.

  2. 이 골격을 ProteinMPNN에 넣어
    해당 골격을 안정화할 수 있는 서열을 여러 개 만든다.

  3. 이렇게 나온 서열들을 AlphaFold 등으로 다시 구조 예측해 본다.

    • 예측된 구조가 처음 설계한 골격과 잘 겹치고,
      신뢰도도 높다면
      → “실제로 잘 접힐 가능성이 높은 후보”로 본다.

  4. 그중 상위 몇 개만 실제 실험실에서 만들어 보고,
    구조와 기능을 검증한다.


    https://2023.igem.wiki/anu-australia/contribution



이렇게 해서,
자연계에는 없던 완전히 새로운 단백질 부품
설계해 보는 시대가 열리고 있다.


6. 이 기술은 어디에 쓰이나: 의약품·백신·합성생물학


이제 이 기술이 실제로 어디에 쓰이는지 살펴보자.

6-1. 단백질 의약품·백신·나노입자

  • 바이러스의 특정 표면 부위만 골라서 잘 보여주는
    단백질 나노입자를 설계해,
    그 부분에 대한 면역 반응을 집중적으로 유도하는 백신

  • 기존 항체 대신
    더 작고 안정적이며,
    대장균·효모 같은 값싼 숙주에서 대량 생산이 가능한 인공 결합 단백질을 이용해
    치료제를 만드는 전략

6-2. 미끼 단백질(decoy protein)

  • 예를 들어, 바이러스가 인체 세포에 달라붙을 때 사용하는 수용체(문 손잡이 역할)를
    더 잘 붙도록 다시 설계한 단백질을 만들어서
    공기 중 또는 특정 조직에 뿌리는 방식

  • 바이러스가 진짜 세포 대신 이 “가짜 손잡이”에 달라붙도록 유도해
    감염을 줄이는 개념이다.
    코로나19 때 ACE2를 활용한 미끼 단백질 아이디어가 이와 유사하다.

6-3. 인공 사이토카인·면역 조절 단백질

  • IL-2 같은 강력한 면역 신호 분자는
    항암 효과가 뛰어난 대신, 부작용도 매우 크다.

  • 구조 기반·AI 기반 설계로
    특정 면역세포에는 강하게, 다른 세포에는 약하게 작용하도록
    결합 특성을 조정한 “인공 사이토카인”을 만들려는 시도가 많다.

  • 면역세포가 특정 신호 조합에서만 켜지거나 꺼지게 하는
    인공 수용체·신호 회로도 단백질 설계의 영역이다.

6-4. 합성생물학 회로

  • 세포 안에

    • “이 분자가 감지되면 A 단백질을 만들고,
      저 분자가 같이 감지되면 B 단백질을 만들지 않는다”
      같은 **논리 회로(logic)**를 단백질 조합으로 구현하는 연구들

  • 이를 통해
    종양 미세환경에서만 선택적으로 반응하는 세포,
    특정 대사경로를 정밀하게 제어하는 미생물 등을 설계할 수 있다.

이 모든 흐름을 한 문장으로 요약하면 이렇다.

“삶을 구성하는 기본 부품인 단백질을,
이제는 필요에 맞게 설계해서 쓰는 시대가 열리고 있다.”

 


7. 그렇다고 만능은 아니다: 아직 남은 한계들


여기까지 들으면
“이제 단백질은 마음대로 설계하는 시대겠네?”
라는 생각이 들 수 있다.

하지만 아직은 거기까지 가지 않았다.

  • AI가 설계해 준 서열들 중,
    실제 실험에서 의도한 대로 잘 접히고, 기능까지 제대로 하는 비율은 여전히 낮다.

  • 구조 예측이 아무리 정확해도,

    • 세포 안에서 얼마나 안정적인지,

    • 얼마나 빨리 분해되는지,

    • 인체 면역계가 어떻게 반응하는지,

    • 독성은 없는지
      같은 것들은 반드시 별도의 실험으로 확인해야 한다.

  • 실제 free energy, 결합 친화도, 동역학(시간에 따른 움직임)을
    물리적으로 정확히 계산하는 작업은
    지금도 많은 시간과 컴퓨팅 자원을 필요로 한다.

정리하면, 지금은

“단백질을 거의 랜덤에 가깝게 찍어보던 시대”에서
“그래도 꽤 그럴듯한 후보들을 골라서 찍어볼 수 있는 시대”로
점프한 단계
라고 보는 것이 정확하다.

 
여전히 실험·검증·제조·규제가 병목이다.

다만 AI 덕분에 “어디를 찍어볼지”를 훨씬 잘 고를 수 있게 된 것이다.


8. 왜 “트랜지스터·집적회로” 비유가 나오는가


그럼에도 불구하고, 지금 상황을
**“트랜지스터 혹은 집적회로가 처음 등장하던 시점”**에 자주 비유하는 데에는 이유가 있다.

  • 트랜지스터 이전의 전자공학은

    • 커다란 부품과 진공관을
      사람이 일일이 설계하고 조립하는 세계였다.

  • 트랜지스터와 집적회로(IC)가 등장하면서

    • 회로 설계가 표준화된 부품과 디지털 논리 위에 쌓이는 산업이 되었고,

    • 그 위에 컴퓨터, 스마트폰, 인터넷, 클라우드까지
      우리가 아는 현대 ICT 산업 전체가 만들어졌다.

단백질·합성생물학도 비슷한 전환점을 맞고 있다.

  • 예전에는

    • 자연이 만들어 놓은 단백질을
      발견하고, 약간 변형해서 쓰는 것이 대부분이었다.

  • 이제는

    • AI 기반 구조 예측·디자인 도구 덕분에
      **“목적을 먼저 정하고, 그에 맞는 단백질을 설계하는 것”**이
      점점 더 현실적인 선택지가 되고 있다.

완전히 성숙한 산업·기술로 자리잡기까지는 아직 시간이 필요하다.
그러나 방향성은 꽤 뚜렷하다.

“단백질을 이해하고 설계하는 능력”은
앞으로 의약, 바이오, 합성생물학에서
트랜지스터·집적회로에 해당하는 기반 인프라 기술이 될 가능성이 크다.

 

지금 우리가 보고 있는

  • 단백질 언어모델,

  • AlphaFold,

  • ProteinMPNN,

  • RFdiffusion 같은 도구들은

바로 그 새로운 시대의 초창기 도구 세트라고 이해하면 된다.
수츠케버가 말한 “니치 AI”들이 여러 산업에서 분화·성장할 때,
바이오·제약 분야에서는 이 도구들을 중심으로 전혀 다른 지형의 혁신이 펼쳐질 가능성이 크다.

=끝

생각정리 131 (* Ilya Sutskever)

지난 주말동안 각종 커뮤니티에 일리야 슈스케버의 최근 인터뷰 내용이 화제이다.
인터뷰 내용 중 AI의 새로운 발전방향 관련해 흥미로운 아이디어를 정리해볼까 한다.


나무위키


스케일링을 넘어서


기호주의 → 뇌 모방 → GPT-3, 그리고 “더 인간적인 가치함수”의 시대


이 글의 목표는 간단하다.

  1. AI가 어디서부터 어떻게 여기까지 왔는지 큰 흐름을 정리하고,

  2. 왜 이제는 **“더 인간적인 가치함수(value function)”**가 중요한지,

  3. 그때 산업과 투자 방향이 어떻게 바뀔 수 있는지를 이야기하는 것이다.


I. 1차 전환: 기호주의에서 뇌 모방, 인공신경망으로


1. 기호주의(Symbolic AI)의 병목


초기 AI(1950~80년대)의 주류는 **기호주의(Symbolic AI)**였다.

구조를 간단히 정리하면 다음과 같다.

  • 사람 연구자
    규칙, 논리식, 온톨로지(개념 간 관계), 지식 그래프를 직접 설계하고

  • **기계(컴퓨터)**는
    그 규칙에 따라 추론만 수행하는 방식이다.

한마디로 요약하면,

“규칙은 사람이 다 짜 넣고,
컴퓨터는 그 규칙대로만 움직이는 구조”

이다.

문제는 현실 세계가 너무 지저분하다는 점이다.

  • 예외가 많고

  • 잡음(노이즈)와 애매한 상황이 많고

  • 언어·지각·상식은
    규칙 몇 줄로 다 표현하기 어렵다.

그래서 기호주의 AI는

  • 이미지 인식

  • 자연어 이해

  • 일상적 상식 추론


같은 영역에서 근본적 한계를 드러내게 된다.

“사람이 규칙을 다 써 넣는 방식으로는
현실 세계 전체를 커버할 수 없다”는 사실이 드러난 것이다.

 


2. 뇌 모방 → 인공신경망(ANN)의 등장


이 병목을 넘기 위해 연구자들이 떠올린 생각은 단순했다.

“차라리 뇌를 흉내 내자.”

 

뇌에서 가져온 기본 요소는 대략 다음과 같다.

  • 수많은 뉴런

  • 뉴런 간의 시냅스 연결(가중치)

  • 경험에 따라 달라지는 연결 강도(학습)

핵심 아이디어는 이렇다.

사람이 규칙을 모두 써 넣지 말고,
데이터를 많이 보여주면서 스스로 패턴을 배우게 하자.

 

이 구조의 특징은 다음과 같다.

  • 언어·이미지·음성·추론을
    **같은 구조(신경망)**로 처리할 수 있다.

  • 규칙이 아니라,
    뉴런 사이의 연결 강도(가중치) 자체가 지식을 품는다.

이 아이디어를 수학적으로 구현한 것이
**인공신경망(ANN, Artificial Neural Network)**이다.

또한 1980년대에는

  • **역전파(Backpropagation)**라는 학습 알고리즘이 정식화되면서
    “어떻게 가중치를 바꿔야 하는가”에 대한 이론이 완성되었다.

그 후

  • GPU 발전

  • 대규모 데이터 축적

  • 인터넷 텍스트·코드 폭발

이 세 가지가 겹치면서, 오늘날 우리가 아는

대규모 프리트레이닝 + 스케일링 중심 딥러닝 패러다임

이 만들어지게 된다.

정리하면,

기호주의(규칙 기반) → 뇌 모방(신경망) →
대규모 프리트레이닝 + 스케일링

 

이라는 1차 패러다임 전환이 이미 한 번 일어난 것이다.


II. 2차 점프: GPT-3, RLHF, 스케일링 법칙


이 1차 전환 위에서, GPT-3를 중심으로 하는 2차 점프가 나왔다.

1. GPT-3: 초거대 프리트레이닝

  • 인터넷 텍스트·코드를 대규모로 긁어 모은 뒤
    “다음 단어 맞히기” 같은 단순 과제를 통해 학습시켰다.

  • 그런데 이 단순한 훈련만으로

    • 번역

    • 요약

    • 질문 응답

    • 코딩
      까지 하나의 모델이 해내기 시작했다.

2. RLHF: 인간 피드백 강화학습


이후에는 RLHF가 등장했다.

  • 사람이 AI가 만든 답을 보고

    • “이게 더 낫다, 이건 별로다”라고 평가해 주고

  • 모델은 그 피드백을 바탕으로
    사람 선호에 맞게 출력을 조정한다.

즉, RLHF는

“거친 모델을 제품처럼 쓸 수 있는 수준으로 다듬는
인간 피드백 기반 강화학습”

 

이라 볼 수 있다.

3. 스케일링 법칙


여기에 하나가 더 얹혔다. 바로 스케일링 법칙이다.

  • 데이터 양을 늘리고

  • 모델 크기(파라미터 수)를 늘리고

  • 연산량(GPU 시간)을 늘리면

  • 손실(loss)이 일정한 규칙으로 줄어드는 패턴이 확인되었다.

이 말은 곧 이렇게 읽힌다.

“데이터 더, 파라미터 더, GPU 더.
그러면 성능은 대체로 좋아진다.

 

이 단순한 문장이

  • 연구 전략

  • 기업의 투자 전략

을 동시에 정당화해 주었다.

실제로 어느 지점까지는 이 전략이 매우 잘 통했다.

하지만, 이제부터가 문제이다.


III. 지금 드러난 한계: 벤치마크는 초인간인데, 현실 효용은 평이하다


일리야 수츠케버가 최근 인터뷰에서 강조한 지점은 다음과 같다.

1. 데이터는 유한하다

  • 인터넷 텍스트·코드를 “한 번씩 다 빨아들이는” 구간에
    이미 들어가기 시작했다.

  • 더 이상 “그냥 긁어오면 되는” 양질의 데이터가
    예전만큼 늘어나지 않는다.

2. Eval vs 경제적 효용의 괴리

  • 각종 시험(evaluation)에서는
    모델이 인간보다 잘하는 경우가 많아졌다.

  • 하지만 기업의 생산성·수익 곡선
    그만큼 가파르게 바뀌지 않고 있다.

즉,

“시험 성적은 초인간인데,
실제 일 잘하는지 보면 애매하다”

 

는 상황이 벌어진 것이다.

3. 일반화·샘플 효율성의 부족

  • 새로운 코드베이스, 새로운 조직의 업무 흐름,
    새로운 물리 환경에 모델을 던져놓으면
    여전히 허술한 구석이 많이 드러난다.

  • 인간처럼

    “조금 보고도 구조를 잡는 능력”
    과는 거리가 있다. 


그래서 수츠케버는 말한다.

GPT-3 + RLHF + 스케일링 법칙이 만들어낸
1차 점프는 분명 대단했지만,
지금은 수익 체감 구간에 들어선 것 같다고.

 




IV. 왜 다음 단계는 “더 인간적인 value function”인가


이제 핵심 질문으로 들어간다.

“왜 다음 단계가 **더 인간적인 가치함수(value function)**인가?”

 

1. 감정 = 고차원 세계를 요약하는 저차원 가치 좌표

먼저 감정을 다시 보자.

실제 뇌는

  • 심장박동, 호르몬, 에너지 상태(피곤, 허기),

  • 사회적 맥락(사람들이 나를 어떻게 보는지),

  • 과거 기억과 경험

등 아주 복잡한 고차원 상태를 계속 처리한다.

그런데 우리의 주관적 경험은 어떠한가.

  • 행복, 불안, 두려움, 분노, 혐오, 애착, 호기심…

생각해보면 그리 많지 않은 축으로
감정이 정리되어 있다.

즉, 감정은

복잡한 신체·환경 상태 →
몇 개의 정서 축으로 압축한 결과

 

라고 볼 수 있다.

그리고 이 감정(정서 좌표)이 하는 핵심 기능은 단순하다.

  • 지금 상황이 좋은 방향인지 / 나쁜 방향인지

  • 이 행동을 계속할지 / 멈출지

  • 여러 선택지 중 어느 쪽이 “더 끌리는지”


빠르고, 싸게, 대충 맞게 알려주는 것이다.

머리로 완전한 계산을 하기 전에
몸이 먼저 “느낌”으로 알려주는 일종의 **휴리스틱(value function)**이다.

2. vmPFC: 감정·가치 신호를 의사결정으로 통합하는 허브


여기서 수츠케버가 꺼내 든 뇌 과학 사례가 중요하다.

바로 복내측 전전두피질(vmPFC) 손상 환자들이다.


https://kormedi.com/1189194/


이 환자들은:

  • 지능검사, 언어, 논리 퍼즐은
    거의 정상처럼 수행한다.

  • 그런데 현실에서는

    • 오늘 무슨 양말을 신을지,
      어떤 보험상품을 고를지 같은
      사소한 선택조차 결정을 못 한다.

    • 금융·사회적 판단에서는
      계속해서 나쁜 선택을 반복한다.

신경과학자 안토니오 다마지오 등이 정리한 결론은 명확하다.

“논리적 사고 능력만 멀쩡하다고
현실에서 제대로 결정할 수 있는 것은 아니다.
감정·신체 상태·가치 신호를 통합하는 vmPFC 축이 깨지면
인간은 일상적 결정을 거의 못 하게 된다.”


이를 기계학습 언어로 바꾸면 이렇게 볼 수 있다.

  • vmPFC = 장기 행동 궤적(trajectory)에 대한 value function 근사기


역할:

  • 지금 이 방향이 대체로 괜찮은지 / 위험한지

  • 사회적·장기적 관점에서 이득인지 / 손해인지

  • 딱 떨어지는 외부 보상이 없어도
    몸의 상태·기억·맥락을 종합해 평가하는 모듈이다.

수츠케버가 이 사례를 집요하게 언급하는 이유는 분명하다.

인간의 효율적 학습·일반화에는
**논리 모듈(대뇌피질)**만이 아니라,
**감정/가치 모듈(vmPFC 계열)**이 필수적이다.

 

3. 수츠케버의 문제의식과 “더 인간적인 가치함수”의 방향


그가 공개적으로 여러 번 반복한 메시지를 정리하면 다음과 같다.

  • 지금의 AI 모델은
    외부에서 주는 정답·라벨·보상에 너무 의존한다.

  • 모델 내부에는

    “지금 내가 잘 가고 있는지 / 잠깐 멈춰야 할지”
    스스로 판단하는 견고한 가치함수가 없다.

  • 반면 인간은

    • 데이터를 조금만 봐도 방향을 잡고

    • 감정·직관을 통해
      자신의 행동 궤적을 계속 재평가하면서
      학습 방향을 조정한다.

그래서 그가 제시하는 방향은 자연스럽다.

이제는 프리트레이닝과 스케일링만으로는 부족하고,
인간식 가치함수 + continual learning을 도입해야 한다.

 

여기서 말하는 “더 인간적인 value function”은

  • 위험, 호기심, 사회적 승인, 자기 일관성, 장기 목표 등
    여러 저차원 휴리스틱 value를 조합해

  • 고차원 세계 상태를 저차원 가치 공간으로 압축하고

  • 그 좌표를 사용해
    “현재 trajectory가 좋은 방향인지/나쁜 방향인지”를
    항상 안내하는 내부 함수


를 뜻한다.

수츠케버는 구체적인 알고리즘을 공개하지 않는다.
하지만 그가 동시에 묶어 말하는 키워드를 보면:

  • vmPFC

  • 감정·somatic marker(신체 신호와 감정의 연결)

  • value function

  • 일반화·샘플 효율성


이는 자연스럽게 다음과 같은 해석으로 이어진다.

그는 프리트레이닝/스케일링 위에
인간식 가치함수와 continual learning을 얹는
새로운 학습 레시피
를 찾고 있다.

 

라고 보는 것이 합리적이다.


V. 스케일링의 시대에서, “연구의 시대로 회귀”


GPT-3 이후 몇 년은 철저히 스케일링의 시대였다.

  • “데이터 더, 파라미터 더, GPU 더”
    라는 간단한 슬로건이 있었고,

  • 실제로 많은 영역에서
    그 전략만으로 인간 수준, 초인간 수준 성능까지 올라왔다.

하지만 지금은 이런 질문들이 함께 떠오른다.

  • 왜 벤치마크 성능만큼
    현실 경제 효율은 안 오르는가?

  • 왜 모델은 여전히
    낯선 환경·업무·물리세계에서 허둥대는가?

  • 왜 인간처럼
    조금 보고도 구조를 잡는 능력이 안 나오나?

수츠케버가 말하는 “연구의 시대로 회귀”는
이런 선언에 가깝다.

이제는 “얼마나 키우느냐”가 아니라
어떻게 배우게 하느냐”를 다시 질문해야 한다.
특히 내부 가치함수와 인간식 일반화
이해하고 모사하는 방향으로 가야 한다.

 

요약하면,

  • 2010년대 후반~2020년대 초반:
    스케일링의 시대

  • 앞으로:
    학습 레시피와 내부 가치 구조를 다시 설계하는 연구의 시대

로 넘어가야 한다는 주장이다.


VI. 새로운 레시피가 실제로 뚫렸을 때, 투자자는 어디에 서 있어야 하는가


이제 하나의 가정을 두고 생각해 보자.

인간에 가까운 일반화·샘플 효율성을 내는
새로운 학습 레시피가 어느 정도 성공했다.

 

즉,

  • 제한된 외부 데이터로도

  • 내부 가치함수를 활용해

  • 스스로 자신의 행동 궤적을 평가·수정하며 배우는 AI
    (continual learning형 에이전트, 로봇 등)

이 현실에 등장했다고 치자.

그때 산업·투자 관점에서 핵심만 짚어 보겠다.


1. 연산칩: 개별 효율은 좋아져도, 총량 수요는 줄지 않는다


새로운 레시피가 성공하면, 분명 이런 변화가 나타날 수 있다.


우선 좋은 value function 하나만으로는 문제가 끝나지 않는다.
인간식 일반화에 가까이 가려면 반드시

  • 세계모형(world model)

  • 장기 메모리

  • 능동적 탐색(active perception)

같은 모듈과의 조합이 필요하다. 뇌에서 vmPFC만 떼어 설명할 수 없듯이, 인공 시스템에서도 value function은 전체 인지 아키텍처를 구성하는 하나의 축일 뿐이다.

이러한 인지 구조가 갖춰지면, 모델 하나 기준으로는 같은 성능을 내기 위한 데이터·연산량이 줄어들 수 있다. 즉, 샘플 효율은 분명 개선된다.

하지만 동시에 이런 일이 벌어진다.

  • AI가 투입될 수 있는 업무·산업·물리 환경의 폭이 지금보다 훨씬 넓어지고

  • 사람처럼 계속 켜져서 배우고 일하는 디지털 에이전트·로봇이 산업 전반에 깔리게 된다.

그렇게 되면 결과적으로는

칩 하나당 얼마나 “뽑아 먹느냐”의 효율은 좋아지지만,
세상이 돌아가게 해야 하는 총 작업량은 오히려 더 커지는 구조


가 된다.

투자 관점에서 요약하면 다음과 같다.

  • 데이터센터용 AI 가속기

    • “한 번 크게 훈련하고 끝”이라는 용도의 비중은 줄어들 수 있다.

    • 대신 수많은 에이전트가 상시로 추론·학습을 수행하는 인프라 역할이 강화되면서, 연산 수요는 구조적으로 유지되거나 오히려 증가할 가능성이 크다.

  • 엣지·로봇용 AI 칩

    • 인간식 continual learning이 가능해질수록

    • 로봇·차량·공장 설비·가전·의료기기 등 거의 모든 물리 장비 안에 AI 연산이 들어가야 한다.

    • 이 영역이 지금보다 훨씬 큰 성장 탄력을 받을 수 있는 구간이 된다.


2. 메모리/저장: “얼마나 빨리 계산하느냐”만큼 “얼마나 오래 기억하느냐”가 중요해진다


새로운 레시피의 핵심은 **“경험을 계속 쌓고, 다시 쓰는 것”**이다.

  • 내부 가치함수

  • 세계모형(world model)

  • 개인·로봇별 경험(episodic memory)

  • 장기 계획 정보

이 모두 **“기억의 질과 양”**에 의존한다.

그래서 구조는 이렇게 바뀐다.

“얼마나 빨리 계산하느냐” 못지않게
“얼마나 많이, 오래, 안정적으로 기억하느냐”가
경쟁력의 핵심이 된다.

 

  • 데이터센터 입장에서는

    • 수많은 에이전트의 경험·상태를 모아
      다시 학습시키기 위해

    • 서버 메모리·스토리지 총량 수요가 커질 수밖에 없다.

  • 엣지·로봇 입장에서는

    • 각 장비가 “자기만의 세계모형과 경험”을 들고 다니며
      현장에서 계속 학습해야 하므로

    • 온디바이스 메모리·저장 공간이 더 많이 필요해진다.

결론적으로,

새로운 레시피가 성공한다고 해서
“연산칩만 쓰이고, 메모리는 줄어든다”는 그림은 비현실적이다.
오히려 연산 + 메모리 수요가 함께 커지는 방향이 더 자연스럽다.

 


3. 그 위에 쌓일 레이어: 에이전트 운영·로봇 통합·도메인 OS


하드웨어 위에는 항상 소프트웨어·시스템 레이어가 쌓인다.
새 레시피가 현실화되면 특히 세 가지 축이 중요해질 것이다.

  1. 에이전트 오케스트레이션 계층

    • 여러 AI 모델·에이전트를 묶어
      실제 업무 플로우에 연결하는 “운영 플랫폼”

    • 예: 기업 내부에서
      문서 작업, 코드 작업, 회계, 고객 응대 등
      여러 업무를 서로 다른 에이전트들이 맡고,
      이를 조율해 주는 계층.

  2. 로봇/물리 시스템 통합 업체

    • 센서(카메라, LiDAR 등)

    • 액추에이터(모터, 그리퍼 등)

    • AI 칩·통신 모듈
      을 묶어
      실제 공장·물류센터·병원·건설 현장에서 돌아가는
      물리 AI 시스템을 만드는 플레이어.

  3. 도메인 특화 AI 운영체제(Vertical OS)

    • 예: 병원용 AI 운영계층, 공장용 AI 운영계층,
      물류센터용 AI 운영계층 등.

    • 인간식 가치함수·continual learning이 들어갈수록
      각 도메인에 맞는 규칙·안전 기준·업무 흐름을
      AI와 사람 사이에서 조율해 주는 운영 레이어의 중요성이 커진다.

중장기적으로 보면,
이러한 플랫폼·운영계층
하드웨어 못지않게 높은 수익성과 진입장벽을 가질 가능성이 크다.


VII. 정리


마지막으로 핵심만 다시 한 번 정리하면 다음과 같다.

  1. 1차 전환

    • 기호주의(규칙 기반) → 뇌 모방(신경망) →
      대규모 프리트레이닝 + 스케일링.

    • GPT-3, RLHF, 스케일링 법칙이
      한 번의 거대한 점프를 만들었다.

  2. 현재의 병목

    • 데이터는 유한해지고,
      스케일링은 점점 수익 체감 구간으로 들어가고 있다.

    • 벤치마크 성능은 초인간인데,
      현실 경제 효용은 그만큼 따라오지 못한다.

    • 인간처럼 적은 샘플로도 잘 일반화하는 능력은 아직 멀었다.

  3. 다음 단계의 방향

    • 인간의 효율적 학습에는
      **복내측 전전두피질(vmPFC)**을 중심으로 한
      **감정·가치 시스템(value function)**이 핵심이다.

    • 수츠케버의 문제의식은
      **“더 인간적인 가치함수 + continual learning”**을
      새로운 학습 레시피의 중심에 두는 방향으로 읽힌다.

  4. 새로운 레시피가 뚫렸을 때의 산업·투자 함의

    • 개별 모델 기준 연산 효율은 좋아질 수 있지만,
      AI의 적용 범위가 현실 세계 전반으로 확산되며
      연산칩·메모리 수요는 구조적으로 더 커질 가능성이 크다.

    • 특히

      • 데이터센터용 AI 가속기(상시 추론·상시 학습 인프라)

      • 엣지·로봇용 AI 칩(물리세계 침투)

      • 메모리·저장(세계모형·경험·가치함수 상태 저장)
        는 동시에 수혜를 볼 축이다.

    • 그 위에

      에이전트 운영계층, 로봇 통합, 도메인 특화 AI OS가
      새로운 가치 집중 지대로 떠오를 수 있다.

결국 수츠케버가 말하는

“스케일링의 시대를 지나,
더 인간적인 value function을 향한 연구의 시대로 가야 한다”

 

는 메시지는
단순한 기술 논평이 아니라,

“앞으로 어떤 종류의 AI가 진짜 경제적 효용을 낼 것인지,
그리고 투자자는 어느 레이어에 서 있어야 하는지

 

에 대한 방향 제시이기도 하다.

단기적인 벤치마크 점수,
일회성 초거대 훈련 스토리보다 중요한 질문은 결국 하나이다.

“현실 세계 곳곳에,
스스로 계속 배우는 에이전트를 꽂을 수 있는 구조와 자산
지금부터 얼마나 확보해 두고 있는가.”

 

이 지점에서
기술의 다음 단계와 자본의 다음 위치가
서서히 겹쳐지기 시작할지도 모르겠다. 

#글을 마치며 


정말로 일리아 수스케버의 PJT가 성공한다면, 그리고 인간의 감정 영역까지 내부 가치함수로 embed된 AI가 등장한다면, 우리는 엘런 튜링이 제안했던 그 오래된 “이미테이션 게임”의 실사판을 마주하게 될지도 모른다.

상대가 인간인지 기계인지 구분하기 어려운 수준을 넘어, 대화의 맥락과 정서, 미묘한 망설임과 주저함까지 그럴듯하게 따라 하는 존재와 일상을 공유하게 되는 것이다.

조금 더 공상과학적인 상상을 허용하면, 영화 「HER」에 가까운 현실이 전혀 허황된 이야기만은 아닐 수 있다.

화면 속에 있던 존재가, 나의 일정과 업무를 관리하고, 대화를 나누고, 나의 습관과 취약함을 이해하며, 나보다 먼저 나의 반응을 예측하는 어떤 “정서적 파트너”로 다가오는 장면을 떠올리게 된다.

그 가능성은 분명 매혹적이지만, 동시에 인간과 기계, 진짜 감정과 모사된 감정, 주체와 도구의 경계가 흐려지는 지점에서 섬뜩한 불편함과 무서움도 함께 고개를 든다.

그런데, 인간 감정 영역의 근원인 '죽음'이라는 개념을 AI에게 어떻게 이해시킬 수 있을까?라는 의문이 여전히 남긴 하다. 

=끝

2025년 11월 26일 수요일

생각정리 130 ( *금통위, USD/KRW 환율, 자산 인플레이션)

11월 금통위 결과가 나왔다.

금통위 '금리 인하 기조 유지→가능성 열어둬' 변화…통화 완화 기조 종료하나 | 서울경제


금통위는 “금리 인하 기조 유지”에서 “인하 가능성은 열어두되 당장 서두르지 않겠다” 정도로 톤을 조정했다.

표면적으로는 여전히 동결·완화 쪽에 방점이 찍혀 있지만, “더 이상 일방적인 완화 국면은 아니다”라는 신호를 동시에 던진 셈이다.

다만 나는 이번 회의 결과를 보면서, 한국은행이 끝까지 금리 인상 카드를 쓰지 않을 것이라고 보기는 어렵다고 느꼈다.

미국의 AI Capex 상향 기조기업 대출 수요를 밀어 올리면서 글로벌 금리 레벨을 다시 끌어올리고 있고, 한국 입장에서는 여기에 강한 원화 약세, 수입물가 상승, 집값 재상승이 겹치는 구도가 만들어지고 있기 때문이다.

이 조합이 계속되면, “인상 가능성은 없다”는 지금의 기조는 결국 **“완화 종료 → 동결 장기화 → 조건 충족 시 제한적 인상”**이라는 경로로 이동할 가능성이 크다고 본다.

이번 글은 바로 그 전환 경로를 M2, 환율, 집세, 금리라는 네 가지 축으로 정리해 보는 시도이다.



1. 지난 5년: 통화량과 환율이 벌어진 속도


먼저 이런 흐름을 이해하려면, 먼저 지난 5년 동안 통화와 환율이 어떻게 벌어졌는지부터 짚을 필요가 있다.

최근 5년(2021~2025) 동안 한국의 M2 누적 증가는 약 +40% 수준이다. 같은 기간 미국은 +19% 안팎, 유로존·독일·일본은 13~17%대에 머무른다. 한국이 주요국 대비 두 배 가까운 속도로 통화를 풀었다는 뜻이다.


https://kr.tradingview.com/


2025년부터 유독뉸에 띄게 디커플링되기 시작하는 달러인덱스 vs 원달러 환율


그 결과 원/달러 환율은 1,100원대에서 1,400~1,500원대로 이동했고, 한국은행 총재가 “과거 레벨로 돌아가기 어렵다”고 말할 정도의 구조적 원화 디스카운트가 자리 잡았다. 통화긴축을 상당 기간 이어 왔음에도 M2 수준 자체는 되돌려지지 않았고, 환율만 약해진 상태에서 정책 여지는 좁아졌다.

핵심 메커니즘은 단순하다.

확대 재정 → 예산 집행·이전지출 → 시중 예금화 → M2 상방 → 자산가격(집값·주가) 상승 → 추가 유동성 수요


이 루프가 한 번 돌아가면, 이후에 기준금리를 올려도 “레벨”이 아니라 “증가율”만 조절하는 국면으로 들어간다. 바로 그 레벨 효과가 지난 5년의 원화 약세·자산가격 상승을 설명한다.


2. 2026~2030년 M2·원달러 베이스라인


이제 이전글에 정리했었던 현 정권의 확장적 재정 기조가 2030년까지 유지된다고 가정하고, M2·원달러 경로를 한 번에 정리해 보자.

(2024년 말 M2=100, 2025년 초중반 원/달러 1,450원대를 기준점으로 둔 시나리오이다.)



2-1. M2·환율 시나리오 표


단위: M2 YoY는 %, Index는 2024년 말=100, M2 Level은 경 원(추정), 환율은 원/달러 연말 수준





요약하면,

  • M2 경로: 2025~2030년 누적 약 +41%, 연평균 5.8%대. 2026년 7.5%를 피크로, 2030년 4%까지 완만하게 감속하는 두 번째 유동성 사이클이다.

  • 원달러 중앙 시나리오: 2025년 1,450원 → 2030년 1,750원(5년간 약 +21%, 연 3~4% 추가 절하).

  • High(원화 약세) 시나리오: 2030년 1,900원대까지 열어두는 그림. M2 초과 확대와 구조개혁 지연, 대외충격이 동시에 올 때의 상단 영역이다.

이는 “예측값”이라기보다, 정책 기조가 바뀌지 않을 때 열릴 수 있는 합리적인 범위를 그린 것이다.


3. M2 → 집세·CPI → 금리: 느린 스태그 구조


수량방정식의 성장률 형태를 쓰면,

ΔM2 + ΔV ≈ ΔP(CPI) + ΔY


2026년을 예로 들면,

  • ΔM2 ≈ 7.5%

  • ΔY ≈ 1.8%

  • ΔP(CPI) ≈ 2%대 초반


이때 식이 맞으려면 통화 유통속도(ΔV)가 연 –3~4% 정도로 떨어지는 구조가 필요하다.
고령화, 예금성 자산 선호, 금융투자 확대는 이 Velocity 하락을 상시화한다. 그래서

  • M2는 매년 5~7%씩 늘어도 CPI는 2%대에서 억제되는, “저물가·고자산” 조합이 가능하다.


문제는 집세와 수입물가이다.

  • 전세 재고 감소와 월세화, 전환율 구조를 감안하면 2025=100 기준 2030년 월세는 +17~18% 정도의 완만한 우상향이 거의 기정사실에 가깝다(이전 글에서 이미 계산한 경로).

  • 같은 기간 원/달러가 1,450 → 1,750~1,900원으로 이동할 경우, 에너지·식량·공산품 등 수입재 가격에 느리지만 끈질긴 상방 압력이 더해진다.


이 조합은 다음과 같은 결과를 만든다.

  1. 헤드라인 CPI의 “바닥”이 2%대 중후반으로 올라간다.

  2. 한국은행은 금리 인하를 쉽게 단행하기 어려운, **“성장률 1%대, 물가 2%대, 금리는 상대적으로 높은 상태”**에 묶인다.

  3. 기대물가가 3% 근처에서 고착될 경우, 금리 인하가 아니라 **“재인상 옵션”**이 오히려 살아난다.


앞선 글에서 썼던 표현처럼, **“통화는 계속 풀리지만 CPI는 낮게 보이고, 대신 자산과 환율이 먼저 움직이는 시대”**가 한 사이클 더 이어질 가능성이 크다.


4. 실생활 예시: 집 한 채가 만드는 7억 원대 괴리


이제 이 구조를 서울 20평대 구축 아파트 한 채에 대입해 보자.

4-1. 집값 경로


기준은 다음과 같다.

  • 2024년 중반, 서울 20평대 중반 구축 아파트: 9.4억 원

  • 2025년 중반, 실거래 평균 시세: 12억 원(이미 관측된 1차 점프)

  • 2025~2030년 서울 도심 아파트 중앙 시나리오: +18%
    → 2030년 시세: 12억 × 1.18 ≒ 14.2억 원

정리하면,

  • 6~7개월 사이 첫 점프: 9.4억 → 12억(+2.6억)

  • 그 이후 2025~2030 추가 상승: 12억 → 14.2억(+2.2억)

  • 처음 9.4억일 때 사지 못하고 2030년에 14.2억에 산다면,
    집값 격차만 약 4.8억 원이다.

이 경로는 위에서 설정한 M2 누적 +40% / 집값 +18% 베이스라인과 일치한다.

4-2. 주담대 금리 경로


현실 금리와 이번 시나리오를 합치면, 대략 이렇게 볼 수 있다.

  • 2024년 중반: 평균 주담대 금리 3.5% 안팎

  • 2025년 중반: 10년물·코픽스 상승으로 4.5% 내외

  • 2026~2030, “금리 인하 지연·재인상 High 시나리오”에서
    주담대 금리 5.5% 근처까지 재상승(기준금리 3%대 초반 + 가산금리 확대)

같은 5억 대출, 35년 만기, 원리금균등 상환을 가정하면:

  • 금리 3.5%일 때

    • 월 상환액: 약 207만 원

    • 총 이자: 약 3.7억 원

  • 금리 5.5%일 때

    • 월 상환액: 약 269만 원

    • 총 이자: 약 6.3억 원

같은 5억을 빌려도 금리가 3.5% → 5.5%로 2%p 오르면

  • 월 상환액은 약 62만 원 증가하고

  • 평생 내는 이자는 약 2.6억 원 더 많아진다.

4-3. 합산: 한 채가 만드는 7억 원대 괴리


이제 집값과 이자를 합치면

  • 집값 격차: 9.4억 → 14.2억 = 약 4.8억 원

  • 이자 격차(3.5% vs 5.5%, 5억 대출): 약 2.6억 원

→ **총 7.4억 원 정도가 “이 집 한 채를 늦게 산 대가”**가 된다. (=지각비)


기존에 계산했던 “6~7개월 사이 4억 원 괴리(집값 2.6억 + 이자 1.3억)”가,

https://uiyeonassociation.blogspot.com/2025/11/119.html


이번 M2·환율·금리 시나리오가 끝까지 실현될 경우 **“5~6년 사이 7억 원대 괴리”**로 더 벌어지는 셈이다.

중요한 점은, 이 비용이 단순한 시장 변동이 아니라

확장 재정 → M2 상방 → 집값·환율 상방 → CPI 바닥 상승 → 금리 인하 지연·재인상


이라는 정책 경로의 결과라는 점이다.
세금 대신 **“높은 집값과 높은 이자”**라는 형태로,
중산층·실수요자의 현금흐름에 전가되고 있다는 해석이 가능하다.


5. 투자·정책 시사점


모든 이야기를 최소한으로 요약하면 다음 네 문장으로 정리할 수 있다.

  1. M2는 2030년까지 한 번 더 40% 늘고, 원/달러는 1,700~1,900원대 상단이 열린다.

  2. CPI는 2%대에서 관리되지만, 집세·수입물가가 바닥을 끌어올려 금리 인하를 가로막는다.

  3. 그 결과 수출 대형주·부동산 자산가가 승자, 내수·월세 가구·자영업이 패자가 되는 승자 편향 국면이 강화된다.

  4. 개별 가구 입장에서는, 지금 한 번의 선택이 집값과 이자를 합쳐 수억 원의 괴리로 돌아올 수 있는 구조가 이미 만들어져 있다.


참고: 데이터·기사 출처 링크



모든 자산가격(특히 도심 아파트)과 더불어 모든 자산매입 지각비가 이처럼 빠르게 뛰는 국면에서, 대출 수요를 단순한 토지거래허가제 지정, 주담대 규제, 기준금리 조정만으로 제어할 수 있다고 믿는 발상 자체가 더 놀랍다.


=끝 

생각정리 129 ( *Agentic AI, 메모리수요- 2)

 

이전 AI 진화방향에 따른 메모리 수요량을 추정했던 글에 좀 더 살을 붙여 보며 생각을 정리해본다. 


1. OpenAI 2030 로드맵: 사용자·매출과 사업 축


1) 숫자 스케치

디인포메이션·로이터 등 외부 기사에 나온 OpenAI내부 추정치를 최소한만 잡으면 다음과 같다.




  • WAU(주간 활성 사용자)

    • 2025년: 약 8억

    • 2030년: 약 26억

  • 유료 구독자

    • 2025년: 약 3,500만(침투율 5%)

    • 2030년: 약 2억2,000만(침투율 8.5%)

  • 연간 매출(달러)

    • 2023년: 약 37억

    • 2025년: 약 127억

    • 2029년: 1,250억

    • 2030년: 1,740억

즉, 사용자 수 3배+ / 유료 침투율 상향 / ARPU 상승을 동시에 전제한 로드맵이다.




2) 사업 구조


디인포메이션 문건과 후속 보도를 합치면, 2030년 OpenAI의 사업 축은 네 가지로 정리된다.

  1. 소비자 구독: Plus·Pro·Team·Business 등 다단계 요금제와 개인 비서 기능으로 헤비 유저 ARPU 극대화.

  2. API·엔터프라이즈: 개발자 API, ChatGPT Enterprise/Team, 파트너 SaaS에 삽입되는 B2B 플랫폼 매출.

  3. 에이전트/디지털 노동: 아직 출시되지 않은 에이전트·워크플로 제품이 2029~30년 매출의 큰 축으로 잡혀 있음.

  4. 광고·쇼핑·커미션: ChatGPT 안에서 검색·비교·구매까지 이어지는 쇼핑 어시스턴트와 스폰서 노출, 제휴 커미션.


한 줄로 정리하면, **“에이전트 중심 디지털 노동 OS + 광고·커머스 플랫폼”**을 2030년까지 완성하는 그림이다.


2. 같은 로드맵이 요구하는 메모리 수요


2-1) 2025년 기준선: Hopper( H100/H200 ) 중심


앞에서 잡은 것처럼, Altman의 발언(“2025년 말까지 GPU 100만 개를 훨씬 넘는 수준”)을 그대로 쓰되,

https://www.techradar.com/pro/openais-sam-altman-is-dreaming-of-running-100-million-gpus-in-the-future-100x-more-than-what-it-plans-to-run-by-december-2025?utm_source=chatgpt.com


이 100만 개 대부분이 H100/H200 세대라고 본다.

  • H100 1개당

    • HBM3: 80GB

    • 서버 DRAM: 약 192GB (DGX H100 기준 8×H100에 2TB DRAM 가정)

→ GPU당 고속 메모리 ≒ 272GB

100만 개를 곱하면:

  • 1,000,000 × 272GB ≒ 0.27EB

따라서 2025년 OpenAI 고속 메모리 풀 = 0.27EB를 기준선(=1)으로 둔다.


2-2) 2030년 기준선: Hopper + Blackwell + Vera Rubin 혼합


2-2-1) 세대별 구성 비율 가정


2030년에는 누적 설치량 기준으로:

  • Blackwell 계열(GB200/GB300) 이 가장 많고,

  • Vera Rubin은 2026년 이후 본격 양산이므로 아직 “중후반부 성장구간”,

  • Hopper는 구세대이지만 저우선순위 워크로드에 여전히 쓰이는 수준

이라는 그림이 합리적이다.

그래서 OpenAI 내부 가상 구성(“GPU/가속기 유닛 수”)을 다음처럼 두겠다.

  • Hopper(H100/H200): 3백만 유닛

  • Blackwell(GB200/GB300): 1,200만 유닛

  • Vera Rubin(+Rubin CPX 쌍 기준): 500만 유닛


2,000만 유닛으로, 2025년 100만 대비 20배 규모의 가속기 설치를 가정하는 셈이다.


2-2-2) 세대별 메모리 용량


공개 스펙을 기반으로 세대별 메모리/유닛을 간단히 잡으면:

  • Hopper(H100): 272GB/유닛 (위 기준과 동일)

  • Blackwell GB200 NVL72: 랙당 13.8TB HBM + 약 17TB 시스템 메모리 → GPU당 ≒ 430GB/유닛으로 근사.

  • Vera Rubin NVL144 CPX: 랙당 100TB 고속 메모리 = Rubin + Rubin CPX 144쌍 → 쌍당 ≒ 700GB/쌍.

2-2-3) 2030년 EB 단위 메모리 풀


이제 세대별로 곱해 보면:

  • Hopper:

    • 3M × 272GB = 816M GB ≒ 0.82EB

  • Blackwell:

    • 12M × 430GB = 5,160M GB ≒ 5.16EB

  • Vera Rubin(+CPX):

    • 5M × 700GB = 3,500M GB ≒ 3.5EB

합계:

  • 총 ≒ 9.5EB


레이어별 비중:

  • Hopper: 약 9%

  • Blackwell: 약 54%

  • Vera Rubin: 약 37%

즉,

  • 2030년 기준선 메모리 풀은 Hopper+Blackwell+Vera Rubin이 함께 구성되지만,

  • 누적 설치량 기준으로 Blackwell이 여전히 최대 주력,

  • Vera Rubin도 전체의 1/3 이상을 차지하는 의미 있는 축,


이라는 그림이 된다.


3. 2025 → 2030 배수로 본다면


2025년 0.27EB를 1로 놓으면, 위 2030 기준선 9.5EB는:

  • 9.5EB / 0.27EB ≒ 35배

이고, 현실적인 범위를 잡으면:

  • Low 시나리오: 7EB (약 26배)

  • Base 시나리오: 9.5EB (약 35배)

  • High 시나리오: 14EB (약 52배)

정도 범위로 보는 것이 타당하다.

아래 선그래프는 바로 이 가정을 반영한 것이다.

  • 2025년: 1

  • 2030년:

    • Low: ≒26

    • Base: ≒35

    • High: ≒52

로, Hopper → Blackwell → Vera Rubin 세대가 겹치며 고속 메모리 풀이 두 자릿수 배수로 커지는 경로를 시각화한 것이다.

요약하면, 위와 같이

  • “누적 설치량은 Blackwell이 최대”,

  • “신규·롱컨텍스트·에이전트 워크로드는 Vera Rubin 비중이 빠르게 상승”,


이라는 혼합 구성을 두면, 2030년 OpenAI 인프라의 메모리 스케일이 **총량 측면에서는 여전히 2025년 대비 30~50배 구간의 ‘엑사바이트급 확장’**이라는 결론을 유지할 수 있다.



3. 유료화 전략이 메모리 사용을 구조적으로 키우는 이유


이제 **“왜 OpenAI의 유료화 전략이 메모리를 더 쓰게 만들 수밖에 없는가”**를 따로 정리한다.

3-1. 먼저 기본 구조: LLM 서비스 자체가 이미 메모리 집약적이다


LLM 서빙은 시작부터 메모리에 무겁다.

  • 가속기 메모리(VRAM)

    • 모델 파라미터 + KV 캐시가 GPU/HBM 위에 상주한다.

    • 파라미터 수가 크고(수백억~수조), 컨텍스트와 동시 세션이 늘수록 VRAM 수요가 직선적으로 증가한다.

  • 시스템 메모리(RAM)

    • 요청 중간 상태, RAG 결과, 에이전트 상태, 캐시가 DRAM·CXL·SOCAMM에 쌓인다.

  • 영구 스토리지(디스크/오브젝트)

    • 로그, 사용자 히스토리, 문서, 코드, 에이전트 자산 등 장기 데이터를 저장한다.

즉, 쇼핑·광고·앱 스토어를 전혀 안 붙여도,

 “ChatGPT 하나”만으로 이미 VRAM·RAM·스토리지 사용량이 비정상적으로 큰 서비스이다.

그 위에 OpenAI가 구상하는 **유료화 전략(쇼핑·광고·앱 스토어·에이전트)**이 올라가면,
각 전략이 **추가 상태(state)**를 요구하면서 메모리 사용을 한 단계씩 더 끌어올린다.

3-2. 전략별 메모리 사용 구조


(1) 쇼핑 어시스턴트 + 제휴 커미션


필요 리소스는 세 층으로 나뉜다.

  1. 상품·셀러 데이터베이스

    • 수천만~수억 개 상품의

      • 제목, 설명, 가격, 재고, 평점, 이미지, 메타데이터, 제휴 링크

    • → 디스크·오브젝트 스토리지 + 인메모리 캐시(RAM) 요구 증가.

  2. 검색·추천용 임베딩 스토어

    • 상품·쿼리·사용자 프로필 임베딩을 벡터 DB에 보관, 조회.

    • → RAM·NVMe·GPU 모두 쓰지만, 특히 임베딩 캐시 메모리 비중이 커진다.

  3. 개인화·히스토리

    • 클릭·장바구니·구매 내역·선호 브랜드 등의 사용자 프로필·피처 스토어를 유지.

    • → 장기적으로 **“사용자별 상태 메모리”**를 계속 쌓게 된다.

결론: 쇼핑 어시스턴트는 LLM 서빙 + 검색/추천 인프라의 결합이라,
기존 LLM보다 RAM·스토리지 요구가 확실히 더 커지는 구조이다.

(2) 검색·추천 영역 광고(CPC/CPA)


광고를 얹으면, LLM 위에 검색광고 엔진이 한 층 올라가는 셈이다.

  1. 광고 인덱스와 타게팅 피처

    • 광고주·캠페인·키워드·타게팅 조건을 저장하고,

    • 광고 크리에이티브를 임베딩·인덱싱하여 RAM/스토리지에 올린다.

  2. 실시간 경매·입찰 로그

    • 노출→클릭→전환 전 과정을 기록해야

      • 효율 측정,

      • 과금,

      • 광고 품질 점수 산출이 가능하다.

    • 트래픽이 수십억 쿼리 단위면 로그 스토리지 + 분석용 메모리 요구가 매우 크다.

  3. 개인화 + 프라이버시 레이어

    • 개인별 타게팅을 위해 사용자 프로필·세션 데이터가 메모리에 올라가고,

    • 개인정보 보호 규제를 맞추기 위해 또 다른 정책 엔진·필터링 레이어가 붙는다.

결론: 검색광고는 CPU·스토리지 비중이 크지만,
LLM 트래픽 위에 얹히면 “LLM + 검색광고 엔진” = 매우 데이터센터 집약적인 조합이 된다.

(3) 앱 스토어·에이전트 마켓플레이스


앱 스토어는 본질적으로 **“상태(state)가 많은 시스템”**이다.

  1. 앱 코드·모델·에셋 저장

    • 서드파티 앱·에이전트의 코드, 프롬프트 템플릿, 전용 임베딩·미니 모델이 저장·캐시된다.

    • 인기 앱은 아예 메모리에 상주하는 경우가 많다.

  2. 앱·에이전트 상태 관리

    • “대화형 앱”은 세션마다 워크플로 단계, 이전 요청, 중간 계산 결과 등 자신만의 상태를 가진다.

    • ChatGPT 안에서 수백만 에이전트가 동시에 동작하면, 세션 상태를 위한 RAM 사용량이 기하급수적으로 늘어난다.

  3. 과금·정산·보안

    • 앱별 사용량·매출·커미션·환불 정보를 관리하는 별도 데이터베이스와 분석 파이프라인이 필요하다.

결론: 앱 스토어 자체가 VRAM을 폭발적으로 늘리지는 않지만,
**“수많은 앱·에이전트가 동시에 돌아가며 상태를 유지하는 환경”**을 만들기 때문에,
전체적으로 상태관리용 RAM·스토리지 수요를 크게 밀어 올린다.

3-3. 경제학적으로 보면


결국 OpenAI가 이런 전략을 택하는 이유는 단순하다.

  • LLM 특성상 VRAM·데이터센터 CAPEX는 어차피 크게 깔아야 하고,

  • 이 비용을 회수하려면 유저당 매출(ARPU)을 최대한 끌어올려야 한다.

쇼핑·광고·앱 스토어·에이전트는 모두

  • 추가 메모리·스토리지·네트워크 비용을 감수하는 대신,

  • 유저당 매출을 훨씬 키우기 위한 레버리지로 설계되어 있다.

결과적으로 “유료화 서비스가 구체화될수록, 메모리·스토리지 사용량이 구조적으로 더 많이 늘어나는 방향”은 피하기 어렵다.


4. 공급 한계와 메모리 계층화: Rubin CPX·SOCAMM·GDDR7


여기서는 핵심만 다시 짚는다.

  1. DRAM/HBM 공급은 이미 타이트

    • 2025년 2분기 DRAM 출하량 76.1Eb(비트), 연간 수십 EB 규모.

    • OpenAI·SoftBank·Oracle의 Stargate에서 월 90만장 DRAM 웨이퍼(글로벌의 ~40%) 조달 가능성이 기사로 나온 상황.

    • HBM 비중도 빠르게 20%대까지 올라가고 있어, 웨이퍼·패키징·전력·냉각이 사실상 하드 컨스트레인트(=물리적 제약)가 된다.

      사실상 가까운 시일 내에는 충족될 수 없는 수준의 유효수요가 이미 눈앞에 드러난 상황에서, 이렇게 뚜렷한 물리적 공급 제약을 둔 채 “AI 버블”을 논한다는 것 자체가 얼마나 의미 있는 질문인지 회의적이다.


      https://t.me/insidertracking


  2. DistServe·InfiniGen: 메모리 임계점 실측

    • DistServe: 프리필·디코딩을 섞으면 tail latency가 폭발 → 분리형 추론 필요.

    • InfiniGen: 롱컨텍스트 구간에서 KV 캐시가 모델 가중치보다 더 많은 메모리를 먹는 지점 확인.

  3. Rubin CPX·SOCAMM·GDDR7

    • Rubin CPX(GDDR7) + Rubin(HBM4) + Vera CPU·SOCAMM/LPDDR·DDR5·CXL DRAM으로
      프리필/디코딩/상태 관리를 계층적으로 나누는 구조가 공식화.

    • 이는 HBM만이 아니라 GDDR·LPDDR(SOCAMM)·DDR5 같은 컨벤셔널 DRAM 물량도 함께 폭증할 수밖에 없는 설계이다.


5. Gemini 3 경쟁과 메모리 수요의 견조성


마지막으로 “Gemini 3 때문에 OpenAI 로드맵이 흔들리면 메모리 수요도 줄지 않느냐”는 질문이다.

핵심 논지는 세 가지이다.

  1. 승자가 누구든 구조는 같다

    • GPT, Gemini, Claude, Grok, Llama 모두

      • Transformer 계열,

      • 롱컨텍스트,

      • 에이전트·멀티모달이라는 공통 구조를 갖는다.

    • 어느 회사 모델이 1등이냐와 상관없이, AI 전체가 요구하는 HBM·DRAM·스토리지 총량의 오더는 비슷하다.

  2. 데이터센터·HBM 투자는 멀티 테넌트 전제

    • OpenAI가 확보한 Blackwell/Rubin 캐파, HBM 라인 증설은

      • 필요하면 다른 LLM·엔터프라이즈·국가 AI가 대신 채워 쓴다.

    • 한 번 구축된 인프라는 “누군가가 반드시 채우는” 장기 자본재이다.

  3. 경쟁이 심해질수록 토큰/MW·행동/MW 싸움 심화

    • Gemini 3가 더 싸고 빠르다면, OpenAI·다른 플레이어는

      • 더 깊은 추론, 더 긴 컨텍스트, 더 복잡한 에이전트 플로우로 맞대응한다.

    • 이는 더 정교한 메모리 계층 + 더 많은 총 메모리 풀을 요구한다.

따라서 경쟁 심화는 메모리 수요를 줄이기보다는, 메모리 효율을 높이기 위한 추가 투자를 자극하는 방향이라고 보는 것이 합리적이다.


6. 결론


정리하면 다음과 같다.

OpenAI 2030 로드맵

  • WAU 26억, 유료 2억2천만, 연매출 1,740억달러 수준의 에이전트·광고·커머스 플랫폼을 지향하는 그림이다.

메모리 수요

  • 2025년 기준선은 H100/H200 중심의 고속 메모리 풀 ≒ 0.27EB 수준으로 잡는 것이 현실적이다.

  • 2030년에는 Hopper·Blackwell·Vera Rubin이 혼재한 인프라를 전제로 할 때,

    • Base 시나리오:9.5EB(2025년 대비 약 35배)

    • Low 시나리오: 7EB(약 26배)

    • High 시나리오: 14EB(약 52배)
      정도의 범위가 합리적 추정 구간이다.

유료화 전략과 메모리

  • 쇼핑·광고·앱 스토어·에이전트 전략은 모두 **사용자·세션·에이전트 단위의 상태(state)**와 데이터를 계속 붙이는 방향이다.

  • 그 결과, 모델 파라미터·KV 캐시를 담는 **VRAM(HBM)**뿐 아니라, 세션 상태·벡터DB·로그를 받쳐 주는 DRAM·CXL·SOCAMM·스토리지 사용량이 구조적으로 증가할 수밖에 없다.

공급·아키텍처

  • DRAM/HBM 생산능력과 데이터센터 전력·패키징·냉각은 이미 AI 수요가 부딪히는 상한선 역할을 하기 시작했다.

  • DistServe·InfiniGen이 보여준 임계점을 지나면서, 프리필/디코딩 분리 + Rubin CPX + SOCAMM·GDDR7을 중심으로 한 메모리 계층화가 필연적인 방향으로 굳어지고 있다.

경쟁 환경

  • Gemini 3 등 경쟁이 심해져도, GPT·Gemini·Claude·Llama가 공통으로 추구하는 것은
    더 큰 모델, 더 긴 컨텍스트, 더 많은 에이전트 호출이다.

  • 따라서 어떤 진영이 일시적으로 앞서가느냐와 무관하게, AI 산업 전체가 필요로 하는 엑사바이트급 메모리 풀 확대와 계층화 방향 자체는 크게 바뀌지 않는다고 보는 편이 타당하다.


#글을 마치며

  • 세르게이 브린의 복귀 자체가 시그널이다.

    브린은 2019년 이후 전면에서 물러나 있었지만, 최근 I/O 무대에서 자신이 구글에 “요즘은 거의 매일 출근한다.”고 공개적으로 말했다.

    실제로 Gemini 팀과 직접 코드·모델 개발에 참여하고 있다는 보도가 이어지고 있다.

  • 이번 AI 시대에 대한 브린의 인식은 ‘올인(all-in)’에 가깝다.

    그는 최근 인터뷰에서 현재의 AI 발전을 **“본인 커리어에서 가장 흥미로운 진전”**이라고 표현하고, 컴퓨터 과학 역사에서 가장 중요한 시기라고까지 평가했다.

    내부 메모에서는 Gemini 팀을 향해 **“주 60시간이 생산성의 스윗 스폿(sweet spot)”**이라며, 주 5일 사무실 출근을 사실상 권고했다.

    AI 경쟁에서 지느니 차라리 회사가 파산할 각오로 경쟁에 임하겠다는 태도에 가깝다.

  • 이러한 태도의 구체적 결과물이 바로 Gemini 3.0이다.

    구글은 Gemini 3를 멀티모달·롱컨텍스트·에이전트 기능을 강화한 플래그십으로 포지셔닝하고, 검색·안드로이드·워크스페이스 등 전 제품군의 공용 두뇌로 내세운다.

    사실상 GPT 계열을 정면으로 겨냥한 반격 카드이며, AI 경쟁 판에 새 매기 역할을 던져 넣은 셈이다.

  • 이 시점에서 AI CAPEX 경쟁의 성격은 분명해졌다.

    이제 판은 OpenAI의 독무대가 아니라, **브린이 다시 앞에 선 구글까지 합류한 ‘총력전 구도’**이다.

    어느 진영이 잠시 앞서가든, 양쪽 모두가 더 큰 모델·더 긴 컨텍스트·더 복잡한 에이전트·더 촘촘한 유료화(쇼핑·광고·앱 스토어)를 위해 엑사바이트급 HBM·DRAM·GDDR·LPDDR(SOCAMM)·NAND 인프라를 계속 깔아야 한다는 사실은 변하지 않는다.


요약하면, 브린의 복귀와 Gemini 3.0은 “구글도 질 생각이 없다”는 신호이고, 이는 곧 AI CAPEX 레이스 장기화와 메모리 인프라의 구조적 수혜 가능성을 한 단계 더 높이는 촉매로 해석하는 편이 타당하다.


=끝

2025년 11월 25일 화요일

생각정리 128 ( *사모대출시장, AI Capex, interest rate divergence)

전반적인 여러 굵직한 거시경제 theme을 엮어서 생각을 글로 정리해본다.


0. 문제의식: FOMC 매파 톤, 쿠크의 경고, 그리고 포지션 고민


최근 FOMC 위원들의 코멘트는 크게 두 줄로 정리된다.

  1. 12월 추가 금리 인하는 더 이상 기본 시나리오가 아니다.

  2. 현재 수준의 금리를 상당 기간 유지하겠다는 의지가 분명하다.

리사 쿠크는 여기에 한 가지 걱정을 얹는다.

  • AI 데이터센터·인프라 투자가 사모대출을 타고 급증하고 있으며,

  • 이 부문에서 충격이 나면 금융안정을 위협할 수 있다는 것이다.

투자자 입장에서 자연스럽게 떠오르는 질문은 다음과 같다.

  1. AI CAPEX를 태운 사모대출이 정말로 ‘시스템 전체’를 흔들 수 있는 크기·구조인가?

  2. 설령 리스크가 커지고 있다 해도, 그걸 이유로
    지금 당장 더 매파적인 금리가 정당화될 정도로 긴급한가?

  3. 이런 환경에서 AI 비중을 줄이고 은행 비중을 더 늘리는 것이 맞는가?

이 글은

사모대출과 AI CAPEX의 숫자와 구조,
미국 AI 패권·달러 기축과 AI CAPEX 지속성,
케빈 해셋 시나리오에서의 LIM 확대와 대형은행

을 차례대로 살펴본 뒤, 매크로와 바텀업을 같이 놓고 금융섹터를 보려는 시도이다.


1. 리사 쿠크의 경고: 요지만 정리


쿠크의 핵심 메시지는 한 문장으로 요약된다.

“AI 인프라와 사모대출이 빠른 속도로 결합하고 있고,
이 연결이 두꺼워질수록 크레딧 사이클의 변동폭과 금융안정 리스크가 함께 커질 수 있다.”

 

그녀가 말하고 싶은 것은
“AI CAPEX 사모대출이 곧 서브프라임 2.0이다”가 아니라,

  • 사모대출–은행–기관투자가의 연결이 어떻게 쌓이고 있는지,

  • 규제·데이터·익스포저 상한을 선제적으로 정비해야 한다는 경고에 가깝다.

이 경고가 얼마나 설득력이 있는지는, 숫자를 봐야 한다.


2. 사모대출 시장의 규모와 구조


2-1. 규모: 이미 메이저 채널은 맞다


여러 통계를 종합하면, 사모대출은 지난 10년 사이 분명히 “니치”에서 “메이저 크레딧 채널”로 올라섰다.

[표 1] 글로벌 사모대출 시장 규모와 성장 추이



“변두리 시장”이라는 말은 더 이상 맞지 않는다.
다만, 은행대출·국채·공모채까지 합친 전체 글로벌 신용 시스템과 비교하면 여전히 부분집합이다.

2-2. 구조: 장기 자본 비중이 높다


구조적으로 보면

  • AUM의 80% 이상이 자본콜 구조의 폐쇄형 펀드,

  • 나머지가 일부 CLO·상장 BDC·에버그린 구조 등으로 구성되어 있다.

  • 투자자는 주로 연기금·보험사·국부펀드 등 장기 기관투자가이다.

2008년 SIV·MMF처럼 단기자금에 의존하는 구조는 아니다.
“런(run)” 가능성을 낮추는 방파제가 어느 정도 내장된 셈이다.


3. 은행·기관투자가 익스포저: 어디까지 왔나


쿠크가 특히 우려하는 지점은 사모대출–은행–기관투자가의 연결고리이다.

요약하면 다음과 같다.

[표 2] 미국 은행의 사모대출 관련 익스포저(개략)




핵심은 두 가지이다.

  1. 은행–사모대출 연결고리는 확실히 두꺼워지고 있다.

  2. 그러나 은행 전체 B/S에서 차지하는 비중은 아직 제한적이며,
    당장 “시스템 붕괴”를 논할 수준은 아니라는 점이다.


4. AI 인프라 CAPEX와 사모대출


4-1. 규모: 이미 “조(Trillion) 단위 게임”


맥킨지, 골드만, JP모건, 씨티 등의 리포트를 종합하면, 대략 다음과 같은 그림이 나온다.


[표 3] AI 인프라·데이터센터 CAPEX 주요 전망



즉, AI 인프라 CAPEX는 이미

“수조 달러 규모의 장기 투자 테마”

 

라는 점에서 논쟁의 여지가 크지 않다.

4-2. 사모대출의 위치: 아직은 일부 세그먼트지만, 속도는 빠르다


대표적인 사례 두 개만 봐도 흐름은 분명하다.



메타 사례는 사모대출이 AI 인프라의 “메인 플레이어”로 진입했다는 신호이고,
울프스피드는 섹터·기업 단위 크레딧 이벤트가 실제로 발생할 수 있음을 보여준 사례이다.


요약하면,

  • 사모대출은 AI CAPEX 자금조달의 핵심 축 중 하나로 이미 자리 잡았고,

  • 지금도 속도가 매우 빠르지만,

  • 여전히 전체 6~7조 달러 중 일부 세그먼트라는 점도 동시에 사실이다



5. “시스템 리스크”인가, 아직은 섹터 리스크인가


위 숫자들을 층위별로 정리하면 다음과 같다.

  1. 프로젝트·섹터 수준 리스크

    • 고 CAPEX·정책 의존도가 높은 AI 데이터센터·반도체·전력 인프라에서
      사모대출 비중이 높으면, 경기 조정 시 NPL·디폴트는 자연스럽게 증가한다.

    • 이 단계는 개별 섹터·기업·펀드 차원의 크레딧 사이클이다.

  2. 펀드·기관 포트폴리오 수준 리스크

    • 레버리지·유동성 미스매치, 에버그린·리테일 구조 확대,
      AI 관련 딜의 포트폴리오 내 과도한 집중이 겹치면
      섹터 조정 → NAV 급락 → 레버리지 축소 → 추가 매도의 증폭 메커니즘이 작동할 수 있다.

  3. 시스템 리스크로 비화할 조건

    • 은행 B/S에서 사모대출 관련 익스포저가 지금보다 몇 배 이상 커지고,

    • 사모대출 자금조달이 단기자금·MMF·리테일 중심으로 변질될 경우에야
      2008년형 “시스템 위기” 시나리오가 현실적인 옵션이 된다.

현재 데이터로 보면,

“AI CAPEX 사모대출 → 즉각적인 시스템 붕괴” 서사는 과장이다.
다만, 성장 속도와 연결 확대를 고려하면 향후 5~10년 동안
크레딧 사이클의 변동폭을 키울 잠재력
은 분명하다.

 

따라서 정책적으로는,

  • 기준금리 인상보다는

  • 보고·공시 강화, 레버리지·유동성 규제, 은행 익스포저 상한 관리 같은
    매크로 프루던셜 쪽에 우선순위를 두는 것이 더 합리적이다.


6. 구조적 장기침체·자연이자율, 그리고 미국의 AI 패권: 왜 AI CAPEX/GDP가 쉽게 내려가기 힘든가


이제 좀 더 큰 그림으로 넘어가자.
이미 앞선 글들에서 자세히 썼으므로 결론만 정리한다.

6-1. 지난 40년의 배경: 저성장·저금리·과잉저축 레짐

1980~2020년 사이 전 세계는

  • 고령화와 성장률 둔화,

  • “전기·자동차·통신”에 준하는 대형 실물 혁신의 부재,

  • 소프트웨어·플랫폼 중심의 저 CAPEX 고수익 산업 구조,

  • 중국·독일·동아시아·산유국의 글로벌 저축 과잉,

  • 상위 계층 집중의 높은 저축성향

을 겹쳐 안고 있었다.

결과적으로

  • 생산적인 실물 CAPEX는 줄었고,

  • 투자 수요보다 저축 공급이 큰 구조가 고착되며,

  • 실질·명목 자연이자율은 하락,

  • 중앙은행은 반복적으로 QE·제로금리로 공백을 메우는
    “초전능한 시민” 역할을 떠맡게 되었다.

이 레짐을 깨려면 한 가지 조건이 필요하다.

저축이 자발적으로 흘러 들어가고 싶어 하는,
대규모 물리 CAPEX + 생산성 충격이 동시에 존재하는 투자처.

 

나는 그 현실적인 후보가 AI 인프라·AI CAPEX라고 본다.

6-2. AI CAPEX 붐이 금리에 주는 압력


이제 **AI CAPEX/GDP 0.9~1% → 2030년 4~5%**라는 시나리오를
“금리” 관점에서 정리해 보자.

(1) 규모 정리: 이미 0%대 후반은 먹고 들어가는 구간


대략적인 숫자를 정리하면 다음과 같다.

  • 2024년 기준 글로벌 데이터센터 CAPEX는 약 4,500억 달러 내외로 추산된다.
    이 중 상위 10개 하이퍼스케일러(AWS, MS, 구글, 메타 등)가 절반 이상을 차지하며,
    증가는 상당 부분 AI 인프라 투자 때문이다.

  • 하이퍼스케일러 CAPEX만 따로 봐도,
    2024년 3,000억 달러 수준, 2025년에는 이보다 더 높은 수치가 거론된다.

  • 세계 GDP를 110~120조 달러로 놓고 보면,
    AI 중심 데이터센터 CAPEX만으로도 이미 GDP의 0.3~0.5%p 정도는 차지하고 있다.

여기에

  • 전력망 증설,

  • 발전소(가스·원전·재생에너지),

  • 반도체 팹,

  • 냉각·네트워크 인프라까지 합치면

현재 우리가 보는 AI CAPEX/GDP 0.9~1% 구간
과장이라기보다 “조금 확대해서 본 추정치” 정도로 볼 수 있다.

2030년에 **4~5%**까지 간다는 가정은 공격적이지만,
반도체·전력·인프라까지 모두 “AI 관련 설비”로 묶는다면
완전히 비현실적이라고 단정하기도 어렵다.



(2) 투자 붐과 자연이자율(r*)의 방향성


교과서적으로 보면, 대규모 투자 붐은 자연이자율에 다음과 같이 작용한다.

  1. 기대 생산성(TFP)이 뛰면 자본의 한계생산성이 올라간다.

  2. 자본집약도가 올라가면 “원하는 자본스톡”이 커진다.

둘 다 균형 실질금리 r*를 올리는 방향이다.

19세기 미국 철도 투자도 마찬가지였다.

  • 철도 CAPEX가 GDP 대비 빠르게 상승했고,

  • 장기적으로는 경제성장률을 끌어올리는 역할을 했지만,

  • 초기에는 막대한 자본을 필요로 해서
    정부·민간에서 대규모 자금조달이 필요했던 투자붐이었다.

AI도 구조는 비슷하다.

  • GPU, 데이터센터, 전력 인프라, 팹 증설 등 완전히 물리적인 설비투자가 필수이고,

  • 투자규모는 이미 연간 수천억 달러,
    앞으로는 수조 달러 단위 누적 투자가 필요하다는 리포트들이 많다.

이런 구조에서는,

**“AI가 생산성을 올리니 성장률이 좋아져서 금리가 내려간다”**기보다는
**“AI로 생산성이 올라가니, 그걸 구현하기 위한 자본수요 때문에 r*가 올라간다”**가
이론적으로 더 자연스럽다.

 

(3) 순(純) 추가 수요와 재무·재정의 결합


다만 모든 AI CAPEX가 “순수한 추가 투자수요”는 아니라는 점도 중요하다.

지난 20년 동안 빅테크는

  • 물리적 CAPEX는 상대적으로 적고,

  • 소프트웨어·인적자본에 투자하면서,

  • 막대한 잉여현금을 내부유보·자사주 매입·배당으로 돌려 왔다.

이제는

  • AI CAPEX가 급증하면서

  • 내부 유보금을 상당 부분 집어넣고,

  • 부족분을 회사채·사모대출 등 외부 조달로 메우는 구조로 가고 있다.

그래서 이론적으로는,

“신규 AI CAPEX = 전부 추가적인 저축 필요”는 아니다.


배당·자사주 매입을 줄이면, 같은 기업부문 저축률 안에서 투자구성이 바뀌는 것일 뿐이므로
금리에 미치는 순효과는 감소한다.

하지만 현실에서는 AI CAPEX만 있는 것이 아니다.

  • 에너지 전환(재생·원전·송배전),

  • 국방·안보(재무장),

  • 리쇼어링·친환경 인프라,

  • 미국 재정적자로 인한 국채 공급 확대가 동시에 진행되고 있다.

즉, 여러 개의 CAPEX·재정 슈퍼사이클이 겹치는 구조

“순투자 수요 > 순저축 공급”이 될 가능성이 높고,
이는 실질 장기금리(r, r*)에 상방 압력
을 준다.

 

(4) 누가 돈을 빌려주나: 회사채 vs 사모대출


자본수요가 늘어날 때, 어느 채널이 얼마나 부담을 나누는가
도 중요하다.

  1. 메가캡·하이퍼스케일러

    • AWS, MS, 구글, 메타 같은 이름들은
      여전히 내부현금 + 공모 회사채 + CP 등 전통적 채권시장을 주된 조달 창구로 이용할 가능성이 크다.

    • 이들은 신용도가 높고, 조달비용이 가장 낮은 계층이다.

    • 따라서 이들의 AI CAPEX는
      회사채발행 증가 → 국채와 함께 장기금리·크레딧스프레드에 상방 압력을 거는 쪽에 가깝다.

  2. 중견 AI 서비스·인프라·데이터센터 운영사

    • 은행 규제·레버리지 규제로 인해
      레버리지드론·하이일드 시장에서 **사모대출(Private Credit)**로 넘어가는 트렌드가 이미 진행 중이다.

    • 글로벌 사모대출 AUM은 지난 10년간 네 배 이상 늘어
      레버리지드론·하이일드 회사채 시장과 비슷한 규모까지 왔다.

    • AI 데이터센터·코로케이션·중소형 클라우드·GPU 리스 같은 비즈니스는
      전형적인 **“고 CAPEX, 일정한 캐시플로우, 은행이 싫어하는 레버리지 구조”**이므로
      사모대출·인프라 펀드·PE와 궁합이 좋다.

즉,

  • 메가캡의 AI CAPEX는 공모 회사채·국채와 함께 장기금리 레벨 자체를 끌어올리는 쪽,

  • 중견·비상장 영역의 AI CAPEX는 사모대출 채널을 통해 레버리지·크레딧 사이클의 변동폭을 키우는 쪽

에 각각 영향을 준다고 볼 수 있다.

이 두 가지가 겹치면,
장기금리의 레벨(r, r*)과 크레딧 사이클의 “진폭”이 동시에 커지는 구조가 된다.
앞 절에서 본 쿠크의 경고는 이 **두 번째 축(진폭 확대)**에 더 가까운 이야기이다.


7. FOMC 매파 발언의 위상: 구조적 흐름 속의 단기 노이즈


이 구조 위에서 FOMC를 다시 보면, 그림은 깔끔하다.

  • 단기적으로는

    • 12월 인하 기대 후퇴,

    • 금리·달러 강세,

    • 성장주·AI 밸류에이션 조정이 일어나고,

  • 일부에서는 “여기서 AI CAPEX가 꺾이면서 CAPEX/GDP가 빠질 수 있다”는 우려도 나온다.

하지만 위에서 본 것처럼

  • 패권·달러 기축·경쟁·경로의존성을 감안하면
    AI CAPEX/GDP 비율이 “의미 있게 낮아지는 시나리오”의 확률은 매우 낮다.

따라서

이번 FOMC 매파 발언은 AI CAPEX–사모대출–패권 구조라는 큰 흐름 속에서는
방향을 바꾸는 이벤트가 아니라, 단기 노이즈에 가깝다.

 

AI 비중과 금융 비중을 조정하더라도,
그 판단은 “12월 인하냐 동결이냐”가 아니라
AI CAPEX/GDP가 중장기적으로 유지·상승하는 레짐을 전제로 해야 한다.


8. 승자와 패자: 저부가 업종 vs 금융·에너지·커머디티


이 레짐에서 구조적 승자·패자는 대략 이렇게 갈린다.

  1. 저부가·저마진 업종(가격결정력 약한 사업)

    • OPM 5% 이하, 인건비·금리·에너지 비용 상승을 전가하기 힘든 업종은
      고 CAPEX·고 금리·고 에너지 비용 조합에서 구조적 패자가 될 가능성이 크다.

  2. 금융섹터

    • AI CAPEX와 이를 뒷받침하는 유동성 공급 과정에서
      대출·자본시장·투자·트레이딩의 총 파이 자체가 커진다.

    • 이는 “고금리라서 은행이 좋다”를 넘어서,
      **“생산적인 자본투자 붐에 동행하는 금융업의 레벨업”**에 가깝다.

  3. 에너지·커머디티·R&D

    • AI 데이터센터 전력, 그 전력을 공급하는 가스·원전·재생에너지,

    • 핵심 소재·부품, 원전·핵융합 R&D까지
      자본이 이동하며 중장기 성장잠재력과 단기 인플레 압력이 동시에 나타날 것이다.

이제 마지막으로, 이 구조 위에 케빈 해셋 시나리오를 얹어 보자.


13. 케빈 해셋 시나리오: 중립금리 하방–AI CAPEX 상방–LIM 확대, 그리고 금융섹터


최근 폴리마켓 등에서 차기 연준의장 1순위로 케빈 해셋이 자주 거론되고 있다.
해셋은 다음과 같은 발언을 반복해 왔다.




  • “경제 데이터는 금리 인하를 지지한다. 내가 연준 의장이라면 이미 금리를 내렸을 것이다.”

  • 팬데믹 이후 연준의 인플레이션 대응을 강하게 비판하며 명확한 비둘기파 스탠스를 보여 왔다.


그가 실제로 차기 연준의장이 된다는 가정하에,
중립금리와 AI CAPEX, 그리고 은행의 LIM 구조를 동시에 보면 다음과 같은 시나리오가 나온다.

13-1. 중립금리 인식의 하방 편향과 정책금리


해셋 체제에서 연준은

  1. 중립금리(r*) 추정에 하방 편향을 가질 가능성이 크다.

    • 장기 성장·인플레 전망을 보수적으로 잡고,

    • “우리는 여전히 저금리 세계에 있다”는 인식을 유지하려 할 유인이 있다.

  2. 정책금리를 r*보다 낮게 두려는 정치적 유인이 강화된다.

    • 경기 둔화나 금융시장 조정을 명분으로
      실질금리를 r*보다 낮게 유지하려 할 가능성이 크다.

  3. 그 결과, 단기 정책금리·예금금리는 구조적으로 낮게 앵커링될 수 있다.

즉,

정치·인사 요인으로 ‘보이는 중립금리’는 낮아지고,
정책금리는 그보다 더 낮게 찍힐 위험이 커진다.

 


 

13-2. 동시에 AI CAPEX/GDP는 구조적으로 상방


반면 실물·패권 측면에서는 앞에서 본 것처럼

  • AI 인프라·데이터센터 CAPEX는
    수조 달러 규모 파이프라인과 패권·달러 기축 구조를 배경으로
    GDP 대비 비중을 구조적으로 끌어올리는 힘으로 작용한다.

  • 경쟁국(중국·EU 등)도 AI CAPEX를 늘리고 있기 때문에
    미국이 먼저 CAPEX/GDP를 크게 낮출 유인은 거의 없다.

따라서 실질 자연이자율 r*

  • 생산성 충격과 CAPEX 붐 때문에
    상방 요인을 받거나 최소한 하락이 제한되는 반면,

정책금리·단기금리

  • 해셋과 같은 비둘기파 의장의 영향으로
    r*보다 낮게 설정될 위험이 커진다.

13-3. LIM 확대와 대형은행: 매크로–바텀업 통합 관점


이 조합을 은행 손익구조로 옮기면 그림은 명확하다.

  1. 부채(조달비용)

    • 리테일 예금·단기 조달금리는
      비둘기파 연준이 찍는 낮은 정책금리에 연동된다.

    • 즉, 평균 조달금리는 구조적으로 낮게 유지될 가능성이 크다.

  2. 자산(대출·투자)

    • AI 데이터센터·반도체·전력·인프라,
      그리고 이와 연계된 기업·프로젝트 대출은
      높은 CAPEX·리스크를 반영해 상대적으로 높은 금리·스프레드를 요구할 수 있다.

    • 장기 국채·회사채·사모대출 금리도
      AI CAPEX와 재정·인플레 요인 때문에 쉽게 낮아지지 않는다.

결과적으로,

LIM(대출금리 – 조달금리)·NIM은 구조적으로 넓어질 여지가 크다.

 

여기에 더해

  • AI CAPEX·사모대출·회사채 발행이 결합된
    자본시장·투자은행 업무 파이까지 커지면,

  • 잘 준비된 대형은행에게 이번 사이클은
    “단순 고금리 수혜”가 아니라 “레벨업”에 가까운 국면이 될 수 있다.

물론 모든 은행이 동일하게 수혜를 누리지는 않는다.

  • 저비용 안정 예금 기반,

  • 건전한 자본여력(RWA 여지),

  • 기업·프로젝트 금융·IB 역량을 가진
    상위 대형은행

  • 그렇지 못한 은행 간의 격차는 오히려 벌어질 것이다.

그러나 매크로–바텀업을 동시에 놓고 보면 결론은 비교적 명확하다.

  1. AI CAPEX/GDP 비율은 패권·달러·경쟁·경로의존성 때문에 쉽게 낮아지기 어렵다.

  2. 케빈 해셋과 같은 비둘기파 의장이 등장할 경우,
    보이는 중립금리는 하방, 실제 정책금리는 그보다 더 아래로 설정될 유인이 커진다.

  3. 이 조합은

    • 장기·신용금리 상방(AI CAPEX·재정·인플레 요인)과

    • 단기·예금금리 하방(정치적 연준) 사이의 괴리를 키우며,

    • 선별된 대형은행에게 LIM 확대와 파이 확대라는 구조적 기회를 제공한다.

따라서 앞으로 금융섹터를 볼 때는,

“금리가 오르냐 내리냐”라는 1차원적 프레임이 아니라,
“AI CAPEX/GDP의 지속적 상방 + 중립금리 인식의 하방 + 은행 LIM 구조”라는
매크로–바텀업 통합 관점에서 볼 필요가 있다.

 

AI와 금융은 경쟁 포지션이 아니라,
이제는 **같은 레짐 안에서 서로를 강화하는 쌍(pair)**에 가까워지고 있다.

=끝