2026년 3월 15일 일요일

생각정리 202 (* 전쟁기계)

지난 주말, 『미국은 왜 전쟁을 멈추지 못하는가?』를 읽으며 떠오른 개인적인 생각을 정리해 기록해본다.


미국은 왜 전쟁을 멈추지 못하는가

나는 경제를 바라볼 때 가장 먼저 가족을 떠올린다.

국가와 기업, 정부조직 역시 결국 가족을 부양해야 하는 개인들이 모여 움직이는 집합이며, 그런 점에서 가족은 최소 경제주체의 시작점이라고 생각하기 때문이다.

그래서 미국의 전쟁 문제도 단순히 “미국이 패권을 원해서”라고만 보면 충분하지 않다고 생각한다.
그 뒤에는 더 현실적인 이유가 있다.

누군가는 가족 생계를 위해 움직이고,
누군가는 지역 일자리를 지키기 위해 움직이며,
누군가는 재선을 위해,
누군가는 퇴직 후 좋은 자리를 위해 움직인다.

이런 이해관계가 하나로 모이면, 전쟁은 단지 외교 문제가 아니라 돈이 움직이는 구조가 된다.


1. 공직은 명예롭지만, 워싱턴에서 가족을 부양하기는 생각보다 쉽지 않다


겉으로 보면 미국의 의원이나 고위 관료는 고연봉을 받는 사람들처럼 보인다.

실제로 미국 상·하원의원의 기본 연봉은 연 17만4천 달러이다.
숫자만 보면 적지 않아 보인다.

하지만 워싱턴 D.C.에서 4인 가족이 생활한다고 생각하면 이야기가 달라진다.

기본적인 생활비만 따져도,
주거비, 식비, 의료비, 교통비, 보육비를 합쳐 월 1만 달러 안팎이 필요하다는 추정이 나온다.
특히 자녀가 어릴 경우 보육비 부담이 매우 크다.

즉, 연봉 17만4천 달러라고 해도 세금을 내고 나면,
자녀가 있는 4인 가족이 워싱턴에서 넉넉하게 살기에는 생각보다 빠듯할 수 있다.

여기서 중요한 점은, 의원이나 고위 공직자는 일반 직장인처럼 한 도시에서만 사는 경우가 아니라는 것이다.
많은 경우 워싱턴 D.C. 체류 비용지역구 생활 비용을 함께 부담해야 한다.

겉으로는 “의원인데 왜 돈이 부족하겠냐”고 보이지만,
실제로는 체면은 높고 생활비 부담도 높은 직업인 셈이다.

그래서 공직 이후의 선택은 단순히 명예의 문제가 아니다.
결국은 가족을 어떻게 먹여 살릴 것인가의 문제가 된다.

이때 가장 매력적인 선택지 중 하나가 바로 로비스트, 방산업체 고문, 정책 컨설턴트 같은 자리이다.







2. 그래서 공직 경험은 퇴직 후 ‘비싼 경력’이 된다


의원이나 관료가 방산업체나 로비회사로 옮겨가는 이유를
많은 사람들은 단순히 탐욕이나 부패로만 이해한다.

물론 그런 측면도 있을 수 있다.
하지만 현실은 그보다 더 구조적이다.

워싱턴에서는 공직 경험 자체가 매우 비싼 자산이다.
어떤 예산이 어디서 결정되는지,
누가 영향력을 갖고 있는지,
어떤 방식으로 의회를 설득해야 하는지 아는 사람은 기업 입장에서 매우 가치가 크다.

즉, 공직자는 퇴직하는 순간 “전직 의원”이나 “전직 관료”가 아니라
예산과 정책 결정 구조를 잘 아는 사람이 된다.

그리고 방산업체는 이런 사람에게 높은 보수를 지급할 유인이 충분하다.
왜냐하면 국방예산은 규모가 워낙 크기 때문이다.

결국 구조는 이렇게 된다.

공직에 있을 때는 명예가 있지만 생활은 빠듯하다.
퇴직 후에는 그 경력을 바탕으로 훨씬 높은 소득을 얻을 수 있다.
그러면 현직에 있을 때부터 사람은 자연스럽게 퇴직 후 시장가치를 의식하게 된다.

이 지점에서 전쟁과 국방예산은
국가안보만의 문제가 아니라
개인의 미래소득 문제가 되기 시작한다.


3. 군수업체는 미국 여러 지역에서 ‘안보기업’이 아니라 ‘일자리 기업’이기도 하다


미국의 방산업체는 단순히 무기를 만드는 회사가 아니다.

많은 지역에서 방산업체는
공장을 운영하고,
하청업체를 먹여 살리고,
지역에 일자리를 만들고,
지역경제를 지탱하는 핵심 기업 역할을 한다.

그래서 의원 입장에서 국방예산은 단순한 안보정책이 아니다.

국방예산이 늘어나면
내 지역구 공장이 더 돌아가고,
일자리가 유지되고,
지역경제가 살아난다.

반대로 국방예산이 줄면
지역구 표심이 흔들릴 수 있다.

결국 의원은 “국가 전체의 효율”보다
먼저 “내 지역구의 고용과 득표”를 생각하게 된다.

이렇게 되면 국방예산은
워싱턴에서는 안보의 언어로,
지역구에서는 먹고사는 문제의 언어로 바뀐다.

그래서 미국 정치에서 국방예산 삭감은 늘 어렵다.
안보 때문이기도 하지만, 동시에 지역경제 때문이기도 하다.


4. 미국의 거대한 국방비는 계속해서 새로운 위협을 필요로 한다


미국은 세계에서 가장 많은 국방비를 쓰는 나라이다.

이처럼 거대한 예산과 산업이 유지되려면
사람들에게 “이 정도 예산이 왜 필요한가”를 계속 설명해야 한다.

그래서 미국은 늘 강력한 위협 서사를 필요로 한다.

과거에는 소련이 있었고,
그다음에는 중동의 테러와 이라크가 있었고,
지금은 중국이 가장 큰 위협으로 제시된다.

물론 실제로 중국의 부상은 미국에게 중요한 전략문제이다.
이 점 자체를 부정할 수는 없다.

하지만 여기서 중요한 것은,
이런 외부 위협이 단순히 안보 문제로만 소비되지 않는다는 점이다.

외부 위협은 동시에
국방예산 확대를 정당화하는 논리가 되고,
방산업체에는 계약의 근거가 되며,
정치인에게는 지역구 예산을 끌어올 명분이 된다.

즉, 위협은 실제일 수도 있지만,
그 위협이 국내에서 돈이 움직이는 구조와 결합하는 순간 훨씬 더 강력한 정치적 힘을 갖게 된다.


5. 이제는 기존 빅5 방산업체만이 아니라 AI 방산기업이 새 수혜자로 떠오르고 있다


여기서 최근의 변화가 하나 더 있다.

예전에는 방산이라고 하면
전투기, 미사일, 전차, 군함 같은 전통적인 하드웨어 중심이었다.

그래서 록히드마틴, RTX, 보잉, 노스럽그러먼, 제너럴다이내믹스 같은 기존 대형 방산업체들이 예산의 핵심 수혜자였다.

그런데 최근 전쟁은 달라지고 있다.

드론, 위성, 통신망, 데이터 분석, 자율주행 무기, AI 기반 표적 식별 같은 기술이 전쟁의 핵심으로 올라오고 있다.

쉽게 말하면,
이제 전쟁은 단순히 “누가 더 큰 무기를 갖고 있느냐”의 문제가 아니라
누가 더 빨리 보고, 더 빨리 판단하고, 더 정확하게 타격하느냐의 문제가 되어가고 있음과 동시에
과거와는 정반대 방향인 AI 자율 드론 부대와 같이 경량 무기의 대량 소모전이 되어가고 있다.

그래서 안두릴, 팔란티어, 스페이스X 같은 기업들이 새롭게 주목받고 있다.

이 점이 투자 관점에서 매우 중요하다.

왜냐하면 지금 바뀌는 것은
“군수복합체가 사라지는가”가 아니라
누가 그 돈을 가져가느냐이기 때문이다.

과거에는 하드웨어 중심의 기존 빅5가 돈을 많이 가져갔다면,
앞으로는 AI와 소프트웨어를 결합한 신생 방산기업들이 더 큰 몫을 가져갈 가능성이 크다.

즉, 구조가 없어지는 것이 아니라
수혜자의 얼굴이 바뀌는 것에 더 가깝다.


6. 그래서 본질은 ‘전쟁을 원하는 사람들’보다 ‘전쟁이 계속 돌아가게 만드는 구조’에 있다


많은 사람들은 전쟁을 볼 때
“누가 전쟁을 원하느냐”를 먼저 묻는다.

하지만 실제로 더 중요한 질문은 이것이라고 생각한다.

누가 전쟁이 계속되는 구조 속에서 이익을 얻는가.

의원은 재선을 생각한다.
관료는 퇴직 후 자리를 생각한다.
방산업체는 계약을 원한다.
지역사회는 일자리를 원한다.
투자자는 새로운 수익처를 찾는다.

이 이해관계가 하나로 묶이면,
전쟁은 누군가의 악의만으로 굴러가는 것이 아니라
시스템 전체가 쉽게 멈추기 어려운 방향으로 움직이게 된다.

즉, 미국은 단순히 호전적인 나라라서 전쟁을 멈추지 못하는 것이 아니다.

더 정확히 말하면,
전쟁과 군비확장이 미국 내부의 정치·경제·산업 구조와 너무 깊게 결합해 있기 때문에 멈추기 어려운 것이다.


7. 결국 돈의 흐름을 이해하려면 가족에서 시작해야 한다


나는 그래서 거대한 국가전략을 이해할 때도
먼저 아래 순서로 생각하는 편이 더 현실적이라고 본다.

가족은 생계를 원한다.
지역사회는 일자리를 원한다.
정치인은 표를 원한다.
관료는 퇴직 후 안정된 미래를 원한다.
기업은 계약을 원한다.
투자자는 높은 수익률을 원한다.

이 모든 것이 모이면
전쟁은 단지 외교적 충돌이 아니라
예산, 산업, 고용, 투자기회가 연결된 구조로 바뀐다.

그리고 지금은 그 구조 안에서
기존 하드웨어 방산에서
AI 기반 신생 방산기업으로
돈의 흐름이 조금씩 이동하는 시기일 수 있다.

그래서 앞으로의 투자기회를 보려면
국가 간 충돌만 볼 것이 아니라,
그 충돌이 미국 내부에서 누구의 생계와 수익으로 연결되는지를 함께 봐야 한다.

그 점에서 보면,
미국은 전쟁을 멈추지 못하는 것이 아니라
전쟁을 멈추기 어려운 방식으로 시스템이 짜여 있다고 보는 편이 더 정확하다고 생각한다.



#글을 마치며


어쩌면 군수·방위산업이야말로 공동안보, 세계질서, 평화, 억제력 같은 언어 뒤에 숨어, 결국 자신들의 사익을 위해 타인의 권리와 삶을 아무렇지 않게 희생시키는 인간의 추악한 본성이 가장 적나라하게 드러나는 산업인지도 모르겠다는 생각이 들었다.

그런 점에서 군수·방위산업을 두고 흔히 말하는 ‘민주주의를 지키는 창끝’, ‘병기창’이라는 표현 역시 더없이 공허하게 느껴진다.

아무리 현실적인 생계를 위한 선택이라 하더라도, 사익 위해 타인의 목숨이 짓밟히는 전쟁을 상품처럼 파는 삶은 얼마나 비루한가!


=끝

2026년 3월 12일 목요일

생각정리 201 (* AI+HW 2035: Shaping the Next Decade)

「AI+HW 2035: Shaping the Next Decade」


AI 성능이 고도화될수록 난해한 논문도 쉽게 풀어 번역하고 설명할 수 있게 되었으며, 이에 따라 나와 같은 전문지식이 없는 일반인들 또한 이러한 자료에 한층 수월하게 접근할 수 있게 되었다는 점에서, 참으로 좋은 시대를 살아가고 있음을 다시금 실감하게 된다.

개인적으로 카이에 De market 텔레그램 채널에 언제나 많은 도움을 받고 있으며, 감사함을 느낀다.

https://m.blog.naver.com/cahier/224214389070



AI+HW 2035: 앞으로 10년의 AI와 반도체는 어떻게 바뀌는가


1) 이 논문이 말하는 핵심 한 줄


지금까지는 AI 모델은 따로 발전하고, 반도체와 시스템은 그 뒤를 쫓아가는 방식이었다. 그런데 이제는 이런 방식이 한계에 도달했다는 것이 논문의 출발점이다. 앞으로는 “더 큰 모델, 더 많은 연산”만으로는 안 되고, 같은 전력으로 더 많은 지능을 내는 방향, 즉 에너지 효율 중심의 AI로 패러다임이 바뀌어야 한다는 주장이다. (arXiv)


2) 왜 이런 논문이 나왔는가


논문은 지금 AI 산업이 겉으로는 빠르게 발전하는 것처럼 보이지만, 내부적으로는 매우 비효율적인 구조 위에 서 있다고 본다.

쉽게 말하면 이렇다.

  • 오늘의 AI 알고리즘은 어제의 컴퓨터 구조에 맞춰 설계된다.

  • 반대로 내일 나올 칩은 오늘 유행하는 모델에 맞춰 설계된다.

  • 그러다 보니 둘 사이의 타이밍이 계속 어긋난다. (arXiv)


그 결과, AI는 점점 더 많은 전력을 먹고, 더 많은 메모리와 대역폭을 요구하며, 데이터센터 전력 수요는 국가 단위와 비교될 정도로 커진다. 논문은 이런 흐름을 환경적으로도, 경제적으로도 지속 불가능한 상태라고 진단한다. (arXiv)


3) 논문이 말하는 가장 중요한 개념: “더 똑똑한 AI”보다 “더 효율적인 AI”


이 논문에서 가장 중요한 표현은 “intelligence per joule”, 즉 전력 1줄당 얼마나 유의미한 지능을 만들어내는가이다. 저자들은 앞으로 AI 경쟁의 기준이 단순히 “누가 더 큰 모델을 만드느냐”가 아니라, 누가 더 적은 에너지로 더 많은 성능을 내느냐로 바뀌어야 한다고 본다. (arXiv)


쉽게 풀면 다음과 같다.


예전 방식:

  • 파라미터를 더 키운다

  • 데이터센터를 더 짓는다

  • GPU를 더 붙인다

앞으로 필요한 방식:

  • 데이터를 덜 움직이게 설계한다

  • 메모리와 연산을 더 가깝게 붙인다

  • 모델 자체를 더 작고 영리하게 만든다

  • 하드웨어와 소프트웨어를 한 몸처럼 같이 설계한다 (arXiv)


4) 병목은 “연산”이 아니라 “데이터 이동”이라는 주장


논문은 오늘날 AI 시스템의 가장 큰 병목이 계산 자체보다도 데이터를 옮기는 비용이라고 강조한다. 즉, 칩이 계산하는 것보다 메모리에서 데이터를 가져오고 보내는 과정이 더 많은 에너지와 시간을 먹는다는 뜻이다. 이른바 memory wall 문제이다. (arXiv)

그래서 저자들은 앞으로 중요해질 방향으로 다음을 제시한다.

  • 메모리 중심(memory-centric) 아키텍처

  • 3D 적층(3D integration)

  • compute-in-memory / near-memory

  • 이기종 통합 시스템 (arXiv)

쉽게 말하면,

“연산 장치와 저장 장치를 멀리 떨어뜨려 놓고 왔다 갔다 시키지 말고, 가능한 한 붙여서 처리하자”는 것이다.


5) 모델도 바뀌어야 한다: 무조건 큰 LLM이 답은 아니다


이 논문은 “하드웨어만 좋아지면 해결된다”는 생각도 부정한다. 반대로 모델 구조 자체도 더 효율적으로 바뀌어야 한다고 본다. 예를 들어,

  • 더 작은데 성능이 좋은 모델

  • 저정밀도 연산을 잘 활용하는 모델

  • 중복을 줄인 모델

  • sparse, low-rank, state-space 같은 대안적 구조

  • 테스트 시 계산량을 효율적으로 조절하는 방식


등이 중요해진다고 본다. (arXiv)


즉, 미래의 AI는
“무조건 거대한 범용 모델 1개”가 아니라
작고 빠르며, 용도에 맞게 특화된 모델들의 조합으로 갈 가능성이 크다는 뜻이다. 특히 엣지 기기나 로봇, 산업장비처럼 전력 제약이 큰 환경에서는 이런 방향이 더 중요하다고 본다. (arXiv)


6) 학습(training)과 추론(inference)은 완전히 다른 문제다


논문은 많은 사람들이 AI를 한 덩어리로 보지만, 실제로는 학습과 추론이 요구하는 시스템 조건이 근본적으로 다르다고 강조한다.

  • 학습은 대규모 처리량, 정확도, 긴 시간에 걸친 총비용 최적화가 중요하다.

  • 추론은 특히 물리 AI에서는 짧은 지연시간, 예측 가능한 응답, 낮은 전력 소모, 안전성이 훨씬 더 중요하다. (arXiv)

쉽게 말하면,

  • 데이터센터에서 몇 주 동안 학습시키는 문제와

  • 로봇이 0.1초 안에 판단해서 움직여야 하는 문제는


완전히 다른 성격이라는 뜻이다.

그래서 미래 시스템은 “학습용 AI 인프라”와 “실시간 추론용 AI 인프라”를 다르게 설계해야 한다고 본다. (arXiv)


7) 이 논문이 특히 주목하는 미래: “물리 AI”


논문에서 매우 중요하게 다루는 부분이 Physical AI이다. 이는 단순히 화면 속 텍스트를 다루는 AI가 아니라, 현실 세계에서 보고, 판단하고, 움직이는 AI를 뜻한다. 예를 들면 다음과 같다.

  • 로봇

  • 자율주행

  • 산업 자동화

  • 과학 실험 자동화

  • 실시간 제어 시스템 (arXiv)


저자들은 앞으로 실제 세상에서 발생하는 대부분의 추론은 이런 물리 AI 환경에서 일어날 가능성이 크다고 본다. 이 영역에서는 성능만 좋다고 되는 것이 아니라,

  • 전력 효율

  • 발열

  • 응답 시간

  • 안정성

  • 신뢰성


이 전부 중요하다. 그래서 물리 AI야말로 AI+HW 공동설계의 필요성이 가장 크게 드러나는 분야라고 말한다. (arXiv)


8) 단지 칩을 잘 만드는 문제가 아니라, “전체 스택”을 다시 설계하자는 주장


이 논문은 반도체 논문처럼 보이지만, 사실은 칩만 이야기하지 않는다. 저자들은 소재-소자-칩-패키징-시스템-컴파일러-런타임-모델-응용까지 전부 한 덩어리로 봐야 한다고 주장한다. 어느 한 층만 개선해서는 1000배 효율 향상이 불가능하다는 것이다. (arXiv)

즉, 미래 경쟁력은 단순히

  • 좋은 GPU를 만드는 회사,
    혹은

  • 좋은 모델을 만드는 회사

한 군데에서만 나오지 않는다.


오히려 모델, 시스템, 컴파일러, 메모리 구조, 네트워크, 전력·냉각 설계까지 동시에 맞물리는 생태계 전체가 중요해진다는 메시지이다. (arXiv)


9) 신뢰성과 안전성도 성능만큼 중요해진다


논문은 미래 AI 시스템을 평가할 때 더 이상 “정확도만 높으면 된다”는 기준으로는 부족하다고 말한다. 앞으로는 다음의 균형을 함께 봐야 한다는 것이다.

  • 정확도

  • 강건성(robustness)

  • 에너지 효율

  • 지연시간

  • 설명 가능성

  • 지속 가능성 (arXiv)


특히 AI가 반도체 설계, 공장, 로봇, 인프라, 과학 연구처럼 실제 시스템에 들어갈수록 오류를 내도 되는 AI가 아니라 검증 가능하고 신뢰할 수 있는 AI가 필요해진다. 이를 위해 논문은 형식 검증, 물리 제약 반영, 런타임 모니터링 같은 접근이 중요하다고 본다. (arXiv)


10) 산업과 사회에 어떤 변화가 오나


논문은 AI+HW 공동설계가 단지 속도를 조금 높이는 수준이 아니라, 지금은 비용과 전력 때문에 불가능한 새로운 응용을 열 것이라고 본다. 예를 들어

  • 더 똑똑한 설계 자동화

  • 더 빠른 연구개발 사이클

  • 공급망 최적화

  • 제조 자동화

  • 자율 시스템

  • 과학 발견 가속


같은 변화가 나타날 수 있다고 본다. (arXiv)

즉, 이 논문은 “AI 반도체를 잘 만들자” 정도의 얘기가 아니라,
AI와 컴퓨팅 인프라를 다시 짜면 산업 생산성 전체가 재편될 수 있다는 큰 그림을 제시한다.


11) 저자들이 생각하는 2035년의 성공 기준


논문이 제시하는 10년 뒤 성공의 모습은 꽤 분명하다.

  1. AI 학습과 추론 효율 1000배 향상

  2. 클라우드, 엣지, 물리 AI를 끊김 없이 연결하는 에너지 인지형 시스템

  3. 소수 초대형 기업만이 아닌 더 넓은 주체들이 접근 가능한 AI 인프라

  4. 인간 중심 원칙이 내장된 지능형 시스템 (arXiv)


이 목표를 요약하면,
“더 거대한 AI”가 아니라
더 널리 쓰이고, 더 싸고, 더 안전하며, 더 지속 가능한 AI를 만들자는 것이다.


12) 이 논문이 정부·학계·기업에 요구하는 것


논문은 기술 제안에서 끝나지 않고, 정책과 협력 구조까지 강조한다. 저자들은 다음이 필요하다고 본다.

  • 국가 차원의 장기 AI+HW 이니셔티브

  • 공유 가능한 컴퓨팅 인프라

  • 학계-산업계-정부의 장기 협력

  • 인력 양성

  • 공공-민간 파트너십 강화 (arXiv)


핵심은 이렇다.
이 문제는 어떤 한 기업이 혼자 해결할 수 있는 문제가 아니라, 국가 차원의 산업·기술 전략으로 접근해야 한다는 것이다. 워크숍 소개 페이지도 이 보고서가 AI와 하드웨어 공동설계를 위한 10년 비전과 실행 과제를 만드는 목적에서 출발했다고 설명한다. (publish.illinois.edu)


아주 쉽게 요약하면


이 논문은 사실상 다음 말을 하고 있다.


“앞으로 AI의 승부는 모델 크기가 아니라, 전력·메모리·시스템까지 포함한 총체적 효율의 승부가 된다.”

조금 더 풀어쓰면,

  • 이제 GPU만 더 사서 해결하는 시대는 한계에 가깝다.

  • 데이터 이동 비용과 전력 문제가 진짜 병목이다.

  • 그래서 모델, 칩, 메모리, 패키징, 시스템 소프트웨어를 함께 설계해야 한다.

  • 특히 로봇, 자율주행, 산업자동화 같은 물리 AI 시대가 오면 이 문제가 훨씬 더 중요해진다.

  • 결국 미래 AI 경쟁력은 **“누가 더 큰 모델을 만들었는가”**보다
    **“누가 더 적은 전력과 더 낮은 비용으로 현실 세계에서 잘 돌아가는 지능 시스템을 만들었는가”**로 옮겨간다. (arXiv)


한 문단으로 다시 쓴 초압축 재작성본


이 논문은 앞으로 10년의 AI 경쟁이 단순한 모델 확장이 아니라 AI와 하드웨어를 처음부터 함께 설계하는 능력에 달려 있다고 본다.

지금까지는 더 큰 모델과 더 많은 연산으로 성능을 높여 왔지만, 이제는 전력 소모, 메모리 병목, 데이터 이동 비용, 냉각과 인프라 한계가 AI 발전의 진짜 제약이 되었다.

따라서 미래의 AI는 연산 중심 구조에서 벗어나 메모리 중심 아키텍처, 3D 적층, 이기종 시스템, 저전력 특화 모델, 실시간 추론 최적화로 이동해야 한다.

특히 로봇·자율주행·산업 자동화 같은 물리 AI 시대에는 낮은 지연시간과 높은 신뢰성, 에너지 효율이 핵심이 되므로, 모델·컴파일러·칩·시스템 전체를 통합 설계하는 접근이 필수적이다.

궁극적으로 이 논문은 2035년까지 AI 학습과 추론 효율을 1000배 높이고, 더 많은 주체가 활용할 수 있는 지속 가능하고 인간 중심적인 AI 인프라를 구축하자는 청사진을 제시한다. (arXiv)


=끝

2026년 3월 11일 수요일

생각정리 200 (* 리서치 방향)

그간 펼쳐놓았던 아이디어를 한 번 정리하고,
앞으로의 리서치 방향을 다시 세워보고자 한다.


AI는 어디까지 왔고, 이제 무엇을 봐야 하는가


지식노동 대체의 시대, 병목과 해자의 관점에서


지금 AI를 바라볼 때 중요한 것은 단순히 모델이 얼마나 똑똑해졌는가가 아니다. 오히려 그 발전이 어디에서 막히고 있고, 그 병목을 누가 어떻게 해결하는지가 더 중요해지고 있다.

AI는 이제 인간의 언어를 이해하는 수준을 넘어, 인간만의 고유 영역으로 여겨졌던 추론의 영역까지 들어오고 있다. 과거의 AI가 반복 업무와 정형화된 작업에 강한 도구였다면, 지금의 AI는 정보를 연결하고, 맥락을 파악하고, 불완전한 정보 속에서 결론을 만들어내는 방향으로 발전하고 있다. 그래서 AI는 더 이상 단순한 자동화 도구가 아니라, 점점 더 지식노동 자체를 위협하는 기술로 받아들여지고 있다.

이 변화의 배경에는 스케일업(scale-up)이 있다. 더 많은 데이터, 더 큰 모델, 더 많은 GPU와 서버, 더 많은 전력과 자본이 투입되면서 AI의 성능은 단순한 양적 확대를 넘어 질적으로도 달라졌다. 어느 순간부터는 요약에 머물던 모델이 추론을 하기 시작했고, 짧은 응답에 그치던 모델이 긴 문맥을 이해하기 시작했다. 이것이 흔히 말하는 창발효과이다.

중요한 것은 이 창발효과가 단순히 성능 개선에 그치지 않는다는 점이다. AI는 이제 기존 업무를 일부 대체하는 수준을 넘어, 인간의 생산성과 판단 능력을 확장하는 새로운 추가 효용을 만들어내기 시작했다. 다시 말해 기존 수요를 대체하는 1차 변화에서, 새로운 사용 방식과 새로운 워크로드를 만들어내는 2차 수요의 변곡점으로 넘어가고 있는 것이다. 최근 시장에서 Agent AI라는 표현이 부각되는 것도 이 흐름과 맞닿아 있다.

과거의 AI가 질문에 답하고 결과를 생성하는 시스템에 가까웠다면, 이제의 AI는 목표를 부여받고, 여러 단계를 나누어 사고하고, 필요한 도구를 호출하고, 작업을 이어서 수행하는 방향으로 진화하고 있다. 즉, AI는 단순한 응답형 시스템에서 행동하고 수행하는 시스템으로 이동하고 있다. 이 변화는 AI의 활용 범위를 넓히는 동시에, 필요한 인프라 자원을 훨씬 더 무겁게 만든다. 그래서 지금의 AI는 단순히 더 좋은 모델의 문제가 아니라, 더 복잡한 수요를 떠받칠 수 있는 인프라의 문제로도 읽어야 한다.

그 결과 AI는 이제 단순한 보조 도구가 아니라, 부가가치가 높고 시장 규모도 큰 지식노동 시장에 본격적으로 진입하기 시작했다. 문서를 읽고 정리하는 일, 자료를 비교하고 판단하는 일, 보고서를 작성하는 일, 코드를 짜는 일처럼 원래는 사람의 경험과 학습이 필요하다고 여겨졌던 영역들에서 AI의 역할은 빠르게 커지고 있다. 그렇다면 이제 중요한 질문은 “AI가 얼마나 더 똑똑해질까”가 아니라, 이 발전을 현실에서 무엇이 가로막고 있는가이다.


이제 중요한 것은 성능이 아니라 병목이다


기술 산업은 늘 비슷한 방식으로 움직인다. 수요는 빠르게 늘어나지만, 공급은 그 속도를 따라가지 못한다. 아무리 좋은 기술이 나와도 그것을 실제로 뒷받침할 공장, 장비, 자본, 전력, 부품이 부족하면 산업의 확산 속도는 반드시 제약을 받는다. 결국 산업의 발전 속도는 언제나 가장 부족한 자원에 의해 결정된다.

지금의 AI 산업이 정확히 그런 상태에 있다. AI에 대한 수요는 폭발하고 있지만, 이를 실제로 떠받치는 공급은 생각보다 훨씬 제한적이다. 좋은 모델만 있다고 산업이 굴러가는 것이 아니다. 그 모델을 돌릴 연산 자원, 큰 모델과 긴 문맥을 담을 메모리, 이를 지탱할 전력, 발열을 감당할 냉각, 칩과 메모리를 묶는 패키징, 그리고 서버와 서버를 잇는 네트워킹이 모두 필요하다.

즉, 지금 AI 산업의 핵심은 단순한 알고리즘 경쟁이 아니다. 폭증하는 수요와 제한된 공급이 정면으로 부딪히는 구조 자체가 핵심이다. 그리고 바로 이런 상황에서 기술의 다음 발전 방향이 결정된다. 이 지점에서 “필요는 발명의 어머니이고, 결핍은 발전의 출발점이다”라는 문장이 다시 의미를 갖는다. 수요가 충분한데도 공급이 따라가지 못하면 기존 방식은 더 이상 통하지 않는다. 그 순간부터 산업은 새로운 구조를 요구받고, 기술은 더 빠르게 진화한다.


인간의 뇌와 AI 데이터센터의 전력 격차가 보여주는 것


이 구조를 직관적으로 보여주는 비교 중 하나가 인간의 뇌와 AI 시스템의 에너지 효율이다. 인간의 뇌는 매우 적은 전력으로 언어를 이해하고, 기억하고, 추론하고, 창의적으로 사고한다. 흔히 인간의 뇌는 약 20W 안팎의 에너지로 작동한다고 설명된다. 물론 인간의 뇌와 AI 데이터센터를 1대1로 비교하는 것은 엄밀하지 않다. 구조도 다르고, 연산 방식도 다르고, 수행 과제도 다르기 때문이다.

그럼에도 이 비교가 의미를 가지는 이유는 분명하다. 인간의 지능은 놀라울 만큼 에너지 효율적인 반면, 오늘날의 AI는 여전히 매우 거대한 전력 집약형 시스템 위에서 작동하고 있기 때문이다. 다시 말해, 현재의 AI는 성능을 끌어올리는 데는 성공했지만, 효율 면에서는 아직 물리적 자원의 대규모 투입에 의존하고 있다.

이 사실이 중요한 이유는 AI 산업이 더 커질수록 더 많은 서버, 더 많은 전력, 더 많은 냉각, 더 많은 메모리, 더 많은 데이터 이동이 필요해지기 때문이다. 특히 Agent AI처럼 단순 응답이 아니라 더 긴 문맥을 유지하고, 여러 단계를 거치며, 도구를 호출하고, 중간 상태를 저장하는 방식이 확산될수록 필요한 인프라 자원은 훨씬 더 무거워진다. 그래서 AI를 볼 때는 모델만 볼 것이 아니라, 어떤 인프라가 필요하고, 그 인프라에서 무엇이 부족해지는가를 함께 봐야 한다.


첫 번째 병목: 추론 지연과 메모리 제약


AI가 더 넓은 지식노동 시장으로 들어가려면 단순히 답변을 잘하는 것만으로는 부족하다. 복잡한 추론을 더 빠르게, 더 안정적으로 해야 한다. 긴 문서를 읽고 핵심을 정리하거나, 여러 조건을 비교하고 판단하는 작업은 더 긴 문맥을 기억해야 하고, 더 많은 중간 결과를 저장해야 하며, 더 오랜 시간 상태를 유지해야 한다.

바로 여기서 메모리 문제가 핵심이 된다. 많은 사람들은 AI 성능을 말할 때 GPU의 연산 능력만 떠올리지만, 실제 현장에서는 필요한 데이터를 얼마나 빨리 읽고, 얼마나 많이 담고, 얼마나 효율적으로 유지할 수 있는지가 매우 중요하다. 그래서 AI의 실제 추론 성능은 단순한 연산 속도만으로 결정되지 않는다. HBM 용량, 메모리 대역폭, KV 캐시, GPU 사이의 데이터 이동 효율이 모두 핵심 요소가 된다.

Agent AI는 이 메모리 병목을 더 날카롭게 만든다. 질문 하나에 답하고 끝나는 것이 아니라, 작업 상태를 유지하고, 과거 결과를 기억하고, 중간 단계를 이어가야 하기 때문이다. 즉, 에이전트형 워크로드가 늘어날수록 메모리는 단순 저장 공간이 아니라 지속적인 작업 능력을 떠받치는 핵심 자원이 된다.


두 번째 병목: GPU, ASIC, 첨단 패키징 공급


다음 병목은 반도체 공급이다. 특히 GPU와 ASIC, 그리고 이들을 실제 제품으로 구현하는 첨단 패키징 공급이 중요하다. 많은 사람들은 반도체 병목이라고 하면 먼저 미세공정을 떠올리지만, 지금 AI 시대의 병목은 그것 하나로 설명되지 않는다.

실제 문제는 훨씬 더 복합적이다. 좋은 연산 칩만 있다고 끝나는 것이 아니다. 그 칩에 대용량 HBM을 붙여야 하고, 이를 하나의 패키지 안에서 안정적으로 연결해야 하며, 발열과 전력 문제도 감당해야 한다. 여기에 기판, 인터포저, 테스트, 수율까지 모두 따라붙는다. 즉, 지금의 병목은 칩 하나의 문제가 아니라, 전체 시스템을 얼마나 정교하게 조립하고 대량 공급할 수 있는가의 문제이다.

더구나 Agent AI가 확산될수록 필요한 추론 인프라는 더 무거워질 가능성이 크다. 짧은 질의응답용 서비스보다, 장시간 상태를 유지하고 여러 단계를 수행하는 서비스가 훨씬 더 많은 연산 자원과 메모리 자원을 쓰기 때문이다. 이 말은 결국 GPU와 HBM, 첨단 패키징에 대한 수요가 구조적으로 더 무거워질 수 있다는 뜻이다.

여기서 한 가지 더 중요한 흐름이 생긴다. ASIC, GPU, Logic 칩의 물리적 제약이 커질수록 칩 자체의 희소성과 가치는 높아질 수밖에 없다. 공급이 제한된 고가 자산일수록 시장은 그 자산을 최대한 쉬지 않고 돌리려는 유인을 갖게 된다. 즉, GPU의 유휴시간을 줄여야 할 필요성이 더 강해진다.

그리고 이 지점에서 논리는 자연스럽게 메모리로 이어진다. GPU 유휴시간을 줄인다는 것은 결국 더 많은 작업을 더 오래, 더 끊김 없이 처리해야 한다는 뜻이다. 그러려면 연산 칩 자체만으로는 부족하다. 칩이 기다리지 않도록 데이터를 제때 공급하고, 더 많은 상태를 붙잡아 두고, 더 깊은 추론을 지속할 수 있게 만드는 메모리 구조가 함께 따라와야 한다. 결국 칩의 희소성이 커질수록, 그 칩을 최대 효율로 돌리기 위한 메모리 수요는 다시 자극될 수밖에 없는 구조로 흘러간다.

즉, 반도체 병목은 메모리 병목과 분리된 이야기가 아니다. 오히려 희소한 GPU를 더 효율적으로 돌리려는 유인 자체가 메모리의 중요성을 더 끌어올리는 방향으로 작동한다.


세 번째 병목: 캐파 증설의 긴 시간 지연


여기에 더해 중요한 것은 시간이다. AI 수요는 매우 빠른 속도로 늘어나지만, 공급 능력은 그렇게 빨리 늘지 않는다. 공장을 짓는 데 시간이 걸리고, 장비를 들여오는 데 시간이 걸리며, 생산을 안정화하고 고객 인증을 받는 데도 시간이 걸린다. 즉, 시장이 원한다고 해서 다음 분기에 공급을 갑자기 두 배로 늘릴 수 있는 산업이 아니다.

이 구조 때문에 AI 산업에서는 한동안 수요 폭증과 공급 부족이 동시에 나타나는 상황이 이어질 가능성이 크다. 그리고 이 상황은 단순한 경기 변동과는 다르다. 일시적인 재고 조정의 문제가 아니라, 물리적 생산능력의 확대 속도가 수요 증가 속도를 따라가지 못하는 구조적 현상이다.

이 점이 중요한 이유는 명확하다. 이 구조에서는 병목을 푸는 기업이 훨씬 큰 힘을 갖게 된다. 단순히 좋은 기술을 가진 기업이 아니라, 희소한 공급능력을 실제로 제공할 수 있는 기업이 더 높은 협상력을 가질 가능성이 커진다.


네 번째 병목: 메모리 계층의 재편


이제 자연스럽게 시선은 메모리 구조로 이동한다. AI 인프라에서는 더 이상 연산 칩만 좋아서는 충분하지 않다. 중요한 것은 그 칩에 얼마나 많은 메모리를 붙일 수 있는지, 그 메모리를 얼마나 빠르게 쓸 수 있는지, 그리고 전체 시스템 안에서 메모리를 어떤 계층으로 나눠 쓸 것인지이다.

AI가 더 긴 문맥을 처리하고, 더 복잡한 추론을 하고, 더 많은 중간 상태를 저장할수록 메모리 부담은 커진다. Agent AI는 이 흐름을 더 밀어붙인다. 에이전트는 과거 작업을 기억해야 하고, 도구 호출 결과를 저장해야 하며, 문맥을 이어가야 하기 때문이다. 즉, 메모리는 단순 부품이 아니라 추론 성능과 자산 활용률을 동시에 좌우하는 핵심 계층으로 재평가되고 있다.

그래서 HBM과 DRAM의 중요성이 크게 올라왔다. HBM은 빠르고 대역폭도 높아 AI에 매우 적합하지만, 비싸고 희소하며 공급도 제한적이다. 이 지점에서 NAND와 SSD의 의미도 다시 보게 된다. 물론 NAND가 HBM을 대체하는 것은 아니다. 하지만 모든 데이터를 가장 비싼 메모리에만 올릴 수는 없기 때문에, 앞으로는 메모리를 하나로 보지 않고 HBM-DRAM-SSD/NAND로 이어지는 계층 구조 전체로 이해해야 한다. 결국 앞으로의 경쟁은 단순히 누가 더 좋은 칩을 만드느냐가 아니라, 누가 메모리 계층 전체를 더 효율적으로 설계하느냐에도 달려 있다.


결국 다시 중요해지는 것은 네트워킹이다


여기까지 오면 자연스럽게 다음 질문으로 이어진다. 연산도 중요하고, 메모리도 중요하고, 전력도 중요하다면, 이 모든 것을 연결하는 것은 무엇인가. 바로 네트워킹이다. AI 시스템은 점점 더 거대해지고 있고, 하나의 칩만으로 끝나지 않는다. 여러 GPU가 함께 일하고, 여러 서버와 여러 랙이 함께 움직여야 한다. 결국 전체 성능은 데이터를 얼마나 빠르고 효율적으로 주고받을 수 있는가에 달려 있다.

중요한 점은 많은 전력이 실제 계산 그 자체보다도, 데이터를 이동시키는 과정에서 소모된다는 것이다. AI가 커질수록 데이터 이동 비용도 함께 커진다. 따라서 앞으로는 단순히 계산 성능만 높이는 것으로는 부족하고, 데이터를 얼마나 효율적으로 움직일 수 있는가가 핵심이 된다. 특히 Agent AI처럼 더 많은 상태를 주고받고, 더 많은 도구 호출과 중간 결과가 오가는 구조에서는 연결과 이동 자체가 성능의 일부가 된다.

그래서 네트워크는 더 이상 주변부 인프라가 아니다. 오히려 컴퓨팅 효율을 결정하는 핵심 계층이다.


구리에서 광으로, 연결 방식도 바뀌기 시작한다


이 흐름은 더 멀리 가면 연결 방식의 변화로 이어진다. 즉, 구리 기반 연결에서 광 기반 연결로의 전환이다. 이유는 단순하다. AI 데이터센터가 점점 더 커지고 있기 때문이다. 시스템이 커질수록 전기 신호만으로 데이터를 전달하는 방식은 전력 소모, 발열, 거리, 신호 손실 측면에서 여러 한계를 드러낸다.

그래서 광 네트워킹은 단순한 통신 기술의 변화가 아니다. 그것은 한정된 전력 안에서 더 큰 AI 시스템을 더 효율적으로 운영하기 위한 기술적 해법이다. 그리고 Agent AI처럼 더 길고 복잡한 워크로드가 늘어날수록, 시스템 안에서 오가는 데이터도 더 많아질 수밖에 없다. 이 말은 결국 네트워크 효율 문제가 앞으로 더 중심으로 올라올 가능성이 크다는 뜻이다.


그래서 지금 진짜 중요한 리서치 주제는 무엇인가


여기까지의 흐름을 종합하면, 지금 AI 산업을 볼 때 중요한 것은 AI 기술이 현실에서 어디에서 막히고 있는가를 보는 것이다. 그리고 그다음 질문이 이어진다. 그 병목을 누가 풀고 있는가. 어떤 기업이 해결책을 갖고 있는가. 어떤 기술이 실제로 산업의 제약을 해소하고 있는가.

이것이 앞으로의 핵심 리서치 주제이다. 먼저 해야 할 일은 병목을 정확히 식별하는 것이다. 그다음에는 각 병목마다 어떤 기업이 어떤 솔루션을 제시하고 있는지 봐야 한다. 그리고 거기서 끝나면 안 된다. 그 솔루션이 얼마나 강한 기술적 해자를 갖고 있는지, 얼마나 쉽게 따라잡힐 수 있는지, 얼마나 오랫동안 높은 협상력을 유지할 수 있는지, 산업 전체 가치사슬에서 얼마나 중요한 위치를 차지하는지까지 봐야 한다. 마지막으로 그 해자가 실제로 기업가치와 밸류에이션에 어떻게 연결되는지까지 분석해야 한다.

결국 지금 필요한 것은 막연한 낙관이 아니다. 병목을 찾고, 솔루션을 찾고, 해자를 측정하고, 그 가치를 평가하는 일이다.


기술의 가치는 희소한 현실 위에서 빛난다


마지막으로 이 모든 흐름을 볼 때 놓치기 쉬운 것이 하나 있다. 현실의 자원은 언제나 한정되어 있고, 언제나 희소하다는 점이다. 기술은 진공 상태에서 발전하지 않는다. 언제나 현실의 제약 위에서 발전한다.

전력이 무한하지 않기 때문에 전력 효율 기술이 중요해진다. 메모리가 무한하지 않기 때문에 메모리 계층 설계가 중요해진다. 패키징 캐파가 무한하지 않기 때문에 공급망의 힘이 커진다. 네트워크 대역폭이 무한하지 않기 때문에 연결 기술의 가치가 높아진다. 즉, 기술의 가치가 빛나는 이유는 현실의 자원이 희소하고 유한하기 때문이다.

그리고 바로 그 희소성과 유한성이 더 선명해질 때, 기술 발전은 오히려 더 크게 꽃핀다. 그런 의미에서 지금의 AI 산업은 매우 흥미로운 국면에 있다. 겉으로는 소프트웨어 혁신처럼 보이지만, 그 안을 들여다보면 전력과 메모리와 패키징과 네트워크라는 물리적인 제약이 산업 전체를 다시 설계하고 있다. 기술의 다음 방향은 결국 이 한정된 자원을 누가 더 효율적으로 쓰게 만들어주느냐에 의해 결정될 가능성이 크다.

결국 지금 우리가 봐야 하는 것은 하나다. 어디가 가장 부족한가. 그리고 누가 그 부족함을 해결하는가. 앞으로의 AI 산업 리서치는 바로 그 질문에서 시작되어야 한다.

=끝

2026년 3월 10일 화요일

생각정리 199 (* Hormuz Strait)

아침에 출근해 외신 기사를 읽다 문득 떠오른 생각을 두서없이 정리해본다.

결론부터 말하면, 

호르무즈의 전후 질서는 다국적 외피를 두르더라도, 실질적으로는 미국이 설계하고 관리하는 해상안보 체제로 수렴할 가능성이 높지 않나이다.

유럽은 아직 에너지 위기에서 완전히 벗어나지 못했다.
러시아-우크라이나 전쟁 이후 에너지 공급망은 재편되고 있지만, 불안은 여전히 현재진행형이다.
에너지 안보 위기는 단순히 전력과 난방의 문제가 아니다.
이는 생활물가 상승으로 이어지고, 산업 경쟁력의 부담으로 전가되며, 결국 사회 내부의 불만을 키운다.
에너지 문제는 결국 정치 문제다.

전력요금과 난방비, 식료품과 운송비, 생산비와 실질임금이 한 번에 흔들리기 때문이다.
그리고 이런 불안이 누적될수록 사회는 더 예민해지고, 정치권은 더 극단으로 이동한다.

이런 상황에서 중동발 에너지 충격은 유럽에게 결코 가벼운 변수가 아니다.
특히 이란이 호르무즈 해협 봉쇄를 장기화한다면, 유럽 입장에서도 그 부담은 상당할 수밖에 없다.


https://www.politico.eu/article/pressure-eu-response-energy-crisis-iran-war/


https://www.politico.eu/article/germany-far-right-gains-ground-beyond-eastern-strongholds/


https://agsi.gie.eu/data-visualisation/filling-levels/EU
유럽 가스저장고가 2022년 수준으로 하락해 있는 상황


호르무즈 해협, 주권보다 통제가 우선되는 순간


이란의 봉쇄가 장기화될수록 국제사회는 왜 ‘관리 체제’로 움직이게 되는가


국제정치는 여전히 힘의 논리가 지배한다.
국제법과 원칙은 존재한다.
그러나 현실에서 그것은 언제나 절대적인 기준으로 작동하지는 않는다.

특히 강대국 중심의 국제질서에서는 자주국권도 무제한적으로 보장되지 않는다.
한 국가의 주권은, 다른 국가들의 핵심 이해와 이익을 정면으로 해치지 않는 범위 안에서만 폭넓게 인정된다.

이 원리는 약소국일수록 더 냉혹하게 적용된다.
주권을 주장하는 것과, 그 주장을 끝까지 관철하는 것은 다른 문제이기 때문이다.

이란은 오랫동안 중동 질서에서 독자적 공간을 확보해 온 국가다.
그 배경에는 이념, 군사력, 대리세력만 있었던 것이 아니다.
무엇보다 호르무즈 해협이라는 지정학적 병목지점이 있었다.

호르무즈 해협은 단순한 지역 해협이 아니다.
미국 EIA에 따르면 2024년 이 해협을 통과한 원유·석유제품은 하루 평균 2,000만 배럴이었다.
이는 전 세계 석유 소비의 약 **20%**에 해당한다.
IEA도 2025년 기준 호르무즈가 세계에서 가장 중요한 원유 병목지점 가운데 하나라고 설명한다. (U.S. Energy Information Administration)

가스도 마찬가지다.
IEA 팩트시트에 따르면 2025년 기준 호르무즈를 지난 LNG는 아시아 LNG 수입의 약 27%, **유럽 LNG 유입의 약 7%**를 차지했다.
즉 호르무즈의 불안은 단순한 중동 변수에 그치지 않는다.
아시아 제조업 국가의 에너지 비용, 유럽의 수급 안정, 글로벌 물가와 해운시장 전체를 흔드는 변수다. (IEA Blob Storage)

이 점이 바로 이란의 힘이었다.
이란은 오랫동안 호르무즈라는 병목지대의 전략적 가치를 지렛대로 활용해 왔다.
직접 봉쇄를 하지 않더라도, 언제든 긴장을 끌어올릴 수 있다는 사실 자체가 협상력으로 작동했다.

하지만 병목지대의 지렛대는 양날의 검이다.
그 지점을 지속적 봉쇄에너지 인프라 공격에 사용하기 시작하면, 그것은 더 이상 주권의 문제가 아니라 세계 공급망 교란의 문제가 된다.

이때부터 국제사회의 계산은 달라진다.
문제는 이란의 자주권이 아니다.
문제는 각국의 유가, 전력비용, 물가, 산업가동, 해운보험, 안보 리스크가 된다.

호르무즈는 국제해협이다.
유엔해양법협약(UNCLOS) 제3부에 따르면, 국제해협에서는 선박과 항공기의 통항통과권(transit passage) 이 인정되며, 그 통항은 원칙적으로 방해되어서는 안 된다.
즉 호르무즈는 원래부터 특정 연안국이 자의적으로 틀어쥘 수 없는 공간이라는 원칙 위에 놓여 있다. (유엔)

따라서 이란이 이 금기를 깨고 해협 봉쇄를 장기화한다면, 국제사회는 이란의 주권을 존중해야 한다는 명분보다 해협을 다시 열고 안정시키는 실리를 더 앞세우게 된다.
이란의 주권이 법적으로 사라진다는 뜻은 아니다.
하지만 이란이 주권을 방패로 활용할 수 있는 외교적 공간은 급격히 줄어들 수 있다는 뜻이다.

결국 이란이 호르무즈를 장기 교란의 공간으로 만들수록, 국제사회는 이란을 “존중해야 할 연안국”보다는 “통제해야 할 시스템 리스크”로 보기 시작할 가능성이 높다.
이것이 국제정치에서 주권보다 안정이 우선되는 순간이다. (U.S. Energy Information Administration)

여기서 중요한 질문이 나온다.

전후에 호르무즈가 사실상 국제관리 수역처럼 굴러갈 수 있느냐는 것이다.

결론부터 말하면, 법적 통치권 이전 가능성은 높지 않다.
즉 호르무즈 자체를 국제사회가 공식 통치하거나, 연안국의 형식적 주권을 박탈하는 방식은 현실성이 낮다.

하지만 실질적 안전관리·감시·호송의 상시화는 충분히 가능하다.
오히려 이쪽이 훨씬 더 현실적이다.

이미 미국 주도의 IMSC/CTF Sentinel은 바레인을 거점으로 호르무즈와 인근 해역에서 상선 위협 억지와 해상 감시를 수행해 왔다.
미 중부사령부와 미 해군 관련 설명에 따르면, 이 체계는 지역의 해상 위협을 억제하고 상업 선박을 안심시키는 데 초점이 맞춰져 있다.
미국 5함대 역시 바레인에 본부를 두고 페르시아만, 오만만, 아라비아해, 홍해 일대를 담당한다. (cusnc.navy.mil)

유럽도 별도 틀을 갖고 있다.
프랑스 주도의 EMASoH/AGENOR는 호르무즈에서 자유 항행 보호, 안전한 통항 지원, 긴장 완화를 목표로 운용되어 왔다.
즉 전후 질서가 재편될 경우, 이미 존재하는 미국·유럽의 해상안보 틀이 더 제도화되고 상시화될 가능성이 높다. (Forsvarsministeriet)

이 경우 호르무즈는 법적으로는 국제해협으로 남더라도, 실질적으로는 미국 중심 다국적 안보관리 수역처럼 운영될 수 있다.

그 실질 관리는 단순히 군함을 더 띄우는 수준이 아니다.
실제 통제는 훨씬 더 복합적이다.


1. 해군 상시배치와 호송


가장 먼저 강화될 것은 해군력이다.
미국 5함대, 걸프 우방국, 일부 유럽 국가가 중심이 되고, 필요할 경우 아시아 주요 수입국이 제한적으로 협조하는 구조가 될 가능성이 높다.
IMSC와 EMASoH가 이미 보여주듯, 전후에는 상선 호송, 감시 정찰, 기뢰대응, 위협 탐지가 상시화될 수 있다. (Naval Sea Systems Command)

2. 전쟁보험과 안전인증을 통한 선박 선별


실제 통제력은 군사력만으로 완성되지 않는다.
보험이 막히면 선박은 법적으로 항로가 열려 있어도 사실상 들어가기 어렵다.
런던보험시장 Joint War Committee는 전쟁위험 고위험 구역을 지정하고, 해당 지역 운항에는 추가 전쟁위험 담보가 요구될 수 있다고 밝히고 있다.
즉 누가 안전하다고 인증하고, 어떤 선박에 보험을 붙여줄지를 정하는 구조 자체가 통제수단이 된다. (lmalloyds.com)

3. 표준화된 항행 프로토콜과 지정 통항체계


전후에는 상선들이 평시처럼 자유롭게 지나는 방식보다, 지정 항로, 지정 시간대, 경계 강화, 안전 프로토콜 준수, 필요시 호송 결합 같은 방식으로 움직일 가능성이 높다.
최근 UKMTO·JMIC 권고도 호르무즈 인근에서 군사활동 증가, 전자교란, AIS 및 항행·통신 장애 가능성에 주의를 요구하고 있다.
이는 사실상 항행이 이미 군사·안보 조건에 크게 종속되고 있음을 보여준다. (UKMTO)

4. 제재·결제·재보험을 통한 후방 금융통제


실질 통제는 바다 위에서만 이뤄지지 않는다.
미 재무부 OFAC는 2025년 이란 원유 수출, 그림자선단, AIS 조작, 복잡한 소유구조를 활용한 제재 회피를 겨냥한 해운·금융 제재 지침을 강화했다.
이런 구조가 전후에 더 확대되면, 해협을 지나는 선박의 통과 여부는 단순한 물리적 항행권이 아니라 결제 가능성, 보험 인수 가능성, 재보험 접근성, 항만 서비스 이용 가능성에 의해 사실상 결정될 수 있다. (해외자산통제국)

5. 비축유·우회수송·수입선 다변화를 통한 협박력 약화


주요 수입국은 단지 해협을 군사적으로 지키는 데 그치지 않을 것이다.
IEA 회원국들은 원칙적으로 순수입 90일분 이상의 비축유를 유지해야 하며, 심각한 공급 차질 시 공동 대응할 준비를 갖추고 있다.
즉 전후에는 비축유 방출 체계, 우회 파이프라인 활용, 저장기지 확대, 수입선 다변화가 함께 강화될 가능성이 높다.
이것은 호르무즈의 지정학적 협박력을 구조적으로 낮추는 장치다. (IEA)



이 모든 장치를 종합하면 전후 질서는 한 방향으로 수렴할 가능성이 높다.


미국이 주도한다.

유럽은 감시, 외교적 정당화, 제한적 해군 참여로 보조한다.
아시아 에너지 수입국들은 직접적인 전면 군사개입보다는 비용 분담, 비축유 협조, 해운 안전조치, 조달 다변화를 통해 참여할 가능성이 높다.

그 이유는 단순하다.
호르무즈를 가장 많이 쓰는 쪽이 결국 아시아이기 때문이다.
IEA는 2025년 기준 호르무즈를 지난 원유의 44%를 중국과 인도가 받았다고 설명한다.
즉 전후 관리체제의 전략적 수혜자는 미국과 유럽만이 아니라, 아시아 주요 수입국이기도 하다. (IEA)

결국 이란이 호르무즈를 장기적으로 흔들수록, 국제사회는 이란의 자주권을 보장하는 방향보다 호르무즈를 실질적으로 관리 가능한 체계 안에 넣는 방향으로 움직일 가능성이 크다.

핵심은 이것이다.

국제정치는 여전히 힘이 지배한다.
국제질서에서 약소국의 주권은 법적으로는 동등하지만,
현실정치에서는 강대국의 안보·에너지 이해가 충돌하는 순간 훨씬 더 쉽게 제약된다.

그리고 호르무즈 해협은 그 현실이 가장 선명하게 드러나는 공간이다.

전후 세계는 아마 호르무즈를 더 이상 단순한 해상 통로로 보지 않을 것이다.
오히려 상시적으로 관리되어야 하는 전략적 병목지대로 재정의할 가능성이 높다.

법적으로는 국제해협일 수 있다.
그러나 실질적으로는 미국 중심의 다국적 세력이
누가, 언제, 어떤 조건으로, 어떤 보호 아래 통과하는지를 관리하는
준국제관리 수역에 가까운 모습으로 굳어질 가능성이 높다. (유엔)

=끝

생각정리 198 (* 전력기기)

AI 데이터센터 시대, 왜 변압기와 배전기기 시장이 함께 커질까


AI 데이터센터를 떠올리면 보통 GPU, 반도체, 서버부터 생각한다.
하지만 실제로 데이터센터를 움직이는 가장 중요한 기반은 전력 인프라다.

지금 AI 데이터센터는 단순히 서버 수가 늘어나는 산업이 아니다.
한 공간 안에 더 많은 전력을 넣어야 하는 산업으로 바뀌고 있다.

이 변화는 전력기기 시장에 세 가지 구조적 수요를 만든다.

  • 데이터센터 내부 전력 밀도 상승

  • 장거리 송전망 확장

  • 자체발전(BTM) 확산

이 세 가지가 동시에 진행되면
변압기, 스위치기어, ATS, 보호계전, 배전 시스템까지 시장이 넓게 커질 수 있다. (PJM)


1. 데이터센터 내부 전력 밀도가 급격히 높아지고 있다


가장 먼저 봐야 할 변화는 데이터센터 내부 전력 구조다.

예전 데이터센터는 서버를 많이 넣는 것이 중요했다.
지금 AI 데이터센터는 짧은 공간 안에 훨씬 더 많은 전력을 안정적으로 공급하는 것이 더 중요하다.

이 흐름을 상징적으로 보여주는 것이 NVIDIA의 800V DC 아키텍처다. NVIDIA는 차세대 AI 팩토리를 위해 기존의 저전압 분배 구조 대신, 800V 고전압 직류(HVDC) 기반 전력 구조가 필요하다고 설명하고 있다. 기존 54V DC 방식은 수 kW급 랙에는 적합했지만, 앞으로 등장할 MW급 랙에는 한계가 크다는 것이 핵심이다. (NVIDIA Developer)

이 말을 이해하려면 먼저 아주 기본적인 식 하나만 알면 된다.

전력 = 전압 × 전류

즉,

P = V × I

이 식의 의미는 단순하다.
같은 전력을 보내려면, 전압을 높이면 전류를 줄일 수 있다.

예를 들어 1MW의 전력을 보낸다고 해보자.

  • 100V라면 10,000A가 필요하다

  • 1,000V라면 1,000A면 된다

전압을 10배 높이면 전류는 10분의 1로 줄어든다. 이는 물리식 자체에서 바로 나오는 결과다.


왜 전류가 줄면 손실과 발열이 크게 줄어들까


전선이나 버스바에는 항상 저항이 있다.
전류가 흐르면 이 저항 때문에 열이 난다.

이때 손실은 보통 이렇게 표현한다.

손실 = I² × R

손실과 발열은 전류의 제곱에 비례한다.

이게 핵심이다.

  • 전류가 2배가 되면 손실은 4배

  • 전류가 3배가 되면 손실은 9배

  • 전류가 10배가 되면 손실은 100배

즉 같은 전력을 보내더라도,
전류가 큰 구조는 손실과 발열이 훨씬 커진다.

그래서 고전력을 낮은 전압으로 보내면 문제가 빠르게 커진다.

  • 전선이 더 뜨거워진다

  • 냉각 부담이 커진다

  • 더 두꺼운 구리선이 필요하다

  • 전력장비가 커진다

  • 장비가 차지하는 공간도 늘어난다

쉽게 말하면 이렇다.

AI 데이터센터는 전기를 많이 써야 하는데, 낮은 전압으로 그 전기를 밀어 넣으려면 전류가 너무 커진다.
그러면 열이 늘고, 구리가 늘고, 냉각이 어려워지고, 공간까지 잡아먹는다.

그래서 업계는 자연스럽게
전압을 높이고 전류를 낮추는 방향으로 가게 된다.

NVIDIA가 800V DC를 말하는 이유도 여기에 있다. NVIDIA는 800V 직접 입력 구조가 랙 내 전력변환 장치를 줄이고, 더 많은 컴퓨트 공간 확보와 고밀도 구성을 돕는다고 설명한다. (NVIDIA Developer)


왜 전력 밀도는 앞으로 구조적으로 더 높아질 수밖에 없을까


이 부분도 꼭 이해할 필요가 있다.

전력 밀도가 높아지는 것은 일시적 유행이 아니다.
AI 산업 자체의 방향이 그렇게 흘러가고 있기 때문이다.

첫째, AI 연산량이 계속 커지고 있다.
AI 모델은 계속 커지고 있고, 학습해야 할 데이터와 추론해야 할 작업도 늘고 있다. 그러면 더 많은 GPU가 필요해지고, GPU가 많아지면 전력도 같이 늘어난다.

둘째, GPU만 늘어나는 것이 아니다.
AI 데이터센터는 GPU만 있는 공간이 아니다. 고속 네트워크, 스위치, 스토리지, 냉각 장비, 전력변환 장비가 함께 커진다. 즉 전력 증가는 서버 한 대에서 끝나지 않고 전체 시스템 단위로 같이 커지는 구조다.

셋째, AI 산업은 속도를 위해 고밀도 집적을 선호한다.
AI 학습과 추론은 속도가 중요하다. GPU를 멀리 흩어놓는 것보다 가급적 가까이 모아두는 편이 유리하다. 가까이 모을수록 지연이 줄고 네트워크 효율도 좋아지기 때문이다. 그래서 업계는 계속해서 더 많은 컴퓨팅 장비를 더 좁은 공간에 넣는 방향으로 간다. NVIDIA가 800V DC와 MW급 랙을 이야기하는 것도 바로 이 흐름을 전제로 한다. (NVIDIA Developer)

결국 앞으로의 AI 데이터센터는
“서버가 많은 공간”이 아니라
**“전력 밀도가 매우 높은 공장형 시설”**이 될 가능성이 높다.

이 말은 곧
데이터센터 입구에서 받아야 하는 전력도 더 커지고,
그 전력을 나눠주는 수전·변전 설비도 더 커져야 한다는 뜻이다.

그래서 AI 데이터센터가 늘어날수록
154/230/345kV급 수전·변전 설비 수요가 직접적으로 증가할 가능성이 높다. PJM는 2036년 여름 피크 수요를 222,106MW, 향후 10년 증가폭을 65,733MW로 전망했고, 데이터센터 부하 증가를 주요 요인으로 반영했다. PJM Inside Lines도 2026 장기 전망에서 여러 존의 데이터센터 부하 증가가 반영됐다고 설명했다. (PJM)

쉽게 말하면 이렇다.

예전에는 서버실을 지으면 됐지만,
이제는 작은 도시 하나에 공급하는 수준의 전기를 받아야 하는 시설이 되고 있다.


2. 데이터센터가 몰리는 지역은 전기를 멀리서 끌어와야 한다


두 번째 변화는 전력의 이동 거리다.

AI 데이터센터는 아무 지역에나 고르게 지어지지 않는다.
통신망, 부지, 냉각, 세제, 인허가 조건이 맞는 지역에 집중된다.

문제는 전기를 많이 쓰는 지역과
전기를 많이 생산하는 지역이 항상 같지 않다는 점이다.

그 결과 전력망은 점점 더 먼 곳에서
전기를 대량으로 끌어와야 한다.

이때 중요한 것이 초고압 송전망이다.

  • 500kV

  • 765kV

이 전압단은 장거리로, 대량의 전기를 보내는 백본망 역할을 한다.

즉 데이터센터 수요가 특정 지역에 몰릴수록
그 지역 근처 변전소만 늘리는 것으로는 해결이 안 된다.

실제로 PJM은 대형 부하 증가에 대응하기 위해 500kV 업그레이드, 신규 765kV 선로, 525kV HVDC 링크 등을 포함한 보강안을 제시했다. 이는 동부 지역의 높은 부하 성장과 광역 전력 이동 수요를 반영한 것이다. (PJM Inside Lines)

이 흐름은 변압기 시장에 중요한 의미가 있다.

  • 데이터센터 인근에서는 154/230/345kV 수요가 직접 늘고

  • 광역 계통에서는 500/765kV 수요가 구조적으로 따라붙는다

즉 AI 데이터센터 증가는
로컬 전력기기 시장과 초고압 전력기기 시장을 동시에 키우는 구조다.

AEP는 765kV 송전이 345kV 대비 최대 6배 전력을 보낼 수 있다고 설명한다. 장거리 대전력 이동이 필요한 환경에서는 이런 초고압 백본의 경제성이 더 높아질 수밖에 없다. (AEP)


3. DCI 확대는 전력망 확장 논리를 더 강하게 만든다


AI 시대에는 데이터센터 하나만 커지는 것이 아니다.
여러 데이터센터를 서로 빠르게 연결하는 DCI(Data Center Interconnect) 시장도 함께 커지고 있다.

이 흐름은 중요한 의미를 가진다.

AI 인프라가 한 지점에만 있는 것이 아니라
여러 거점으로 나뉘어 연결될수록
각 거점도 여전히 큰 전력을 필요로 하게 된다.

즉 광통신망이 커진다고 해서
전력망 투자가 줄어드는 것이 아니다.

오히려 반대다.

  • 데이터센터는 여러 지역으로 늘어나고

  • 각 거점의 전력수요도 크고

  • 그 거점끼리는 더 빠르게 연결되어야 한다

결국 광통신 백본과 전력 백본이 함께 확장되는 구조가 만들어진다.

Ciena는 2025년 조사에서 응답자의 **53%**가 향후 2~3년 동안 AI workloads가 DCI 인프라에 가장 큰 수요를 만들 것이라고 답했다고 밝혔다. 또 **43%**는 신규 데이터센터 시설이 AI workloads 전용이 될 것으로 예상했다. (Ciena)

이 점에서 DCI 확대는
광통신 산업의 수혜 요인이면서 동시에
초고압 송전망과 변압기 수요를 정당화하는 배경이 된다.


4. 전력망이 부족하니, 데이터센터는 자체발전까지 고민하기 시작했다


세 번째 변화는 BTM(Behind-the-Meter) 이다.

쉽게 말하면
전력회사 전기만 기다리지 않고
데이터센터 안이나 바로 옆에서 직접 전기를 생산하는 방식이다.

왜 이런 흐름이 생길까.

이유는 명확하다.

  • AI 데이터센터 전력수요가 너무 빠르게 커지고 있고

  • 전력망 연결은 시간이 오래 걸리며

  • 대형 부하가 늘수록 일반 소비자 전기요금 부담 문제가 커지기 때문이다

그래서 미국에서는
데이터센터가 전력망 비용을 더 직접 부담하거나,
자체발전 설비를 병행해야 한다는 분위기가 강해지고 있다.

AP는 2026년 3월, 주요 빅테크들이 데이터센터 전력수요로 인한 비용을 일반 소비자에게 전가하지 않겠다는 취지의 합의에 참여했다고 보도했다. 또 AEP Ohio는 데이터센터 전용 tariff를 시행했고, 2026년 2월 기준 5,642MW에 대해 데이터센터 또는 개발사와 binding contracts를 체결했다고 공개했다. (AEP Ohio)

이 구조가 확산되면
배전기기 시장은 더 커질 수밖에 없다.

왜냐하면 BTM은 단순히 발전기 한 대 설치하는 문제가 아니기 때문이다.
유틸리티 전원, 자체발전, 배터리, UPS를 함께 묶어
하나의 작은 전력망처럼 운영해야 한다.

이때 필요한 장비가 많다.

  • 중전압 스위치기어

  • ATS(자동절체장치)

  • 차단기

  • 보호계전기

  • 배전용 변압기

  • 패널보드

  • 버스덕트

  • 전력관리 시스템

즉 BTM은 배전기기 시장을
단순한 보조 시장이 아니라
하나의 독립적인 성장 시장으로 키울 수 있다.


5. 왜 BTM은 배전기기 시장에 특히 중요할까


BTM의 핵심은
전력망 부족을 우회하는 대안이라는 점이다.

기존 데이터센터는
전력회사에서 전기를 받아 내부에 나누어 쓰는 구조였다.

하지만 BTM이 붙으면 구조가 달라진다.

이제는

  • 외부 전력망 전기

  • 자체발전 전기

  • 배터리 저장 전기

  • 비상전원

을 동시에 관리해야 한다.

그래서 필요한 장비도 더 복잡해진다.
단순 배전반이 아니라
전원을 전환하고, 보호하고, 제어하는 고사양 장비가 더 중요해진다.

예를 들어 ABB는 자사 중전압 스위치기어를 1kV~52kV 구간에서 진화하는 전력망을 연결하고 보호하는 핵심 장비로 설명한다. Eaton도 중전압 스위치기어와 전력분배 장비를 데이터센터를 포함한 고신뢰 전원 시스템의 핵심으로 제시하고 있다. Schneider Electric은 데이터센터 마이크로그리드가 전력 신뢰도 향상, 비용 최적화, 지속가능성을 동시에 추구할 수 있다고 설명한다. (ABB Group)

즉 BTM은 배전기기 시장을
양적으로만 키우는 것이 아니다.

제품 믹스를 더 고부가가치 쪽으로 끌어올리는 역할도 한다.


6. 결국 어떤 시장이 커질까


AI 데이터센터 시대의 전력기기 수요는
한 구간만 커지는 것이 아니다.

세 가지 변화가 서로 맞물리면서
여러 단계의 시장이 동시에 커질 가능성이 높다.

첫 번째 수혜

154/230/345kV급 수전·변전 설비

이 구간은 데이터센터 건설과 가장 직접적으로 연결된다.
AI 데이터센터가 늘어나면 가장 먼저 수요가 커질 수 있다. (PJM)

두 번째 수혜

500/765kV급 초고압 송전망과 대형 변압기

데이터센터가 특정 지역에 몰리면
결국 먼 곳에서 전기를 가져와야 한다.
이 과정에서 초고압 백본망 수요가 커질 수 있다. (PJM Inside Lines)

세 번째 수혜

중전압 배전기기와 BTM 관련 장비

전력망 부족이 이어질수록
자체발전, 마이크로그리드, 저장장치 수요가 늘어난다.
이때 스위치기어, ATS, 차단기, 보호계전 시스템 같은 장비 시장도 함께 확대될 수 있다. (AEP Ohio)


한 문장으로 정리하면


AI 데이터센터 시대는 전기를 많이 쓰는 시대가 아니라,
전기를 더 높은 밀도로 받고, 더 멀리서 끌어오고, 필요하면 직접 생산까지 해야 하는 시대다.

그래서 앞으로의 전력기기 시장은
단순한 변압기 수요 증가를 넘어,

  • 수전·변전 설비

  • 초고압 변압기

  • 중전압 배전기기

  • BTM용 전력관리 장비

까지 함께 커지는 다층적 성장 국면으로 갈 가능성이 높다. (NVIDIA Developer)


=끝

2026년 3월 9일 월요일

생각정리 197 (* Optical Interconnect 2)

호르무즈해협이나 유가 관련 기사를 계속 따라가는 것보다, 차라리 NVIDIA 2026년 GTC를 미리 공부하는 편이 훨씬 생산적이라는 생각이 든다.

단기 뉴스플로우보다, 앞으로 2~3년 뒤 산업 구조를 바꿀 주제가 무엇인지 먼저 잡아두는 것이 더 중요하기 때문이다.


현재 시장에서 이야기되는 2026년 (3/16~3/19) NVIDIA GTC의 주요 키워드는 대략 다음과 같다.


  • 베라루빈, 파인만

  • 추론 특화 AI 칩

  • 실리콘 포토닉스(광통신, 광학반도체)

  • 에이전틱 AI, 피지컬 AI


이 키워드들을 이어서 보면, NVIDIA의 기술 로드맵은 점점 AI 연산칩 자체를 넘어 추론 중심 인프라, 광학 네트워킹, 차세대 연결 구조로 확장되고 있다는 점이 분명해진다.

그중에서도 개인적으로 가장 기대하는 영역은 베라루빈 시리즈부터 본격적으로 강화될 광통신, 광학 네트워킹 분야다.

AI 시대가 깊어질수록 결국 병목은 연산 능력 자체보다 연산 자원을 얼마나 빠르고 효율적으로 연결하느냐에서 발생할 가능성이 높기 때문이다.

이전 광학 네트워킹 스터디에 이어, 이번에는 추가로 공부한 자료를 바탕으로 관련 내용을 조금 더 구조적으로 정리해보려 한다.


AI 시대, 왜 광학 인터커넥트가 중요해지는가


구리에서 플러거블로, 플러거블에서 CPO로


AI 인프라를 이야기할 때 많은 사람들은 먼저 GPU를 떠올린다. 실제로 현재 AI 하드웨어 혁신의 중심에는 NVIDIA가 있다. 특히 Rubin 플랫폼은 단순히 연산 성능만 키우는 것이 아니라, 통신 병목과 메모리 병목을 줄여 토큰당 비용을 낮추는 방향으로 설계되고 있다. NVIDIA는 Rubin 플랫폼 설명에서 Spectrum-X Ethernet Photonics를 통해 scale-out과 scale-across를 위한 광 기반 네트워킹을 본격 도입한다고 밝히고 있다. (developer.nvidia.com)


이 말은 곧, 앞으로 AI 시대의 핵심은 GPU 성능만이 아니라 GPU들이 서로 얼마나 빠르고 효율적으로 연결되느냐라는 뜻이다.

AI 모델이 커질수록, 추론 수요가 늘어날수록, 그리고 에이전트 AI가 확산될수록 데이터 이동량은 폭증한다. 이제는 연산 자원만 많이 확보한다고 끝나는 것이 아니라, 그 연산 자원들을 어떻게 연결하느냐가 성능과 비용을 동시에 좌우하는 시대가 된 것이다.


왜 구리 인터커넥트는 점점 불리해지는가


기존 데이터센터에서는 구리 케이블이 오랫동안 핵심 연결 수단이었다.
구리는 싸고, 익숙하고, 짧은 거리에서는 여전히 유용하다.

하지만 AI 데이터센터는 상황이 다르다.

첫째, 전송 속도가 너무 빨리 올라가고 있다.
이미 시장은 800G를 넘어 1.6T로 이동 중이다. Broadcom은 Tomahawk 6에서 102.4Tbps 스위치 용량과 100G/200G SerDes, CPO 지원을 공식화했고, Marvell도 1.6T PAM4 optical DSP를 전면에 내세우고 있다. 이는 업계가 이미 200G/lane과 1.6T 세대로 넘어가고 있음을 보여준다. (Broadcom)

둘째, 랙과 랙 사이, 스위치와 스위치 사이를 오가는 데이터량이 급증하고 있다.
AI 클러스터는 GPU 수가 늘수록 네트워크 부하가 기하급수적으로 증가한다.

셋째, 속도가 올라갈수록 구리의 발열, 손실, 거리 제약이 더 빠르게 나타난다.
NVIDIA 문서에서도 DAC와 ACC 같은 구리 기반 인터커넥트는 상대적으로 짧은 거리에서 주로 쓰이고, 더 긴 거리와 더 높은 속도에서는 광 연결이 유리한 구조가 드러난다. (NVIDIA Developer)

쉽게 말하면, 예전에는 일반 도로로 충분했지만 지금은 초고속 화물차가 계속 다니는 대형 물류 고속도로가 필요해진 것이다.
그래서 AI 시대에는 구리에서 광으로의 전환이 필연적이다.


지금 당장 구리를 대체하는 것은 CPO가 아니라 플러거블 광트랜시버다


많은 사람이 CPO를 가장 먼저 떠올리지만, 실제 순서는 조금 다르다.

지금 당장 rack-to-rack, switch-to-switch 구간에서 구리를 대체하는 주역은 플러거블 광트랜시버다.

즉 구조 변화는 보통 아래 순서로 이해하면 된다.

구리 케이블 → 플러거블 광트랜시버 → 일부 최고속 구간에서 CPO

이 순서가 중요한 이유는, CPO가 광을 처음 도입하는 기술이 아니라 이미 광으로 바뀐 연결 구조를 더 고도화하는 다음 단계 기술이기 때문이다. NVIDIA 역시 Rubin 및 photonics 관련 설명에서 CPO를 강조하지만, 동시에 이것은 AI 팩토리용 차세대 스위치 구조의 진화로 제시된다. (NVIDIA Developer)


플러거블 광트랜시버를 bottom-up으로 이해해보자


광학 인터커넥트를 가장 쉽게 이해하는 방법은 맨 아래 부품부터 위로 쌓아 올리는 것이다.

1. 재료와 소자: 가장 밑바닥 층

가장 아래에는 빛을 만들고, 받고, 조절하는 원천 부품이 있다.
대표적으로 LD, EML, CW laser, VCSEL, PD가 여기에 포함된다.

LD는 레이저 다이오드다. 쉽게 말하면 빛을 만들어 보내는 송신용 부품이다.
PD는 포토다이오드다. 즉 들어온 빛을 받아 전기신호로 바꾸는 수신용 부품이다.

아주 쉽게 비유하면,

LD는 말하는 입이고
PD는 듣는 귀다.

여기서 조금 더 세분화하면 다음과 같다.

EML은 LD의 고급 버전이다.
단순히 빛만 내는 것이 아니라, 고속 데이터 전송에 맞게 매우 정밀하게 빛을 조절하는 송신용 소자다.

CW laser빛을 일정하게 공급하는 광원이다.
실리콘 포토닉스 칩이 이 빛을 받아 데이터가 실린 광신호로 바꾼다.

VCSEL짧은 거리용 레이저다.
가까운 구간에서 빠르게 병렬 전송하는 데 유리하다.

즉 이 층은 광통신의 원천 부품층이다.
자동차로 치면 엔진, 브레이크, 변속기 같은 핵심 기계부품이 여기에 해당한다.


2. 광부품: 칩을 실제로 쓸 수 있게 만드는 단계


칩만 있다고 바로 제품이 되지는 않는다.

레이저 칩과 PD 칩을 실제로 사용하려면

  • 패키지에 넣고

  • 렌즈와 정렬하고

  • 광섬유와 정밀하게 맞추고

  • 열을 안정적으로 관리해야 한다


이 과정을 거쳐야 비로소 실제 광부품이 된다.

이 단계가 중요한 이유는 분명하다.
칩 성능양산 가능한 패키징 수율은 전혀 다른 문제이기 때문이다.

좋은 엔진 부품이 있어도 조립이 엉망이면 자동차가 제대로 달리지 않는 것과 같다.
광통신에서도 같은 일이 벌어진다. 결국 패키징, 정렬, 방열, 수율이 기술 경쟁력의 핵심이 된다.


3. 광엔진과 광트랜시버: 우리가 흔히 말하는 ‘광모듈’


이제부터가 사람들이 흔히 말하는 광트랜시버다.

이 안에는

  • 송신용 레이저

  • 수신용 PD

  • 실리콘 포토닉스 칩

  • DSP

  • 드라이버

  • TIA

  • 패키지


등이 모두 들어간다.


이렇게 만들어진 완성품을 스위치 포트에 꽂아 쓰는 것이 바로 플러거블 광트랜시버다.

쉽게 말하면, 플러거블 광트랜시버는 완성된 광통신 카트리지다.
사용자는 장비 앞면 포트에 꽂기만 하면 된다.


골드만삭스



4. 스위치/ASIC: 광모듈이 꽂히는 상대편


플러거블 광트랜시버는 혼자 존재하지 않는다.
반드시 스위치나 서버 장비와 연결된다.

여기서 중심이 되는 것이 스위치 ASIC이다.

구조를 단순하게 그리면 이렇다.

스위치 ASIC → 전기 포트 → 플러거블 광트랜시버 → 광섬유

즉 플러거블 시대에는 스위치와 광모듈이 분리되어 있다.
스위치는 전기신호를 내보내고, 광트랜시버는 그 신호를 받아 빛으로 바꾼다.


5. 네트워크 시스템: 최종 목적지


최상단은 개별 부품이 아니라 AI 데이터센터 전체 시스템이다.

결국 중요한 것은

  • 서버가 얼마나 빠르게 연결되는가

  • 랙과 랙 사이에 데이터를 얼마나 많이 보낼 수 있는가

  • 전력 소모를 얼마나 줄일 수 있는가

  • 전체 토큰 처리 비용을 얼마나 낮출 수 있는가


이다.

즉 광학 인터커넥트는 단순 부품 시장이 아니라,
AI 인프라의 경제성과 확장성을 결정하는 핵심 인프라가 되어가고 있다.


왜 200Gbps/lane은 100Gbps/lane보다 훨씬 더 어려운가


이제 중요한 질문이 하나 나온다.

왜 200Gbps/lane이 100Gbps/lane보다 그렇게 어려운가?

겉으로 보면 단순히 속도를 두 배 올리는 것처럼 보인다.
하지만 실제 기술 난이도는 두 배가 아니라 그 이상으로 뛴다.

이유는 간단하다.
속도가 올라갈수록 신호를 구분할 수 있는 여유 공간이 급격히 줄어들기 때문이다.

고속도로 비유로 보면 이렇다.

100G/lane은 한 차선에서 시속 100으로 주행하는 수준이라면,
200G/lane은 같은 차선에서 시속 200으로 달리는 것과 비슷하다.

그러면 어떤 일이 생길까.

  • 차와 차 사이 간격을 더 정밀하게 맞춰야 하고

  • 작은 흔들림도 사고로 이어지고

  • 도로가 조금만 나빠도 문제가 커지고

  • 운전자 실수 허용 범위가 급격히 줄어든다

광통신도 똑같다.

200G/lane으로 올라가면

  • 노이즈에 더 민감해지고

  • 신호 왜곡에 더 약해지고

  • 열에 더 예민해지고

  • 패키징 오차 허용 범위가 더 줄어들고

  • 수신기에서 신호를 정확히 판독하기가 훨씬 어려워진다

속도를 2배 올리는 것이 아니라, 전체 시스템의 정밀도를 한 단계 더 끌어올려야 하는 문제가 된다.


PAM4가 왜 중요해지는가


여기서 등장하는 핵심 기술이 PAM4다.

예전에는 신호를 보통 두 단계로만 구분했다.
즉 켜짐과 꺼짐, 0과 1 중심이었다.

그런데 100G/lane, 200G/lane 시대로 가려면 한 번에 더 많은 정보를 실어야 한다.
그래서 신호를 네 단계로 나누는 PAM4가 중요해진다.

쉽게 말하면,

예전 방식은
켜짐 / 꺼짐 두 가지만 구분하면 됐다.

PAM4는
아주 약함 / 약함 / 강함 / 아주 강함
네 단계를 구분해야 한다.

문제는 속도가 높아질수록 이 네 단계 간격이 점점 더 촘촘해진다는 것이다.
그러면 수신기 입장에서는 아주 미세한 차이를 정확히 판독해야 하고,
송신기 입장에서는 그 네 단계 신호를 아주 안정적으로 내보내야 한다.

즉 200G/lane에서는 단순히 레이저만 좋아서는 안 된다.
DSP, 드라이버, TIA, EML, PD, 패키징, 방열, 전기-광 인터페이스 전체가 동시에 좋아야 한다. Marvell의 1.6T PAM4 DSP가 200G host/line side를 지원하고, Broadcom이 200G SerDes와 CPO를 함께 밀고 있는 이유가 바로 여기에 있다. (Broadcom)


800G에서 1.6T로 갈수록 왜 패키징 능력이 더 중요해지는가


800G에서 1.6T로 간다는 것은 단지 숫자가 커지는 것이 아니다.
더 많은 lane, 더 높은 lane 속도, 더 촘촘한 부품 배치, 더 높은 전력 밀도를 뜻한다.

이렇게 되면 주변 광통신 소자와 패키징 능력이 훨씬 더 중요해진다.

왜냐하면

  • 레이저와 PD를 더 정밀하게 정렬해야 하고

  • 열을 더 잘 빼야 하고

  • 신호 간섭을 더 줄여야 하고

  • 전기신호와 광신호 변환 과정의 오차를 더 낮춰야 하기 때문이다

즉 1.6T 세대로 갈수록 경쟁력은 단순히 “좋은 칩 하나”가 아니라,
좋은 칩을 실제 제품으로 안정적으로 구현하고 양산하는 능력에서 갈린다.

바로 이 지점에서 기존 광소자·광부품·광패키징 강자들의 해자가 더 중요해진다.


왜 기존 광통신 강자들의 해자가 더 중요해지는가


광네트워킹 기존 강자들의 진짜 강점은 단순히 “오래된 회사”라는 점이 아니다.

그들의 강점은 보통 세 가지다.

첫째, 원천 광소자 역량이다.
EML, CW laser, VCSEL, PD 같은 핵심 부품을 직접 다룰 수 있다.

둘째, 패키징과 광정렬 양산 능력이다.
연구실 시제품과 대량 양산은 완전히 다르다.
고속 광모듈은 결국 수율에서 승부가 갈린다.

셋째, 고속 세대로 갈수록 누적된 설계·공정 노하우가 더 중요해진다는 점이다.
100G/lane까지는 많은 업체가 따라올 수 있어도,
200G/lane과 1.6T 세대로 갈수록 허용오차가 급격히 줄어들어 후발주자가 따라오기 더 어려워진다.

즉 800G에서 1.6T로 갈수록 시장은 단순 조립업체보다
광소자, DSP, 패키징, 시스템 통합 역량을 가진 업체 중심으로 재편될 가능성이 높다.


광학 인터커넥트는 rack-to-rack만의 이야기가 아니다


DCI 시장도 함께 봐야 한다


광학 인터커넥트를 이야기할 때 많은 사람이 rack-to-rack이나 switch-to-switch만 떠올린다.
하지만 광 네트워킹 장비가 사용되는 곳은 거기만이 아니다.

또 하나 매우 중요한 시장이 바로 DCI(Data Center Interconnect)다.
데이터센터와 데이터센터를 연결하는 네트워크다.

AI 시대에는 이 시장이 다시 중요해지고 있다.

이유는 분명하다.

  • 전력 확보 문제

  • 용수와 부지 문제

  • 인허가 문제

  • 발열 관리 문제


이런 제약 때문에 모든 AI 인프라를 한곳에 몰아넣기 어려워지고 있다.
그 결과 여러 캠퍼스와 여러 데이터센터를 나눠서 연결하는 분산형 AI 인프라가 중요해진다.

Ciena는 2025년 조사에서 데이터센터 전문가들이 향후 5년간 DCI 대역폭 수요가 최소 6배 증가할 것으로 봤다고 밝혔다. 또한 43%의 신규 데이터센터 시설이 AI 워크로드 전용이 될 것으로 예상했다. (Ciena)


왜 최근 Ciena가 다시 주목받는가


이런 흐름 속에서 최근 다시 주목받는 기업이 Ciena다.

시장은 이제 Ciena를 단순한 2025년 회복기업이 아니라,
2026년부터 2028년까지 이어질 고성장 광네트워킹 인프라 수혜기업으로 보기 시작했다.

Ciena의 2025년 실제 매출은 47.7억 달러이고,
2028년 컨센서스는 85.0억 달러 수준까지 올라간다.
이는 3년 만에 약 78% 성장하는 그림이다.

성장의 대부분이 여전히 Optical Networking에서 나오고 있으며,
DCI, Cloud, WAN 광통신 장비 매출이 크게 증가하는 구간이다. 

그렇기에 매출보다 영업이익과 EPS 증가 속도가 더 가파르다.
이것은 단순 매출 성장만이 아니라 제품 믹스 개선과 운영 레버리지가 동시에 작동하고 있음을 시사한다.

한 문장으로 요약하면 이렇다.

Ciena는 AI가 커질수록 반드시 더 많이 필요해지는 DCI 광네트워크 인프라의 핵심 수혜기업이다.





그러면 CPO는 무엇을 바꾸는가


이제 CPO를 보자.

많은 사람이 CPO를 새로운 광기술 자체로 생각하지만, 더 정확한 표현은 이렇다.

CPO는 광을 새로 도입하는 기술이 아니라, 기존에 스위치 바깥에 꽂던 광모듈의 핵심부를 스위치 안으로 끌어들이는 구조 변화다.

즉 CPO는 광을 없애는 기술이 아니라, 광의 위치를 바꾸는 기술이다.

플러거블 구조에서는

  • 스위치가 전기신호를 내보내고

  • 포트까지 비교적 긴 전기 구간을 지나

  • 외장형 광모듈이 이를 빛으로 바꾼다


그런데 속도가 1.6T 이상으로 올라가면 이 긴 전기 구간이 점점 부담이 된다.

그래서 CPO는 광모듈의 핵심 광엔진을 스위치 ASIC 바로 옆에 붙여서 전기 구간을 극단적으로 줄이는 방식을 택한다.

Broadcom은 102.4Tbps급 CPO 스위치와 200G SerDes 기반 구조를 내세우고 있고, NVIDIA는 Spectrum-X/Quantum-X photonics로 1.6Tb/s per port, 더 낮은 전력과 더 높은 복원력을 강조한다. (NVIDIA)

즉 CPO가 대체하는 것은
플러거블 광모듈의 외장형 구조와 긴 전기 인터페이스 구간이다.

반대로 CPO가 대체하지 않는 것은

  • 레이저

  • PD

  • SiPh

  • 광섬유

  • 광연결 자체


이다. 

오히려 이런 부품들은 더 중요해진다.


CPO도 bottom-up으로 보면 이해가 쉽다


1. 재료/소자


CPO에서도 출발은 같다.

여전히

  • CW laser

  • DFB laser

  • PD

  • SiPh 관련 재료


가 필요하다.

다만 CPO에서는 열 문제가 더 중요해지기 때문에,
레이저를 바깥으로 분리한 external laser source의 가치가 더 커진다.


2. 광부품


CPO에서는 광부품의 중요성이 더 커진다.

왜냐하면

  • fiber attach

  • connector

  • optical harness

  • thermal package


같은 요소가 스위치와 훨씬 더 밀접하게 결합되기 때문이다.

즉 CPO 시대에는 광패키징 자체가 핵심 경쟁력이 된다.

3. 광엔진


플러거블에서는 광엔진이 모듈 안에 있었다.
CPO에서는 이 광엔진이 스위치 ASIC 바로 옆에 들어간다.

즉 CPO optical engine은
플러거블 광트랜시버의 심장부만 떼어와 스위치 안쪽에 넣은 것이라고 보면 된다.

4. 스위치/ASIC


CPO 시대에는 이 층이 훨씬 더 중요해진다.

왜냐하면 CPO는 광모듈 업체 혼자서 만드는 시장이 아니라,
스위치 ASIC 아키텍처가 중심이 되는 시장이기 때문이다.

즉 앞으로는
누가 좋은 광모듈을 만드느냐보다
누가 스위치와 광엔진을 가장 잘 통합하느냐가 더 중요해진다.

5. 네트워크 시스템


결국 CPO의 목적은 단순하다.

  • 더 빠르게

  • 더 촘촘하게

  • 더 적은 전력으로

  • 더 큰 AI 클러스터를 연결하기 위해서다


즉 CPO는 개별 모듈 판매의 문제가 아니라,
AI 팩토리 전체의 총비용과 효율을 개선하는 시스템 기술이다.


플러거블과 CPO의 차이를 한 문장으로 정리하면


플러거블은 광모듈을 스위치 밖에 꽂는 방식이고,
CPO는 그 광모듈의 핵심부를 스위치 안으로 넣는 방식
이다.

그래서 실제 진화 경로는 이렇게 보는 것이 가장 자연스럽다.

구리 케이블이 먼저 rack-to-rack에서 밀리고
플러거블 광트랜시버가 그 자리를 차지하고
→ 가장 고속·고밀도 구간부터 CPO가 플러거블 일부를 흡수

즉 CPO는 플러거블 이후의 상위 단계다.


투자 관점에서 어떤 기업을 봐야 하는가


이제 마지막으로 밸류체인별 핵심 기업을 정리해보자.

가장 상단: 스위치/ASIC/시스템


Broadcom
은 가장 상단에서 봐야 할 기업이다.
플러거블이 늘어나도 좋고, CPO가 커져도 좋다.
왜냐하면 Broadcom은 스위치 ASIC, 100G/200G SerDes, CPO 플랫폼을 동시에 쥐고 있기 때문이다. (Broadcom)

NVIDIA는 더 이상 단순 GPU 회사가 아니다.
Rubin 플랫폼을 보면 GPU, NVLink, 스위치, photonics까지 AI 팩토리 전체 구조를 함께 설계하려 한다. 광학 인터커넥트가 중요해질수록 NVIDIA의 시스템 지배력은 더 강해질 가능성이 있다. (NVIDIA Developer)

핵심 병목: DSP/PAM4


Marvell
은 밸류체인 중간에서 매우 중요하다.
이유는 1.6T와 200G/lane 시대에는 고속 신호를 실제로 굴러가게 만드는 optical DSP가 필수이기 때문이다. Marvell의 Ara/Nova는 1.6T optical transceiver용 PAM4 DSP 제품군으로 명확히 포지셔닝돼 있다. (Marvell Technology)

핵심 광소자/광엔진


Coherent
는 1.6T SiPh 트랜시버, VCSEL/PD, CPO용 CW laser 쪽 노출을 동시에 가진다.
플러거블 수혜와 CPO 대응력을 함께 가진 회사라고 볼 수 있다. (NVIDIA)

Lumentum은 200G EML, InP 기반 광소자, external laser source, 고출력 laser 쪽 강점이 있다.
즉 Coherent보다 조금 더 원천 광소자와 외부 광원 공급자 성격이 강하다. NVIDIA의 CPO 공급망 협업사에도 포함돼 있다. (NVIDIA)

DCI 수혜주


Ciena
는 GPU 직접 수혜주라기보다
AI가 커질수록 반드시 더 많이 필요해지는 DCI 광네트워크 인프라 수혜주에 가깝다.
즉 rack-to-rack뿐 아니라 data center-to-data center 연결까지 함께 보려면 반드시 체크해야 하는 기업이다. (Ciena)


최종 정리


이 글의 핵심은 단순하다.

AI 시대에는 GPU만큼이나 광학 인터커넥트가 중요해진다.

800G에서 1.6T로 올라갈수록 rack-to-rack 구간에서는 구리보다 광이 유리해진다.

지금 당장 구리를 대체하는 것은 플러거블 광트랜시버다.

CPO는 광을 없애는 기술이 아니라, 플러거블 광모듈의 핵심을 스위치 안으로 옮기는 다음 단계 기술이다.

그리고 200G/lane, 1.6T 세대로 갈수록 중요한 것은 단순 속도 경쟁이 아니라
PAM4, DSP, EML, PD, SiPh, 패키징, 방열, 수율을 함께 다룰 수 있는 기술력이다.

바로 그래서 기존 광통신 강자들의 해자가 더 중요해진다.
고속 세대로 갈수록 시장은 단순 조립업체보다
원천 광소자와 광패키징, DSP, 시스템 통합 역량을 가진 업체 중심으로 재편될 가능성이 높다.

마지막으로, 광학 인터커넥트는 rack-to-rack만의 이야기가 아니다.
DCI까지 함께 확장되면서 수혜 범위는 더 넓어지고 있다.

한 줄로 정리하면 이렇다.

AI 시대의 광학 인터커넥트는 구리의 대체재를 넘어, AI 인프라 전체의 속도·전력·확장성을 좌우하는 핵심 산업이며, 800G에서 1.6T로, 플러거블에서 CPO로, rack-to-rack에서 DCI로 수혜 범위가 계속 넓어지고 있다.

=끝.

2026년 3월 8일 일요일

생각정리 196 (* NAND Controller)

공부나하자.


AI 시대의 SSD, 그리고 NAND Controller


왜 중요한데, 왜 잘 안 보일까


AI 시대를 이야기할 때 사람들은 보통 GPU, HBM, 전력, 네트워크를 먼저 떠올린다.

그런데 실제 시스템을 조금만 깊게 들여다보면, 생각보다 자주 마주치는 부품이 있다.

바로 SSD다.

그리고 SSD 안에서 가장 잘 보이지 않지만, 가장 중요한 역할을 하는 것이 있다.

NAND Controller다.

AI 시대의 SSD는 예전과 역할이 다르다.

이제 SSD는 단순 저장소가 아니다.
점점 더 빠르게 읽고, 자주 쓰고, 계속 갱신되는 작업공간에 가까워지고 있다.

이 변화가 왜 중요한지 이해하려면, 먼저 SSD를 아주 쉽게 봐야 한다.

출처 : 파두



1. SSD는 무엇으로 이루어져 있나


SSD는 크게 두 가지로 이해하면 된다.


첫째, NAND

데이터를 실제로 저장하는 공간이다.

둘째, Controller
그 NAND를 어떻게 쓸지 결정하는 두뇌다.

쉽게 비유하면 이렇다.

  • NAND는 창고다.

  • Controller는 창고 관리자다.


창고만 크다고 일이 잘 되는 것은 아니다.

어디에 넣을지,
어떤 짐부터 꺼낼지,
어느 칸이 너무 많이 닳았는지,
어디를 먼저 정리해야 하는지,

이런 것을 관리해주는 사람이 필요하다.

그 역할을 하는 것이 Controller다.

즉 SSD는 NAND만으로 완성되지 않는다.
NAND와 Controller가 함께 움직여야 비로소 SSD가 된다.


2. 왜 NAND는 그냥 쓰면 안 되는가


NAND는 무한정 쓰는 부품이 아니다.

계속 쓰고 지우다 보면 조금씩 닳는다.

즉 NAND에는 수명이 있다.

그래서 SSD에서는 “얼마나 빨리 읽느냐”만 중요한 것이 아니다.

얼마나 오래 버티느냐도 중요하다.
얼마나 안정적으로 쓰느냐도 중요하다.

이때 Controller가 중요해진다.

Controller가 잘 설계되어 있지 않으면,
특정 구역만 빨리 닳는다.
속도도 흔들린다.
수명도 짧아질 수 있다.

반대로 Controller가 좋으면,
같은 NAND를 써도 더 오래, 더 안정적으로 쓸 수 있다.


3. Controller는 실제로 무엇을 하나


3-1. 데이터를 어디에 쓸지 정한다


사용자는 파일을 저장할 뿐이다.

하지만 SSD 내부에서는
어느 NAND 칸에 쓸지
Controller가 정한다.

겉으로는 같은 자리에 저장하는 것처럼 보여도,
실제로는 내부적으로 분산해서 쓸 수 있다.

이 작업이 중요하다.

한 곳만 계속 쓰면
그 부분만 빨리 닳기 때문이다.

3-2. NAND가 한쪽만 닳지 않게 한다


쉽게 말하면 고르게 닳게 하는 것이다.

창고 바닥 100칸 중
같은 10칸만 계속 쓰면
그 부분만 먼저 망가진다.

SSD도 같다.

Controller는 특정 NAND만 과도하게 쓰이지 않도록 분산한다.

이 기능이 SSD 수명에 직접 연결된다.

3-3. 내부 정리를 한다


NAND는 쓰기 전에 정리가 필요한 경우가 많다.

그래서 Controller는 내부적으로 데이터를 정리하고,
다시 쓸 수 있는 공간을 확보한다.

이게 잘 되면 쓰기 성능이 좋다.
이게 안 되면 SSD는 버벅인다.

3-4. 오류를 줄이고 복구를 돕는다


NAND는 오래 쓸수록 오류 가능성이 높아진다.

그래서 Controller는
오류를 잡고, 보정하고, 관리한다.

즉 Controller는 단순 연결칩이 아니다.

성능 관리자이자 수명 관리자이며 안정성 관리자다.


4. 같은 NAND를 써도 SSD 성능이 다른 이유


많은 나와같은 초보자들이 이렇게 생각한다.

“같은 NAND를 쓰면 SSD 성능도 비슷해야 하는 것 아닌가?”

그렇지 않다.

이유는 간단하다.

SSD는 NAND만으로 결정되지 않기 때문이다.

같은 NAND를 쓰더라도

  • Controller가 다를 수 있고

  • Firmware가 다를 수 있고

  • 전력 관리가 다를 수 있고

  • 오류 보정 방식이 다를 수 있다


그래서 결과가 달라진다.

즉 SSD를 볼 때는
“어느 NAND를 썼나”만 보면 부족하다.

어떤 Controller와 어떤 설계를 썼는가도 함께 봐야 한다.


5. 예전 SSD와 AI 시대 SSD는 무엇이 다른가


예전 SSD는 주로 저장장치 성격이 강했다.

파일을 저장하고,
프로그램을 설치하고,
OS를 구동하는 용도였다.

그런데 AI 시대에는 SSD 역할이 달라지고 있다.

이제 SSD는 단순히 저장만 하지 않는다.

  • 대규모 데이터를 빨리 공급해야 하고

  • 자주 읽고 써야 하고

  • 컨텍스트와 캐시를 반복적으로 다뤄야 하고

  • 검색과 추론 과정의 중간 결과도 계속 저장해야 한다


즉 AI 시대의 SSD는
저장소에서
작업공간으로 이동하고 있다.

이 변화는 시장점유율에서도 드러난다.

TrendForce에 따르면 2025년 2분기 enterprise SSD 시장은 AI 서버 수요 확대로 급성장했다. 상위 5개 업체는 삼성, SK그룹(SK hynix+Solidigm), Micron, Kioxia, SanDisk였다. 상위 5개 합산 매출 기준 비중은 대략 삼성 37.2%, SK그룹 28.6%, Micron 15.4%, Kioxia 14.7%, SanDisk 4.2% 수준이었다. 즉 AI용 SSD 시장은 이미 대형 통합 공급자 중심으로 재편되어 있다. (CompaniesMarketCap)


6. 왜 AI 시대에는 write/read mix가 중요해지나


여기서 중요한 개념이 나온다.

바로 write/read mix다.

쉽게 말하면
읽기만 많은지,
아니면 읽기와 쓰기가 함께 많은지를 보는 개념이다.

예전에는 “많이 읽고, 가끔 쓰는” 데이터가 많았다.

하지만 AI 시대에는 다르다.

AI 워크로드는 종종

  • 계속 읽고

  • 계속 쓰고

  • 계속 갱신하고

  • 다시 불러오고

  • 다시 저장한다


특히 에이전트형 AI, 벡터DB, 캐시 계층, 로그, 체크포인트는
읽기와 쓰기가 동시에 강하게 발생할 수 있다.

이때 SSD는 단순히 읽기 속도만 빨라도 안 된다.

지속적으로 쓰기를 버텨야 한다.
성능이 흔들리지 않아야 한다.
수명이 너무 빨리 닳지 않아야 한다.

결국 여기서 Controller의 중요성이 다시 커진다.


7. AI 시대에 Controller가 더 중요해지는 이유


AI 시대의 SSD는 더 까다로운 일을 해야 한다.

  • 작은 데이터를 자주 읽고

  • 작은 데이터를 자주 쓰고

  • 많은 요청을 동시에 처리하고

  • 낮은 지연시간을 유지하고

  • 성능이 갑자기 무너지지 않아야 한다


이때 중요한 것은 NAND 원가만이 아니다.

더 중요한 것은
Controller가 이 복잡한 흐름을 얼마나 잘 관리하느냐다.

즉 AI 시대 SSD의 경쟁력은
이제 단순 용량이나 순차속도로만 갈리지 않는다.

이제는

  • 지연시간

  • 안정성

  • mixed workload 대응력

  • 쓰기 내구성 관리

  • 전력 효율

  • 장기 운용 시 품질


이런 것들이 더 중요하다.

그리고 그 중심에 Controller가 있다.


8. NAND 업체는 Controller도 직접 만들까


“NAND를 만드는 회사라면 Controller도 당연히 직접 만들지 않나?”

부분적으로는 맞다.

하지만 항상 그런 것은 아니다.

구조는 크게 두 가지다.

첫째, 수직계열화 방식

NAND 업체가
NAND도 만들고,
Controller도 만들고,
Firmware도 만들고,
SSD도 만든다.

이 방식의 장점은 통합 최적화다.

서로 잘 맞게 설계할 수 있다.
고성능 제품에 유리하다.
데이터센터 고객 대응에도 강하다.

실제 AI용 enterprise SSD 시장 상위권도
삼성, SK그룹, Micron, Kioxia처럼
이런 통합 공급자가 차지하고 있다. (CompaniesMarketCap)

둘째, 분업 방식

NAND는 NAND 업체가 만들고,
Controller는 별도 전문 업체가 만든다.

이 방식의 장점은 유연성이다.

여러 SSD 업체가
외부 Controller를 가져와 제품을 만들 수 있다.

즉 시장에는
수직통합 업체
전문 Controller 업체가 함께 존재한다.


9. NAND Controller 시장은 어떻게 나뉘나

“그럼 controller 시장 1위는 누구인가?”

이 질문은 생각보다 단순하지 않다.

왜냐하면 controller 시장은
자체소비형(captive)
외판형(merchant)이 섞여 있기 때문이다.

9-1. 자체소비형 시장


삼성, Micron, Kioxia 같은 회사가
자기 SSD에 넣을 controller를 직접 설계하는 방식이다.

이 경우 controller를 외부에 많이 팔지 않아도,
실제로는 엄청난 양을 내부에서 소비할 수 있다.

점유율 표에 잘 안 보여도 영향력은 크다.

9-2. Merchant controller 시장


별도 controller 회사가
여러 SSD 업체와 OEM에 controller를 공급하는 시장이다.

공개자료상 이 시장에서 가장 눈에 띄는 회사는
Silicon MotionPhison이다.

Silicon Motion은 자사 자료에서
**client SSD controller 시장 30%+**를 언급했다.
Phison은 자사 자료에서
**global SSD controller share 20%+**를 언급했다.
Marvell은 enterprise/hyperscale SSD controller 강자로 평가되지만, 최근 공개자료에서 구체 점유율 숫자를 직접 제시하지는 않았다. (Phison Electronics)

즉 controller 시장은
완제품 SSD 시장처럼 깔끔한 점유율 표 하나로 보기 어렵다.

그 대신
누가 내부 통합형인가,
누가 외판형 플랫폼 플레이어인가
이렇게 보는 것이 더 정확하다.


10. 완제품 SSD 강자와 Controller 강자는 꼭 같지 않다


여기서 한 번 정리할 필요가 있다.

완제품 SSD 시장의 강자는
삼성, SK그룹, Micron, Kioxia처럼
통합 공급자다. (CompaniesMarketCap)

반면 merchant controller 시장의 강자는
Silicon Motion, Phison, Marvell 같은
전문 controller 공급자다. (Phison Electronics)

즉 AI 시대 storage 밸류체인은
한쪽에서는 수직통합,
다른 한쪽에서는 개방형 생태계가 동시에 굴러가는 구조다.


11. 실리콘모션, Phison, 파두를 같이 놓고 보면 무엇이 보이나


아래 표는 Silicon Motion, Phison, 파두를 같은 기준으로 비교한 것이다.

기준은 다음과 같다.

  • 매출액 / 영업이익: 2025년 연간 실적

  • 시가총액: 2026년 3월 초 기준 최근 수준

  • 환산 기준: USD/KRW 1,483.51원, TWD/KRW 46.113원 (Silicon Motion)

3사 비교표






Silicon Motion의 2025년 연간 매출은 US$885.6mn이었고, 연간 **GAAP operating margin은 10.5%**였다. 따라서 영업이익은 약 US$93.0mn으로 계산된다. 시가총액은 2026년 3월 기준 약 US$4.15bn 수준이다. (Silicon Motion)

Phison의 2025년 연간 매출은 NT$72,664.09mn, 영업이익은 NT$8,266.46mn이었다. 시가총액은 2026년 2월 말 기준 약 NT$393.32bn 수준이다. (Phison Electronics)

파두의 2025년 연간 매출은 924.2억원, 영업손실은 617.5억원이었다. 시가총액은 2026년 3월 초 기준 약 3.55조원 수준이다. (FADU)


12. 이 표를 어떻게 읽어야 하나


첫째, 절대 규모 차이가 매우 크다


Phison은 이미 매출 3조원대,
Silicon Motion은 1조원대다.

둘 다 충분히 큰 사업 규모를 확보했다.


반면 파두는 아직 1천억원 미만 매출이다.


즉 파두는 지금
동급 경쟁자라기보다
초기 스케일업 단계의 후발주자에 가깝다. (Silicon Motion)

둘째, 흑자 구조가 완전히 다르다


Phison과 Silicon Motion은
둘 다 영업이익률이 10%대다.

즉 이미
양산, 고객 인증, 공급 안정성, 제품 믹스를 통해
수익 구조를 만든 상태다. (Silicon Motion)

반면 파두는 아직 영업적자다.

이 말은 기술이 없다는 뜻이 아니다.

아직은
R&D, 고객 확대, 양산 전환, 고정비 부담이
매출 규모보다 크다는 뜻에 가깝다. (FADU)

셋째, 시가총액은 ‘현재 이익’보다 ‘미래 기대’를 더 많이 반영한다


여기서 가장 흥미로운 부분은 이 지점이다.

파두의 시가총액은 약 3.55조원이다.
Silicon Motion보다는 작지만,
현재 적자 기업임을 감안하면 결코 작은 값이 아니다. (StockAnalysis)

(*아무리 그래도 3조는 너무하지 않은가? 이거 맞아요?)

파두의 낸드 컨트롤러 성능이 타사보다 높다는 IR 장표


연 매출의 20%를 r&d 비용으로 지출하는 phison
한화로 약 6천억원 수준 

파두와 같은 신생업체가 경쟁할 수 있는 수준 맞나..

경쟁사 실리콘모션도 연 매출 대비 R&D비용을 더 적극적으로 투자하는 등.. 경쟁이 치열해지는듯 싶기도 하다. 24년기준 한화로 약 3천억원 r&d 비용.. 



  • 2019: R&D 128.5bn KRW / Revenue 532.6bn KRW / 24%

  • 2020: R&D 144.2bn KRW / Revenue 638.8bn KRW / 23%

  • 2021: R&D 188.1bn KRW / Revenue 1,055.7bn KRW / 18%

  • 2022: R&D 243.5bn KRW / Revenue 1,221.9bn KRW / 20%

  • 2023: R&D 227.9bn KRW / Revenue 835.2bn KRW / 27%

  • 2024: R&D 297.0bn KRW / Revenue 1,095.7bn KRW / 27%



넷째, Phison은 이미 가장 완성된 merchant 플레이어에 가깝다


Phison은 매출, 영업이익, 시총 모두 가장 크다.

즉 시장에서 이미
controller 단품 회사가 아니라
storage solution company로 평가받고 있는 모습에 가깝다. (Phison Electronics)

다섯째, Silicon Motion은 안정적 수익성과 성장 옵션을 함께 가진다


Silicon Motion은 Phison보다 규모는 작지만,
이미 안정적인 흑자 구조를 갖고 있다.

여기에 enterprise와 hyperscale용 SSD controller 확대가 더해지면
밸류에이션이 재평가될 여지가 있다. (Silicon Motion)


13. 그렇다면 신생 Controller 업체는 불리한가


이제 자연스럽게 질문이 이어진다.

새로운 controller 업체가 살아남기 어렵지 않나?

솔직히 말하면, 쉽지 않다.

이유는 명확하다.

첫째, 기존 강자가 이미 강하다.
둘째, NAND 대형업체는 내부 수직통합 역량이 있다.
셋째, 데이터센터 고객은 보수적이다.
넷째, AI 시대에는 성능만이 아니라 안정성과 인증이 더 중요하다.

실제 완제품 SSD 시장만 봐도
상위 몇 개 통합 공급자에 집중되어 있다.
merchant controller 시장도
Silicon Motion과 Phison 같은 강자가 이미 버티고 있다. (CompaniesMarketCap)

즉 이제는
“칩 하나 잘 만들었다”만으로 부족하다.

고객이 원하는 것은 점점 더
controller 단품이 아니라
완성도 높은 SSD 플랫폼이기 때문이다.


14. 그래도 기회는 왜 남아 있는가


그렇다고 기회가 없는 것은 아니다.

모든 고객이 직접 SSD를 설계할 수는 없다.

모든 회사가 삼성이나 Micron처럼
NAND와 controller를 함께 갖고 있는 것도 아니다.

그래서 시장에는 여전히
전문 controller 회사가 필요하다.

특히 AI 시대에는
단순 부품보다
AI workload에 맞는 최적화된 storage stack 수요가 늘 수 있다.

즉 앞으로 살아남는 업체는
Controller만 파는 회사가 아니라

  • Firmware를 함께 제공하고

  • 전력 관리까지 챙기고

  • SSD 설계를 지원하고

  • 고객 인증을 도와주고

  • 특정 AI 워크로드에 맞게 튜닝해주는


플랫폼형 업체
일 가능성이 높다.

이 점에서 Phison과 Silicon Motion은 이미 앞서 있다.
파두는 아직 작지만, 시장은 그 회사가 이 방향으로 갈 수 있을지 보고 있는 단계라고 볼 수 있다. (Phison Electronics)


15. 결국 앞으로의 질문은 이것이다


앞으로 SSD를 볼 때 중요한 질문은 단순하지 않다.

“이 SSD가 몇 TB인가?”
“읽기 속도가 얼마인가?”
이 정도로는 부족하다.


이제는 이런 질문이 더 중요하다.

  • 이 SSD는 mixed workload를 잘 버티는가

  • 많이 써도 성능이 안정적인가

  • 수명이 얼마나 빨리 줄어드는가

  • AI 서버에서 지속적으로 써도 괜찮은가

  • Controller와 Firmware가 얼마나 잘 설계되었는가


즉 AI 시대 SSD의 경쟁력은
보이지 않는 곳에서 갈린다.

그리고 그 보이지 않는 중심에
NAND Controller가 있다.


16. 마무리


정리하면 아주 단순하다.

SSD는 NAND만으로 되는 제품이 아니다.
NAND는 저장 공간이다.
Controller는 그 공간을 운영하는 두뇌다.

예전에는 SSD를 저장장치로만 봐도 어느 정도 이해가 가능했다.

하지만 AI 시대에는 그렇지 않다.

이제 SSD는
계속 읽고,
계속 쓰고,
계속 갱신되는
능동적인 작업공간이 되고 있다.

그래서 Controller의 중요성은 더 커진다.

그리고 시장도 그 방향으로 움직이고 있다.

완제품 SSD 시장에서는
삼성, SK그룹, Micron, Kioxia 같은
대형 통합 공급자가 강하다. (CompaniesMarketCap)

controller 시장에서는
Silicon Motion, Phison 같은
전문 업체가 큰 축을 형성한다. (Phison Electronics)

한쪽은 수직통합,
다른 한쪽은 개방형 생태계를 대표한다.

같은 NAND를 써도 결과가 다른 이유,
AI 시대에 eSSD가 더 중요해지는 이유,
신생 controller 업체가 왜 어렵지만 또 기회가 있는지,



매수매도
추천아님

=끝