2026년 3월 16일 월요일

생각정리 204 (* 장기테마)

고유가, 주거비, 연금, 그리고 코스닥


2026년 한국 경제를 움직이는 진짜 압력들


나는 모든 투자자산의 가치는 결국 비교 분석 속에서만 선명하게 드러난다고 생각한다.

그런 점에서 대한민국 내수경제를 꾸준히 추적하는 일은, 일부 주식투자자에게는 다소 고루하게 느껴질 수 있어도 결코 가볍게 볼 작업이 아니다. 특히 한국 내수의 핵심 자산군이 부동산시장이라는 점을 감안하면, 부동산의 흐름을 읽는 일은 국내 주식시장을 이해하는 데에도 사실상 불가분의 과정이라고 본다.

이번 글에서는 그동안 흩어져 있던 내수경기, 부동산시장, 국내 주식시장에 영향을 주는 구조적 압력들을 하나의 흐름으로 묶어 정리해보려 한다. 그리고 그 중심에 놓인 핵심 키워드는 양극화이다.

앞으로 한국 경제는 지역별, 자산별, 소득계층별로 격차가 더 확대될 가능성이 크다. 그러나 지금의 한국은 집값 전체가 일제히 무너지는 구조라기보다, 오히려 자산 인플레이션이 훨씬 더 비대칭적으로 전개되는 구조에 가깝다.

그 이유는 여러 압력이 동시에 중첩되고 있기 때문이다.

대외적으로는 고유가와 고환율이 지속적으로 비용 압력을 유입시키고 있다.
대내적으로는 주거비 상승 구조가 점점 더 고착화되고 있다.
노동시장에서는 원하청 교섭력 확대와 임금 상승 압력이 커지고 있다.
금융시장에서는 연기금 수급 약화와 인구구조 변화로 장기적인 자금 기반이 흔들리고 있다.
반면 성장과 유동성은 AI, 반도체, 소수 대형주, 수도권 핵심 자산으로 더욱 빠르게 집중되고 있다.

내가 보기에는 지금 한국은 단순한 경기순환 국면에 있는 것이 아니다.
오히려 성장과 자산은 수도권·AI·메가캡으로 집중되고, 비용과 부담은 지방과 실수요 가계로 분산되는 새로운 구조적 국면에 진입하고 있다.



1. 이제는 저유가보다 고유가 상시화를 걱정해야 한다


며칠전까지만해도 2026년을 두고 유가가 다시 내려갈 수 있다는 기대가 있었다.
하지만 최근 분위기는 많이 달라졌다.
이란이 예상 밖으로 주변 걸프 국가들의 에너지 인프라를 공격하면서, 중동 지역의 에너지 안보 리스크가 일시적 변수가 아니라 상시적 위협으로 전환되는 모습이다.

동시에 호르무즈 해협 불안이 커지면서 브렌트유는 3월 들어 100달러 안팎까지 올라갔고, 국제에너지기구도 추가 비축유 방출 가능성을 검토하고 있다. 호르무즈 해협은 세계 해상 원유 물동량의 약 20%가 지나던 핵심 병목지점이었다. 한국처럼 중동 에너지 의존도가 높은 나라에는 이 충격이 크게 들어올 수밖에 없다. (고용노동부)

고유가는 단순히 주유소 가격만 올리는 문제가 아니다.
정유, 석화, 철강, 운송, 건설, 전기요금, 생활물가까지 차례로 압박한다.

특히 한국은 이런 업종이 지방 산업도시에 몰려 있다.
그래서 고유가가 길어지면 지방 제조업 수익성이 먼저 흔들리고, 그 다음에는 고용과 지역경제가 흔들린다.

반면 수도권은 다르다.
AI와 반도체 중심의 수출, 고임금 일자리, 자산가격은 여전히 수도권과 대형주 쪽으로 집중될 가능성이 높다.

즉 지금 한국의 분화는 단순하다.

성장과 자산가격은 수도권·반도체·AI 쪽에 모인다.
비용상승과 고용불안은 지방 제조업과 비수도권에 더 강하게 퍼진다. (KDI)



2. 앞으로의 양질의 일자리는 더 소수 대형사 중심으로 몰릴 가능성이 크다


이 부분이 매우 중요하다.

앞으로 한국에서 법인세를 많이 내고, 대규모 CAPEX를 집행하고, 고소득 일자리를 만들고, 내수 소비를 유도하는 주체는 점점 더 소수의 초대형 기업이 될 가능성이 높다.

대표적으로 떠오르는 축은 이렇다.

  • 삼성전자·SK하이닉스 같은 반도체·AI 메모리 기업

  • 조선·방산 대형사

  • 원전 관련 대형 기업

  • 현대차 그룹의 전동화·자율주행·Physical AI 관련 투자 축

이 기업들의 공통점은 단순히 시가총액이 큰 것이 아니다.
대규모 설비투자, 고임금 일자리, 성과급, 협력업체 파급효과, 지역 소비 유발, 법인세 증가를 동시에 만들 수 있다는 점이다.

그래서 앞으로 한국 내수와 자산시장을 움직이는 힘은
“전 산업이 다 같이 좋아지는 힘”보다
상위 소수 대형사의 이익과 투자에서 내려오는 힘이 더 중요해질 가능성이 있다.

그런데 이 구조는 동시에 양극화도 심화시킨다.

조선·방산·원전·반도체·자동차 첨단 영역의 양질의 고소득 일자리
그렇지 못한 산업의 저임금·저생산성 일자리 사이의 격차가 더 커질 수 있다.

그리고 이 격차는 산업 간 격차에 그치지 않는다.
결국 도심 vs 지방도시, 상위 소득층 vs 평균 소득층, 핵심 벨트 vs 비핵심 지역 격차로 번질 가능성이 높다.

나는 이번 이란–호르무즈 사태가 이 흐름을 더 선명하게 만들 수 있다고 본다.
고유가가 길어질수록 지방 산업도시의 부담은 커지고, 반대로 수도권 핵심지와 상위 산업군은 상대적으로 더 강한 현금흐름과 자산 방어력을 가지게 되기 때문이다.


3. 법인세와 성과급은 앞으로 ‘자산 인플레이션의 연료’가 될 수 있다


이 부분은 단순 감각보다 숫자로 보는 편이 더 명확하다.

2025년 국세수입 예산은 382.4조원, 그중 법인세는 84.6조원이었다는 가정을 기준축으로 두고 생각해보자.
여기에 삼성전자와 SK하이닉스의 회계상 법인세 비용만 단순 합산해도 약 11.8조원 정도가 나온다.
이는 2025년 국세수입의 약 3.1%, 법인세 세목의 약 13.9% 수준이다.

물론 이 숫자는 실제 국세 납부액과 1:1로 일치하는 값은 아니다.
하지만 중요한 것은 반도체 이익이 커질수록 세수 구조의 쏠림도 훨씬 커질 수 있다는 점이다.

만약 2026~2027년 반도체 이익이 매우 강하게 나온다면 어떻게 될까.
그러면 같은 해에는 성과급이 먼저 늘고,
그 다음 해에는 법인세 세수가 늘어난다.

즉 같은 이익이
민간 가계 현금흐름
정부 세수 구조
동시에 밀어 올리는 것이다.

이게 왜 중요하냐면, 자산 인플레이션은 단순히 돈을 푸는 것만으로 오지 않기 때문이다.
오히려 더 강한 것은 실제로 누군가의 현금흐름이 커지고, 그 돈이 자산시장으로 흘러들어오는 구조다.


4. 성과급은 집만 올리는 게 아니라, 먼저 금융자산과 상급지 수요를 자극할 가능성이 크다


반도체 호황이 오면 가장 먼저 보이는 것은 성과급이다.

이전글 산식을 그대로 빌리면,
삼성전자 DS와 SK하이닉스의 2025년 성과급 총액은 근사치로 약 7.8조원 수준이다.
그리고 반도체 이익이 크게 뛰는 시나리오에서는 이 규모가 2026년 31.0조원, 2027년 44.8조원까지 확대될 수 있다는 계산이 가능하다.

이 수치는 물론 강한 상단 시나리오다.
다만 이 계산이 보여주는 방향성은 중요하다.

반도체 초과이익은 단순히 회사 숫자에 남는 것이 아니라,
고소득·고신용 가계의 현금흐름으로 바로 이전될 수 있다는 점이다.

그렇다면 이 돈이 다 집으로 갈까.
반드시 그렇지는 않다.

고금리와 대출규제가 남아 있는 구간에서는
이 추가 현금이 먼저 주식, 채권, 예금, 해외자산, 소비, 기존 대출 상환으로 분산될 가능성이 크다.

다만 여기서 중요한 것은,
이 계층이 결국 상급지 부동산과 핵심 금융자산에 접근할 수 있는 여력을 더 크게 가진다는 점이다.

즉 성과급 쇼크는
“모든 집값을 같이 올리는 힘”이라기보다,
금융자산과 수도권 상급지, 핵심 자산을 먼저 자극하는 힘에 더 가깝다.


5. CAPEX는 기대가 아니라 실제 수요를 만든다


더 중요한 것은 CAPEX다.

성과급은 돈이 들어오는 것이고,
CAPEX는 지역에 사람과 일자리를 붙이는 것이다.

이전글 기준 시나리오를 보면,
삼성, SK, 현대차의 연간 CAPEX 관련 투자 규모를 단순화했을 때 합계가 약 87조원/년 수준까지 계산된다.
그리고 한국은행 자료를 바탕으로 10억원당 취업유발을 8.3명으로 놓으면,
1조원당 약 830명·년,
87조원이면 대략 7.2만 명·년 수준의 취업유발 효과를 생각해볼 수 있다.

물론 이것도 단순화된 계산이다.
하지만 방향은 분명하다.

대규모 투자는 단순한 뉴스가 아니다.
그 지역의 고용, 소득, 주거, 소비 수요를 실제로 만든다.

즉 CAPEX는 자산가격을 “기대”로만 떠받치는 것이 아니라,
실제 지역 수요로 받쳐주는 힘이다.

문제는 이 수요가 전국으로 퍼지지 않는다는 데 있다.

반도체 벨트, 대형 제조업 클러스터, 첨단차 산업벨트 같은 일부 지역에는
돈, 일자리, 소비, 주거 수요가 몰린다.

반면 그렇지 못한 지방도시와 비핵심 산업 지역은
오히려 고유가·인구유출·산업 공동화 압력을 더 크게 받을 수 있다.

그래서 앞으로 한국 부동산과 자산시장은
“전체 상승/전체 하락”보다
핵심 벨트 집중 + 비핵심 지역 약세의 색깔이 더 강해질 수 있다.


6. 한국 물가를 끈질기게 밀어 올리는 더 큰 문제는 주거비다


앞으로 한국에서 물가를 가장 끈질기게 올릴 수 있는 항목은 에너지 못지않게 주거비라고 본다.

이 문제는 단순히 “집값이 비싸다”는 말로 끝나지 않는다.
전세 제도는 약해지고, 대출 규제는 강해지고, 임대사업 관련 부담은 커지고, 보유비용과 금융비용은 올라간다. 이런 변화는 결국 상당 부분이 세입자에게 전가될 가능성이 높다.

실제 통계를 보면 수도권은 이미 자가 기반이 약하다.
2024년 기준 전국 자가점유가구 비율은 **58.4%**인데, 수도권은 **52.7%**로 더 낮다. 쉽게 말해 수도권은 절반 가까운 가구가 자가가 아니라 임차시장에 의존하고 있다는 뜻이다. (지표누리)

게다가 수도권의 자가 진입 장벽도 높다.
KB부동산 데이터허브 기준으로 2025년 4분기 서울 아파트담보대출 PIR은 10.0배다. 같은 자료에서 서울의 평균 가구소득은 9,084만원, 주택가격은 9억1,500만원 수준으로 제시된다. 소득의 10배짜리 집을 감당해야 한다는 뜻이다. (KB부동산 데이터허브)

여기서 중요한 것은, 이런 환경에서 전세가 약해지고 월세화가 빨라지면 가계의 매달 현금 유출이 더 커진다는 점이다.

그래서 수도권 도심에서는 다음 악순환이 생긴다.

전세 약화
→ 월세화
→ 임대인의 비용 전가
→ 주거비 상승
→ 자가 진입 더 어려워짐
→ 다시 임차 의존 확대

결국 주거비는 일시적 물가가 아니라 계속 생활비를 밀어 올리는 구조적 압력이 된다.


7. 노란봉투법 이후에는 서비스물가 압력도 더 커질 수 있다


물가를 끌어올리는 또 하나의 축은 임금과 서비스비용이다.

개정 노동조합법 2·3조는 2026년 3월 10일부터 시행됐다.
고용노동부 설명에 따르면, 이제 근로계약의 직접 당사자가 아니어도 근로조건에 대해 실질적이고 구체적으로 지배·결정할 수 있는 지위에 있으면 사용자로 인정될 수 있다. 즉 하청노조가 원청과 교섭을 요구할 수 있는 기반이 더 분명해진 것이다. 노동쟁의 대상도 넓어졌다. (고용노동부)

이 제도가 곧바로 전국 총파업으로 직결된다고 단정할 필요는 없다.
하지만 중요한 것은 원하청 교섭 확대가 실제 임금 인상과 외주단가 상승 압력으로 이어질 수 있다는 점이다.

이게 왜 물가 문제냐면, 한국의 서비스업은 인건비 비중이 높기 때문이다.
운송, 물류, 정비, 외식, 생활서비스, 시설관리, 하역 같은 업종은 생산성보다 인건비가 가격을 움직이는 경우가 많다.

실제로 2026년 2월 소비자물가를 보면 전체 CPI는 전년동월대비 2.0% 상승했다.
식료품·에너지 제외 근원물가는 2.3%, 농산물·석유류 제외 지수는 2.5% 상승했다. 통계청은 전년동월비 상승에 서비스, 공업제품, 농축수산물, 전기·가스·수도가 모두 영향을 미쳤다고 설명했다. (국가데이터연구원)

즉 한국의 물가는 이제
에너지 가격,
주거비,
서비스 인건비
함께 밀어 올리는 구조로 바뀌고 있다.


8. 연금과 인구구조는 한국 증시의 장기 수급을 약하게 만든다


여기서 자본시장으로 넘어가 보자.

정책은 코스닥을 잠깐 띄울 수 있다.
하지만 문제는 그다음이다.

누가 계속 사 줄 것인가?

이 질문 앞에서 한국 시장은 구조적으로 불리하다.

먼저 인구구조다.
통계청 장래가구추계에 따르면 2052년에는 전체 가구의 **50.6%**가 65세 이상 가구주 가구가 될 전망이다. 1인가구 비중도 **41.3%**까지 올라간다. 고령화가 진행될수록 위험자산에 공격적으로 들어올 장기 투자자는 줄고, 자산보전 성향은 강해진다. (지표누리)

다음은 연금이다.
국민연금기금운용본부에 따르면 2025년 말 기준 국민연금 적립금은 1,458.0조원, 국내주식은 큰 축을 차지하는 핵심 자산군이다. 지금은 시장의 거대한 버팀목이지만, 장기적으로는 적립기에서 인출기로 이동할 수밖에 없다. (국민연금)

즉 지금 한국 시장은
고령화로 민간 장기투자 기반이 약해지고,
연기금은 장기적으로 매도 압력이 될 수 있고,
청년층은 주거비와 생활비 때문에 자산 형성이 늦어지는 구조다.

이런 시장에서 정부가 코스닥 수급을 유도한다고 해도, 그것이 오래 가기 어려운 이유가 여기에 있다.


9. 코스닥의 진짜 문제는 수급보다 이익 체력이다


코스닥을 볼 때 가장 중요한 질문은
“누가 사 줄까”보다
“무엇으로 돈을 벌까”다.

정책이 잠깐 수급을 만들 수는 있다.
하지만 이익이 약한 시장은 결국 오래 버티기 어렵다.

코스닥은 기대와 테마로 움직일 때가 많다.
문제는 기대를 정당화할 만큼 지속 가능한 earning power가 충분한가 하는 점이다.

시장을 장기적으로 높게 평가받게 만드는 것은 세 가지다.

첫째, 실제 이익이 나와야 한다.
둘째, 그 이익이 커질 수 있다는 믿음이 있어야 한다.
셋째, 그 산업의 경쟁력이 글로벌 기준에서도 설명 가능해야 한다.

그런데 지금 코스닥은 정책 테마가 붙을 수는 있어도,
시장 전체가 이런 조건을 충분히 충족한다고 보기는 어렵다.

그래서 코스닥 3,000 같은 구호는
현실적인 자본시장 전략이라기보다
정책이 만들어내는 단기 기대에 더 가까워 보인다.


10. 그래서 돈은 코스닥 전체보다 더 안전하고 더 강한 곳으로 몰릴 가능성이 높다


이 구조라면 자금의 흐름은 생각보다 단순하다.

먼저 메가캡 AI다.
삼성전자와 SK하이닉스처럼 글로벌 경쟁력이 분명하고, AI 투자 사이클의 직접 수혜를 받는 기업들이다.

다음은 수도권 핵심자산이다.
성장의 과실과 소득이 몰리는 곳이고, 희소성이 크며, 자가 진입 장벽도 높다.

그리고 마지막은 선택적 정책테마다.
정책이 밀어주는 일부 구간에서는 코스닥 안에서도 강한 랠리가 나올 수 있다.
하지만 그것이 곧 코스닥 전체의 장기 강세를 뜻하지는 않는다.

즉 앞으로 자금의 현실적 귀착점은
코스닥 전체가 아니라
메가캡 AI + 수도권 핵심자산 + 일부 정책테마일 가능성이 더 높다.


마무리: 그래서 나는 ‘집값 폭락’보다 ‘자산의 비대칭 인플레이션’을 더 본다


지금 한국 경제를 움직이는 압력은 하나가 아니다.

밖에서는 고유가가 들어오고,
안에서는 주거비가 계속 오를 구조가 굳어지고,
노동시장에서는 서비스물가를 자극할 임금 압력이 커지고,
금융시장에서는 연금과 인구구조가 장기 수급을 약하게 만들고 있다.

그런데 동시에
상위 소수 대형사는 더 많은 이익을 내고,
더 많은 법인세를 내고,
더 큰 CAPEX를 집행하고,
더 좋은 일자리를 만들고,
더 높은 성과급을 지급할 가능성이 있다.

이 말은 곧
모든 자산이 같이 오르는 시대가 아니라,
소득과 자금이 몰리는 자산만 더 강해지는 시대
가 올 수 있다는 뜻이다.

그래서 나는 앞으로의 한국 시장을 이렇게 본다.

생활비는 더 끈질기게 오를 가능성이 크다.
가계의 가처분소득은 더 압박받을 가능성이 크다.
자금은 더 안전하고 더 강한 곳으로만 몰릴 가능성이 크다.
그리고 자산 가격은 더 비대칭적으로 움직일 가능성이 크다.

결국 중요한 것은 지수 숫자가 아니다.
정말 중요한 것은
이익의 질,
산업의 경쟁력,
고소득 일자리가 어디서 생기느냐,
가계의 실제 구매력,
그리고 시장을 오래 지탱할 수 있는 자금 구조다.

그 기반 없이 올라가는 시장은 화려해 보여도 오래가기 어렵다.
반대로 그 기반이 있는 자산은, 생각보다 훨씬 오래 강할 수 있다.

=끝

생각정리 203 (* NVIDIA 2026 GTC, Groq LPU)

NVIDIA 2026 GTC를 보고 기존에 대충 보고 넘어갔던 Groq LPU에 대해 먼저 정리해보고

그 다음 들었던 기술발전 방향 뇌피셜 생각을 시간순으로 두서없이 정리해본다. 


NVIDIA GTC 2026에서 Groq LPU가 의미하는 것


AI 추론 시대의 병목은 이제 “연산량”보다 “지연시간”이다


NVIDIA의 최근 행보에서 중요한 변화가 하나 보인다.
이제 AI 인프라는 GPU 하나로 모든 것을 처리하는 구조에서, 역할을 나누는 구조로 조금씩 이동하고 있다는 점이다.

공개자료를 기준으로 보면 NVIDIA는 자체적으로는 Rubin CPX로 massive-context inference를 밀고 있고, 별도로 Groq와는 비독점 추론 기술 라이선스 계약을 체결했다. 따라서 NVIDIA가 inference stack을 더 세분화된 역할 분업 구조로 바라보고 있을 가능성은 높다.

이 변화가 중요한 이유는 단순히 칩 하나가 추가됐기 때문이 아니다.
핵심은 AI 추론의 병목이 바뀌고 있기 때문이다.
예전에는 “얼마나 많은 연산을 하느냐”가 더 중요했다.
앞으로는 “얼마나 빨리, 얼마나 일정하게 답을 내놓느냐”가 점점 더 중요해진다.
특히 에이전트형 AI, 실시간 AI, 물리 AI로 갈수록 이 변화는 더 선명해진다. (investor.nvidia.com)


1. 먼저 Groq가 어떤 회사인지 이해할 필요가 있다


Groq는 2016년에 설립된 AI 반도체 회사다.
이 회사의 출발점은 분명하다.
처음부터 훈련(training) 보다 추론(inference) 에 집중했다.

이 점이 중요하다.
AI 시장이 커질수록 모델을 한 번 학습시키는 것보다,
이미 학습된 모델을 얼마나 빠르게, 얼마나 싸게, 얼마나 많이 서비스하느냐가 더 중요해질 가능성이 높기 때문이다.

Groq는 바로 이 지점에 집중해 왔다.
즉, “AI를 똑똑하게 만드는 칩”보다 “AI가 실제로 답하게 만드는 칩” 쪽에 초점을 맞춘 회사라고 보는 편이 이해하기 쉽다. (groq.com)


2. Groq 창업자 Jonathan Ross를 이해하면 회사가 보인다


Groq를 이해하려면 창업자 Jonathan Ross를 먼저 봐야 한다.

Groq 공식 소개에 따르면 그는 구글에서 TPU effort를 20% 프로젝트로 시작했고, 1세대 TPU의 핵심 요소를 설계·구현한 인물이다.
이후 Google X의 Rapid Eval Team에서도 일했다. (groq.com)

이 이력은 매우 상징적이다.
Groq는 단순히 “구글 출신 엔지니어가 만든 스타트업”이 아니다.
조금 더 정확히 말하면, 구글 TPU 1세대가 던졌던 문제의식을 바깥으로 가져온 회사에 가깝다.

그 문제의식은 단순하다.
AI 추론은 CPU나 GPU처럼 범용 칩으로만 처리하면 비효율적일 수 있다는 것이다.
특히 사용자가 체감하는 응답속도, 즉 지연시간이 중요해질수록 이 문제는 더 커진다.

구글 TPU 1세대 논문도 같은 방향을 보여준다.
이 논문은 TPU를 데이터센터 추론용 ASIC으로 설명하면서, 큰 소프트웨어 관리형 온칩 메모리결정론적 실행 모델을 핵심 요소로 제시한다. Jonathan Ross도 이 논문의 공저자다. (research.google)

즉, Groq는 갑자기 등장한 회사가 아니다.
이미 TPU 시대부터 축적된 “AI 추론 전용 하드웨어 철학” 이 Groq로 이어졌다고 보는 것이 맞다. (research.google)


3. Groq가 지향한 기술의 핵심은 “초저지연”이다


Groq의 핵심 철학은 생각보다 단순하다.

AI 추론은 빨라야 한다.
그것도 평균적으로 빠른 것이 아니라,
항상 빠르게 반응해야 한다.

이 차이는 매우 크다.
사용자는 AI가 평균적으로 빠르다는 것보다, 내가 쓸 때 바로 반응하는지를 더 크게 체감한다.

특히 앞으로 중요해질 AI는 단순 챗봇이 아니다.

코딩 에이전트는 즉시 반응해야 한다.
실시간 음성 AI는 답이 늦으면 어색해진다.
로봇과 물리 AI는 반응이 늦으면 위험해질 수도 있다.

그래서 앞으로의 추론은 “많이 처리하는 능력”만으로는 부족하다.
낮은 지연시간과 일정한 응답성이 같이 필요하다.

Groq는 바로 이 지점에 집중했다.
공식 설명에서 LPU 아키텍처의 차별점으로 static scheduling, deterministic execution, chip-to-chip scaling, SRAM 중심 구조를 내세운다. (groq.com)

쉽게 말하면 이렇다.
GPU는 매우 뛰어난 종합 공장이다.
반면 Groq LPU는 특정 작업을 초고속으로 처리하는 전용 생산라인에 가깝다.
모든 것을 잘하는 대신, 추론의 특정 단계에서 아주 빠르고 일정하게 반응하도록 설계된 것이다.


4. 왜 LPU가 필요한가: 추론은 두 단계로 나뉜다


AI 추론은 크게 두 단계로 나눠 생각하면 이해하기 쉽다.

첫 번째는 프리필(prefill) 이다.
사용자가 입력한 긴 문장을 한꺼번에 읽고, 의미를 파악하고, 내부 상태를 만드는 단계다.

두 번째는 디코드(decode) 다.
이제 답변을 한 토큰씩 실제로 생성하는 단계다.

이 둘은 비슷해 보이지만 요구 조건이 다르다.

프리필은 긴 입력을 한꺼번에 읽기 때문에 대규모 병렬처리가 중요하다.
그래서 GPU가 잘한다.

반면 디코드는 한 번에 왕창 처리하기보다, 다음 토큰을 얼마나 빨리 뽑아내느냐가 중요하다.
여기서는 처리량보다 지연시간이 더 중요해진다.

바로 이 때문에 앞으로는
프리필은 GPU 중심,
디코드는 LPU 같은 저지연 전용 엔진 보완
이라는 구조가 자연스럽게 떠오른다.
GTC 2026에서 Rubin과 Groq LPU가 같이 언급된 것도 이 맥락에서 읽는 것이 가장 자연스럽다. (marketwatch.com)


5. 기존 GPU 안에도 온칩 SRAM은 있다


그런데 왜 Groq LPU가 따로 필요한가


이 질문이 가장 중요하다.

겉으로 보면 기존 GPU도 온칩 SRAM을 갖고 있다.
그렇다면 “그냥 GPU 안 SRAM을 더 늘리면 되는 것 아닌가”라는 생각이 들 수 있다.

하지만 차이는 SRAM의 존재 여부에 있지 않다.
핵심은 칩 전체를 어떤 철학으로 설계했느냐에 있다.

기존 GPU의 온칩 SRAM은 보통 고속 캐시 역할을 한다.
즉, 자주 쓰는 데이터를 잠깐 가까이에 붙잡아 두는 보조 저장공간에 가깝다.
전체 시스템은 여전히 범용 연산기로 설계되어 있다.
훈련도 해야 하고, 프리필도 해야 하고, 다양한 커널과 워크로드를 유연하게 처리해야 한다.

그래서 GPU는 구조적으로
“무엇이 들어와도 어느 정도 잘 처리하는 칩”에 가깝다.
대신 그 대가로 실행 경로가 복잡해지고,
메모리도 여러 계층을 오가며,
실행 도중 하드웨어가 그때그때 자원 배분과 스케줄링을 조정하는 구조를 갖게 된다.

반면 Groq LPU는 접근 방식이 다르다.
Groq는 아예 추론, 그중에서도 저지연 디코드를 중심에 두고 칩을 설계했다.
즉 SRAM이 보조 역할이 아니라, 칩 전체 데이터 흐름의 출발점이자 중심 인프라가 된다. Groq는 공식적으로 LPU의 차별점으로 SRAM design, static scheduling, deterministic execution, direct chip-to-chip connection을 제시한다. (Groq)

이 말은 단순히
“SRAM 용량이 많다”는 뜻이 아니다.

더 중요한 것은 다음 세 가지다.

첫째, 데이터를 꺼내오는 방식이 다르다.
기존 GPU는 큰 외부 메모리(HBM)와 여러 캐시 계층을 활용해 데이터를 가져온다.
반면 Groq는 자주 쓰는 데이터와 연산 흐름을 가능한 한 온칩 SRAM 중심으로 고정하려 한다.
즉, 데이터를 “필요할 때 찾아오는 구조”보다, 미리 준비된 작업대 위에 올려놓는 구조에 가깝다. (Groq)

둘째, 실행 순서를 정하는 방식이 다르다.
기존 GPU는 유연성이 강한 대신, 실행 도중에도 스케줄링과 자원 배분이 계속 일어난다.
반면 Groq는 컴파일 단계에서 실행 순서와 데이터 이동을 최대한 미리 정한다.
즉, “실행하면서 판단하는 칩”보다 **“실행 전에 이미 길이 정해진 칩”**에 가깝다.
Groq는 이를 static schedulingdeterministic execution으로 설명한다. (Groq)

셋째, 칩과 칩 사이 연결 철학도 다르다.
GPU는 보통 칩을 여러 개 묶을 때 스위치, 네트워크, 메모리 계층을 함께 고려해야 한다.
반면 Groq는 LPUs가 직접 연결되어 여러 칩이 하나의 큰 코어처럼 동작하도록 설계했다고 설명한다.
즉, 칩 하나만 빠른 것이 아니라 칩 여러 개를 붙였을 때도 지연시간이 흔들리지 않도록 처음부터 구조를 잡았다는 뜻이다. (Groq)

비유하면 이렇다.

GPU는 큰 물류창고가 붙은 종합 공장이다.
다양한 일을 할 수 있다.
하지만 작업자가 창고에서 자재를 가져오고, 공정 순서를 조정하고, 현장에서 유연하게 배치하는 비용이 든다.

LPU는 작업대 옆에 필요한 부품을 미리 다 붙여놓고,
작업 순서도 공장 가동 전에 다 정해 둔 초고속 조립라인에 가깝다.
유연성은 줄 수 있지만, 그 작업에서는 훨씬 빠르고 일정하다.

즉, Groq의 차별점은
“온칩 SRAM이 많다”가 아니라,
“SRAM을 중심으로 데이터 흐름, 실행 순서, 칩 간 연결까지 다시 설계한 추론 전용 기계”라는 데 있다. (Groq)


6. 물리적으로 왜 더 빠른가


이제 한 단계 더 들어가 보자.

AI 추론에서 병목은 생각보다 연산 자체보다 데이터 이동에서 자주 생긴다.

멀리 있는 메모리에서 데이터를 가져오고,
다시 계산하고,
다시 읽고 쓰는 과정에서 시간이 걸린다.

특히 디코드 단계는 토큰을 하나 만든 뒤, 그 결과를 반영해 또 다음 토큰을 만들어야 한다.
짧은 연산과 짧은 메모리 접근이 계속 반복된다.

이럴 때는 “한 번에 많은 연산을 할 수 있느냐”보다
한 토큰을 만들 때 불필요한 대기 시간을 얼마나 줄였느냐가 더 중요하다.

Groq LPU가 빠른 이유는 바로 여기에 있다.
핵심은 계산기를 더 많이 넣은 것이 아니라, 기다리는 구간을 줄였다는 점이다.

조금 더 구체적으로 보면, Groq가 재설계한 부분은 크게 네 가지다.

1) 메모리의 위치를 바꿨다

가장 자주 쓰는 데이터를 가능한 한 칩 안, 즉 SRAM 가까이에 둔다.
이렇게 하면 외부 메모리까지 왕복하는 횟수가 줄어든다.

쉽게 말하면
멀리 있는 창고를 오가는 대신,
필요한 부품을 손 닿는 곳에 둔 것이다.

디코드 단계는 이런 “짧고 반복적인 참조”가 많기 때문에
이 차이가 지연시간에서 크게 벌어진다.
Groq는 LPU를 SRAM 중심 설계라고 설명하고, Google TPU 1세대 논문도 large software-managed on-chip memory를 추론용 ASIC의 핵심으로 제시했다. (Groq)

2) 캐시에 맡기지 않고, 데이터 흐름을 더 직접 통제한다

기존 GPU는 캐시 계층이 복잡하고, 어떤 데이터가 언제 캐시에 남을지 런타임 상황의 영향을 받는다.
이 구조는 범용성에는 좋지만, 특정 요청에서는 지연시간이 흔들릴 수 있다.

반면 Groq는 가능한 한 소프트웨어와 컴파일러가 데이터 이동을 더 직접 통제하는 방향을 택한다.
즉 “운 좋게 캐시에 있으면 빠른 구조”보다,
**“애초에 필요한 데이터가 어디에 있을지 알고 움직이는 구조”**에 가깝다. (Groq)

3) 실행 순서를 미리 고정한다

기존 범용 칩은 실행 도중에도
어떤 연산을 먼저 처리할지,
어느 자원을 비울지,
어떻게 병렬화할지를 계속 조정한다.

이건 유연성에는 좋지만,
짧은 작업을 반복하는 디코드에서는 오히려 부담이 된다.

Groq는 이를 줄이기 위해 컴파일 단계에서 실행 경로를 미리 짠다.
그래서 칩은 실행 중에 “다음에 뭘 할까”를 덜 고민하고,
정해진 순서대로 바로 움직일 수 있다.
이것이 deterministic execution의 핵심이다. (Groq)

4) 칩 간 연결도 조립라인처럼 만든다

칩 하나만 빠르면 끝나는 것이 아니다.
AI 추론은 여러 칩이 같이 일해야 하는 경우가 많다.

이때 GPU 계열 구조는 칩 간 통신과 메모리 일관성 관리가 중요해진다.
반면 Groq는 칩 사이에도 assembly line 같은 흐름을 만들고, 직접 연결 구조를 통해 여러 칩이 하나의 단일 코어처럼 동작할 수 있다고 설명한다.
즉, 칩이 늘어나도 가능한 한 데이터 흐름이 끊기지 않게 하려는 것이다. (Groq)

결국 요약하면 이렇다.

기존 GPU는
**“범용성을 위해 복잡성을 받아들인 구조”**다.
반면 Groq LPU는
**“저지연 추론을 위해 복잡성을 미리 컴파일 단계로 넘긴 구조”**다.

그래서 LPU는 “엄청나게 큰 계산기”라기보다,
“데이터를 기다리는 시간을 줄이고, 실행 중 판단 비용을 줄인 계산기”라고 이해하는 편이 더 정확하다. (Groq)



7. 왜 이런 초저지연이 AI 추론 시대에 더 중요해지는가


앞으로 AI는 더 넓게 퍼질 가능성이 높다.

토큰 단가는 내려가고,
모델 성능은 올라가고,
서비스 종류는 더 많아질 것이다.

그러면 사람들은 AI를 단순 검색처럼 쓰지 않는다.
더 길게 대화하고,
더 복잡한 일을 시키고,
반복적으로 호출하고,
에이전트처럼 계속 일을 맡기게 된다.

그 결과 두 가지 요구가 동시에 커진다.

하나는 긴 컨텍스트다.
AI가 앞의 대화를 오래 기억해야 한다.

다른 하나는 즉각 반응이다.
기억은 길어지는데, 반응은 더 빨라야 한다.

이 둘이 동시에 커지면 기존 GPU 중심 구조만으로는 최적화가 점점 어려워질 수 있다.
바로 이 지점에서 GPU와 LPU의 역할 분업이 설득력을 갖기 시작한다.


8. 앞으로는 프리필과 디코드가 더 분업될 가능성이 있다


내 생각에 기술의 진화 방향은 점점 더 분업 구조로 갈 가능성이 높다.

프리필 단계에서는 긴 문맥을 한꺼번에 읽고 계산해야 한다.
이 단계는 여전히 GPU + HBM 중심 구조가 가장 강하다.

하지만 긴 컨텍스트가 길어질수록 KV cache가 폭증한다.
그러면 HBM만으로는 용량과 경제성을 모두 맞추기 어려워진다.

그래서 앞으로는 KV cache를 중심으로
HBM -> DRAM -> 외부 저장공간(SSD/NAND)
같은 메모리 계층화가 더 중요해질 가능성이 높다.
실제로 NVIDIA는 KV cache 오프로딩을 CPU RAM, 로컬 SSD, 네트워크 저장소까지 확장하는 방향을 설명하고 있다. (investor.nvidia.com)

즉 프리필의 병목은 단순히 GPU 로직칩 내부에만 있지 않다.
이제는 GPU와 메모리 전 계층 전체가 함께 움직이는 문제가 된다.

여기서 중요한 것이 하나 더 있다.
메모리 계층이 길어질수록, 결국 병목은 메모리 칩 자체뿐 아니라 계층 사이를 연결하는 인터커넥터에서도 생긴다.
HBM과 GPU 사이, GPU와 CPU 메모리 사이, 랙 내부의 가속기 사이, 더 나아가 랙과 랙 사이까지 모두 연결 비용이 커진다.
이 연결이 느리거나 전력 소모가 크면, 아무리 좋은 연산칩과 메모리를 써도 전체 시스템 효율은 떨어진다.

그래서 앞으로는 메모리 계층화와 함께 인터커넥터의 진화도 중요해진다.
초기에는 여전히 고속 copper 기반 연결이 주력이겠지만, 데이터 처리량이 계속 폭증하면 더 긴 거리에서 더 낮은 손실과 더 나은 전력 효율을 위해 optics, 즉 광 인터커넥트의 비중이 점점 커질 가능성이 높다.
이것은 단순히 속도를 높이기 위한 변화가 아니라, 전력 소모를 줄이고 지연시간을 안정화하기 위한 변화이기도 하다.

반면 디코드 단계는 다르다.
여기서는 실질적으로 토큰을 생산한다.
따라서 중요한 것은 총 처리량보다 다음 토큰을 얼마나 빨리 내놓느냐다.

그래서 앞으로는
프리필은 GPU + 메모리 계층,
디코드는 GPU + LPU
이런 식의 역할 분업 구조가 점점 강화될 가능성이 있다.

이때도 인터커넥터는 중요하다.
프리필에서 만들어진 상태와 KV cache 일부를 디코드 엔진 쪽으로 빠르게 넘겨야 하기 때문이다.
즉, GPU와 LPU를 붙인다는 것은 칩 하나를 더 추가하는 문제가 아니라, 칩과 메모리, 칩과 칩, 랙과 랙 사이의 연결 구조까지 함께 재설계하는 문제다.

특히 실시간 반응이 중요한 Physical AI 환경에서는 이런 구조가 더 중요해질 수 있다.
즉, NVIDIA의 Groq LPU 도입은 GPU를 대체하려는 움직임이라기보다,
GPU만으로는 잡기 어려운 저지연 추론 수요를 보완하려는 방향으로 해석하는 것이 가장 자연스럽다. (groq.com)


9. 이 변화는 반도체만의 이야기가 아니다


기판 산업에도 직접 연결된다


이 아키텍처 변화는 칩 업체만의 문제가 아니다.
오히려 기판 산업에도 상당히 큰 영향을 줄 수 있다.

이유는 단순하다.

1) 신호 무결성 문제: 더 많은 칩, 더 빠른 링크, 더 긴 메모리 계층.
2) 전력/열 문제: 저지연 inference일수록 순간 전력·발열 관리 중요.
3) 패키지/보드 설계 문제: GPU-HBM뿐 아니라 CPU, SSD, NIC, 광모듈까지 포함한 시스템 레벨 최적화.
4) 소재 업그레이드 문제: 저손실 CCL, 고다층 MLB, advanced packaging substrate.**

그렇게 되면 기판은 더 많은 것을 동시에 만족해야 한다.

첫째, MLB 고다층화가 필요하다.
신호선과 전력선이 많아질수록 층수를 더 늘려야 한다.

둘째, 집적화가 필요하다.
더 많은 칩과 더 많은 메모리를 좁은 공간 안에 넣어야 한다.

셋째, 신호 무결성이 중요해진다.
속도가 빨라질수록 신호 손실과 간섭이 치명적이 된다.

넷째, CCL 고기능화가 필요하다.
더 낮은 손실, 더 높은 절연 특성, 더 나은 열 특성을 가진 소재가 중요해진다.

즉, 앞으로의 기판 수혜는 단순한 물량 증가만이 아니다.
더 높은 사양과 더 높은 기술 난도가 핵심이 된다.

이 점은 매우 중요하다.
AI 서버가 복잡해질수록 진짜 수혜를 보는 것은 단순히 칩을 많이 파는 쪽만이 아니라,
그 칩들이 제대로 동작하도록 받쳐주는 기판과 소재 체계일 수 있기 때문이다.


10. 결국 NVIDIA 아키텍처 변화가 뜻하는 것


이 변화의 본질은 생각보다 명확하다.

NVIDIA는 이제 단순히 더 큰 GPU를 만드는 방향만 보고 있지 않다.
오히려 데이터 이동 거리를 줄이고,
병목을 줄이고,
에너지 효율을 높이는 방향으로 시스템을 재구성하고 있다.

이 점은 이전에 정리했던
AI+HW 2035: Shaping the Next Decade의 문제의식과도 정확히 맞닿아 있다.

미래의 AI 인프라는
연산 유닛만 계속 키우는 구조로 가지 않는다.

대신,

  • 데이터를 더 가까이 두고

  • 필요한 작업만 전용 엔진으로 처리하고

  • 메모리 계층을 더 정교하게 나누고

  • 칩과 칩, 메모리와 메모리 사이 연결을 더 효율적으로 바꾸고

  • copper 기반 연결은 더 고속화하고, 필요한 구간은 optics로 옮겨가며

  • 시스템 전체의 이동 비용과 전력 소모를 줄이는 방향

으로 진화할 가능성이 높다.

Groq LPU의 의미도 바로 여기에 있다.
이것은 단순히 새로운 칩 하나의 등장이 아니다.
AI 추론 시대의 병목이 어디에 있는지, 그리고 그 병목을 어떻게 풀 것인지를 보여주는 하나의 방향 제시다.


마무리


AI 인프라는 더 큰 단일 가속기를 향해 가는 것이 아니라, prefill/decode 분리, KV cache 계층화, latency-optimized execution, 그리고 시스템 차원의 데이터 이동 최소화를 중심으로 분화되고 있다.

Groq LPU는 그중 특히 decode/real-time inference 병목을 겨냥한 한 사례이며, NVIDIA 역시 Rubin CPX와 Dynamo를 통해 같은 문제를 다른 방식으로 풀고 있다.

결국 NVIDIA의 아키텍처 변화가 보여주는 방향은 분명하다.
AI 인프라는 이제 더 많이 계산하는 구조에서, 더 짧게 이동하고 더 효율적으로 연결되며 더 안정적으로 반응하는 구조로 진화하고 있다.

마지막으로 여러 기술발전 방향과 그 변화 속도에 대해 회의감을 드러내는 리포트 및 기사에 속지(?) 않기 위해 기초공부를 꼼꼼히 해둬야 겠다는 생각이 계속 든다. 

=끝

2026년 3월 15일 일요일

생각정리 202 (* 전쟁기계)

지난 주말, 『미국은 왜 전쟁을 멈추지 못하는가?』를 읽으며 떠오른 개인적인 생각을 정리해 기록해본다.


미국은 왜 전쟁을 멈추지 못하는가

나는 경제를 바라볼 때 가장 먼저 가족을 떠올린다.

국가와 기업, 정부조직 역시 결국 가족을 부양해야 하는 개인들이 모여 움직이는 집합이며, 그런 점에서 가족은 최소 경제주체의 시작점이라고 생각하기 때문이다.

그래서 미국의 전쟁 문제도 단순히 “미국이 패권을 원해서”라고만 보면 충분하지 않다고 생각한다.
그 뒤에는 더 현실적인 이유가 있다.

누군가는 가족 생계를 위해 움직이고,
누군가는 지역 일자리를 지키기 위해 움직이며,
누군가는 재선을 위해,
누군가는 퇴직 후 좋은 자리를 위해 움직인다.

이런 이해관계가 하나로 모이면, 전쟁은 단지 외교 문제가 아니라 돈이 움직이는 구조가 된다.


1. 공직은 명예롭지만, 워싱턴에서 가족을 부양하기는 생각보다 쉽지 않다


겉으로 보면 미국의 의원이나 고위 관료는 고연봉을 받는 사람들처럼 보인다.

실제로 미국 상·하원의원의 기본 연봉은 연 17만4천 달러이다.
숫자만 보면 적지 않아 보인다.

하지만 워싱턴 D.C.에서 4인 가족이 생활한다고 생각하면 이야기가 달라진다.

기본적인 생활비만 따져도,
주거비, 식비, 의료비, 교통비, 보육비를 합쳐 월 1만 달러 안팎이 필요하다는 추정이 나온다.
특히 자녀가 어릴 경우 보육비 부담이 매우 크다.

즉, 연봉 17만4천 달러라고 해도 세금을 내고 나면,
자녀가 있는 4인 가족이 워싱턴에서 넉넉하게 살기에는 생각보다 빠듯할 수 있다.

여기서 중요한 점은, 의원이나 고위 공직자는 일반 직장인처럼 한 도시에서만 사는 경우가 아니라는 것이다.
많은 경우 워싱턴 D.C. 체류 비용지역구 생활 비용을 함께 부담해야 한다.

겉으로는 “의원인데 왜 돈이 부족하겠냐”고 보이지만,
실제로는 체면은 높고 생활비 부담도 높은 직업인 셈이다.

그래서 공직 이후의 선택은 단순히 명예의 문제가 아니다.
결국은 가족을 어떻게 먹여 살릴 것인가의 문제가 된다.

이때 가장 매력적인 선택지 중 하나가 바로 로비스트, 방산업체 고문, 정책 컨설턴트 같은 자리이다.







2. 그래서 공직 경험은 퇴직 후 ‘비싼 경력’이 된다


의원이나 관료가 방산업체나 로비회사로 옮겨가는 이유를
많은 사람들은 단순히 탐욕이나 부패로만 이해한다.

물론 그런 측면도 있을 수 있다.
하지만 현실은 그보다 더 구조적이다.

워싱턴에서는 공직 경험 자체가 매우 비싼 자산이다.
어떤 예산이 어디서 결정되는지,
누가 영향력을 갖고 있는지,
어떤 방식으로 의회를 설득해야 하는지 아는 사람은 기업 입장에서 매우 가치가 크다.

즉, 공직자는 퇴직하는 순간 “전직 의원”이나 “전직 관료”가 아니라
예산과 정책 결정 구조를 잘 아는 사람이 된다.

그리고 방산업체는 이런 사람에게 높은 보수를 지급할 유인이 충분하다.
왜냐하면 국방예산은 규모가 워낙 크기 때문이다.

결국 구조는 이렇게 된다.

공직에 있을 때는 명예가 있지만 생활은 빠듯하다.
퇴직 후에는 그 경력을 바탕으로 훨씬 높은 소득을 얻을 수 있다.
그러면 현직에 있을 때부터 사람은 자연스럽게 퇴직 후 시장가치를 의식하게 된다.

이 지점에서 전쟁과 국방예산은
국가안보만의 문제가 아니라
개인의 미래소득 문제가 되기 시작한다.


3. 군수업체는 미국 여러 지역에서 ‘안보기업’이 아니라 ‘일자리 기업’이기도 하다


미국의 방산업체는 단순히 무기를 만드는 회사가 아니다.

많은 지역에서 방산업체는
공장을 운영하고,
하청업체를 먹여 살리고,
지역에 일자리를 만들고,
지역경제를 지탱하는 핵심 기업 역할을 한다.

그래서 의원 입장에서 국방예산은 단순한 안보정책이 아니다.

국방예산이 늘어나면
내 지역구 공장이 더 돌아가고,
일자리가 유지되고,
지역경제가 살아난다.

반대로 국방예산이 줄면
지역구 표심이 흔들릴 수 있다.

결국 의원은 “국가 전체의 효율”보다
먼저 “내 지역구의 고용과 득표”를 생각하게 된다.

이렇게 되면 국방예산은
워싱턴에서는 안보의 언어로,
지역구에서는 먹고사는 문제의 언어로 바뀐다.

그래서 미국 정치에서 국방예산 삭감은 늘 어렵다.
안보 때문이기도 하지만, 동시에 지역경제 때문이기도 하다.


4. 미국의 거대한 국방비는 계속해서 새로운 위협을 필요로 한다


미국은 세계에서 가장 많은 국방비를 쓰는 나라이다.

이처럼 거대한 예산과 산업이 유지되려면
사람들에게 “이 정도 예산이 왜 필요한가”를 계속 설명해야 한다.

그래서 미국은 늘 강력한 위협 서사를 필요로 한다.

과거에는 소련이 있었고,
그다음에는 중동의 테러와 이라크가 있었고,
지금은 중국이 가장 큰 위협으로 제시된다.

물론 실제로 중국의 부상은 미국에게 중요한 전략문제이다.
이 점 자체를 부정할 수는 없다.

하지만 여기서 중요한 것은,
이런 외부 위협이 단순히 안보 문제로만 소비되지 않는다는 점이다.

외부 위협은 동시에
국방예산 확대를 정당화하는 논리가 되고,
방산업체에는 계약의 근거가 되며,
정치인에게는 지역구 예산을 끌어올 명분이 된다.

즉, 위협은 실제일 수도 있지만,
그 위협이 국내에서 돈이 움직이는 구조와 결합하는 순간 훨씬 더 강력한 정치적 힘을 갖게 된다.


5. 이제는 기존 빅5 방산업체만이 아니라 AI 방산기업이 새 수혜자로 떠오르고 있다


여기서 최근의 변화가 하나 더 있다.

예전에는 방산이라고 하면
전투기, 미사일, 전차, 군함 같은 전통적인 하드웨어 중심이었다.

그래서 록히드마틴, RTX, 보잉, 노스럽그러먼, 제너럴다이내믹스 같은 기존 대형 방산업체들이 예산의 핵심 수혜자였다.

그런데 최근 전쟁은 달라지고 있다.

드론, 위성, 통신망, 데이터 분석, 자율주행 무기, AI 기반 표적 식별 같은 기술이 전쟁의 핵심으로 올라오고 있다.

쉽게 말하면,
이제 전쟁은 단순히 “누가 더 큰 무기를 갖고 있느냐”의 문제가 아니라
누가 더 빨리 보고, 더 빨리 판단하고, 더 정확하게 타격하느냐의 문제가 되어가고 있음과 동시에
과거와는 정반대 방향인 AI 자율 드론 부대와 같이 경량 무기의 대량 소모전이 되어가고 있다.

그래서 안두릴, 팔란티어, 스페이스X 같은 기업들이 새롭게 주목받고 있다.

이 점이 투자 관점에서 매우 중요하다.

왜냐하면 지금 바뀌는 것은
“군수복합체가 사라지는가”가 아니라
누가 그 돈을 가져가느냐이기 때문이다.

과거에는 하드웨어 중심의 기존 빅5가 돈을 많이 가져갔다면,
앞으로는 AI와 소프트웨어를 결합한 신생 방산기업들이 더 큰 몫을 가져갈 가능성이 크다.

즉, 구조가 없어지는 것이 아니라
수혜자의 얼굴이 바뀌는 것에 더 가깝다.


6. 그래서 본질은 ‘전쟁을 원하는 사람들’보다 ‘전쟁이 계속 돌아가게 만드는 구조’에 있다


많은 사람들은 전쟁을 볼 때
“누가 전쟁을 원하느냐”를 먼저 묻는다.

하지만 실제로 더 중요한 질문은 이것이라고 생각한다.

누가 전쟁이 계속되는 구조 속에서 이익을 얻는가.

의원은 재선을 생각한다.
관료는 퇴직 후 자리를 생각한다.
방산업체는 계약을 원한다.
지역사회는 일자리를 원한다.
투자자는 새로운 수익처를 찾는다.

이 이해관계가 하나로 묶이면,
전쟁은 누군가의 악의만으로 굴러가는 것이 아니라
시스템 전체가 쉽게 멈추기 어려운 방향으로 움직이게 된다.

즉, 미국은 단순히 호전적인 나라라서 전쟁을 멈추지 못하는 것이 아니다.

더 정확히 말하면,
전쟁과 군비확장이 미국 내부의 정치·경제·산업 구조와 너무 깊게 결합해 있기 때문에 멈추기 어려운 것이다.


7. 결국 돈의 흐름을 이해하려면 가족에서 시작해야 한다


나는 그래서 거대한 국가전략을 이해할 때도
먼저 아래 순서로 생각하는 편이 더 현실적이라고 본다.

가족은 생계를 원한다.
지역사회는 일자리를 원한다.
정치인은 표를 원한다.
관료는 퇴직 후 안정된 미래를 원한다.
기업은 계약을 원한다.
투자자는 높은 수익률을 원한다.

이 모든 것이 모이면
전쟁은 단지 외교적 충돌이 아니라
예산, 산업, 고용, 투자기회가 연결된 구조로 바뀐다.

그리고 지금은 그 구조 안에서
기존 하드웨어 방산에서
AI 기반 신생 방산기업으로
돈의 흐름이 조금씩 이동하는 시기일 수 있다.

그래서 앞으로의 투자기회를 보려면
국가 간 충돌만 볼 것이 아니라,
그 충돌이 미국 내부에서 누구의 생계와 수익으로 연결되는지를 함께 봐야 한다.

그 점에서 보면,
미국은 전쟁을 멈추지 못하는 것이 아니라
전쟁을 멈추기 어려운 방식으로 시스템이 짜여 있다고 보는 편이 더 정확하다고 생각한다.



#글을 마치며


어쩌면 군수·방위산업이야말로 공동안보, 세계질서, 평화, 억제력 같은 언어 뒤에 숨어, 결국 자신들의 사익을 위해 타인의 권리와 삶을 아무렇지 않게 희생시키는 인간의 추악한 본성이 가장 적나라하게 드러나는 산업인지도 모르겠다는 생각이 들었다.

그런 점에서 군수·방위산업을 두고 흔히 말하는 ‘민주주의를 지키는 창끝’, ‘병기창’이라는 표현 역시 더없이 공허하게 느껴진다.

아무리 현실적인 생계를 위한 선택이라 하더라도, 사익 위해 타인의 목숨이 짓밟히는 전쟁을 상품처럼 파는 삶은 얼마나 비루한가!


=끝

2026년 3월 12일 목요일

생각정리 201 (* AI+HW 2035: Shaping the Next Decade)

「AI+HW 2035: Shaping the Next Decade」


AI 성능이 고도화될수록 난해한 논문도 쉽게 풀어 번역하고 설명할 수 있게 되었으며, 이에 따라 나와 같은 전문지식이 없는 일반인들 또한 이러한 자료에 한층 수월하게 접근할 수 있게 되었다는 점에서, 참으로 좋은 시대를 살아가고 있음을 다시금 실감하게 된다.

개인적으로 카이에 De market 텔레그램 채널에 언제나 많은 도움을 받고 있으며, 감사함을 느낀다.

https://m.blog.naver.com/cahier/224214389070



AI+HW 2035: 앞으로 10년의 AI와 반도체는 어떻게 바뀌는가


1) 이 논문이 말하는 핵심 한 줄


지금까지는 AI 모델은 따로 발전하고, 반도체와 시스템은 그 뒤를 쫓아가는 방식이었다. 그런데 이제는 이런 방식이 한계에 도달했다는 것이 논문의 출발점이다. 앞으로는 “더 큰 모델, 더 많은 연산”만으로는 안 되고, 같은 전력으로 더 많은 지능을 내는 방향, 즉 에너지 효율 중심의 AI로 패러다임이 바뀌어야 한다는 주장이다. (arXiv)


2) 왜 이런 논문이 나왔는가


논문은 지금 AI 산업이 겉으로는 빠르게 발전하는 것처럼 보이지만, 내부적으로는 매우 비효율적인 구조 위에 서 있다고 본다.

쉽게 말하면 이렇다.

  • 오늘의 AI 알고리즘은 어제의 컴퓨터 구조에 맞춰 설계된다.

  • 반대로 내일 나올 칩은 오늘 유행하는 모델에 맞춰 설계된다.

  • 그러다 보니 둘 사이의 타이밍이 계속 어긋난다. (arXiv)


그 결과, AI는 점점 더 많은 전력을 먹고, 더 많은 메모리와 대역폭을 요구하며, 데이터센터 전력 수요는 국가 단위와 비교될 정도로 커진다. 논문은 이런 흐름을 환경적으로도, 경제적으로도 지속 불가능한 상태라고 진단한다. (arXiv)


3) 논문이 말하는 가장 중요한 개념: “더 똑똑한 AI”보다 “더 효율적인 AI”


이 논문에서 가장 중요한 표현은 “intelligence per joule”, 즉 전력 1줄당 얼마나 유의미한 지능을 만들어내는가이다. 저자들은 앞으로 AI 경쟁의 기준이 단순히 “누가 더 큰 모델을 만드느냐”가 아니라, 누가 더 적은 에너지로 더 많은 성능을 내느냐로 바뀌어야 한다고 본다. (arXiv)


쉽게 풀면 다음과 같다.


예전 방식:

  • 파라미터를 더 키운다

  • 데이터센터를 더 짓는다

  • GPU를 더 붙인다

앞으로 필요한 방식:

  • 데이터를 덜 움직이게 설계한다

  • 메모리와 연산을 더 가깝게 붙인다

  • 모델 자체를 더 작고 영리하게 만든다

  • 하드웨어와 소프트웨어를 한 몸처럼 같이 설계한다 (arXiv)


4) 병목은 “연산”이 아니라 “데이터 이동”이라는 주장


논문은 오늘날 AI 시스템의 가장 큰 병목이 계산 자체보다도 데이터를 옮기는 비용이라고 강조한다. 즉, 칩이 계산하는 것보다 메모리에서 데이터를 가져오고 보내는 과정이 더 많은 에너지와 시간을 먹는다는 뜻이다. 이른바 memory wall 문제이다. (arXiv)

그래서 저자들은 앞으로 중요해질 방향으로 다음을 제시한다.

  • 메모리 중심(memory-centric) 아키텍처

  • 3D 적층(3D integration)

  • compute-in-memory / near-memory

  • 이기종 통합 시스템 (arXiv)

쉽게 말하면,

“연산 장치와 저장 장치를 멀리 떨어뜨려 놓고 왔다 갔다 시키지 말고, 가능한 한 붙여서 처리하자”는 것이다.


5) 모델도 바뀌어야 한다: 무조건 큰 LLM이 답은 아니다


이 논문은 “하드웨어만 좋아지면 해결된다”는 생각도 부정한다. 반대로 모델 구조 자체도 더 효율적으로 바뀌어야 한다고 본다. 예를 들어,

  • 더 작은데 성능이 좋은 모델

  • 저정밀도 연산을 잘 활용하는 모델

  • 중복을 줄인 모델

  • sparse, low-rank, state-space 같은 대안적 구조

  • 테스트 시 계산량을 효율적으로 조절하는 방식


등이 중요해진다고 본다. (arXiv)


즉, 미래의 AI는
“무조건 거대한 범용 모델 1개”가 아니라
작고 빠르며, 용도에 맞게 특화된 모델들의 조합으로 갈 가능성이 크다는 뜻이다. 특히 엣지 기기나 로봇, 산업장비처럼 전력 제약이 큰 환경에서는 이런 방향이 더 중요하다고 본다. (arXiv)


6) 학습(training)과 추론(inference)은 완전히 다른 문제다


논문은 많은 사람들이 AI를 한 덩어리로 보지만, 실제로는 학습과 추론이 요구하는 시스템 조건이 근본적으로 다르다고 강조한다.

  • 학습은 대규모 처리량, 정확도, 긴 시간에 걸친 총비용 최적화가 중요하다.

  • 추론은 특히 물리 AI에서는 짧은 지연시간, 예측 가능한 응답, 낮은 전력 소모, 안전성이 훨씬 더 중요하다. (arXiv)

쉽게 말하면,

  • 데이터센터에서 몇 주 동안 학습시키는 문제와

  • 로봇이 0.1초 안에 판단해서 움직여야 하는 문제는


완전히 다른 성격이라는 뜻이다.

그래서 미래 시스템은 “학습용 AI 인프라”와 “실시간 추론용 AI 인프라”를 다르게 설계해야 한다고 본다. (arXiv)


7) 이 논문이 특히 주목하는 미래: “물리 AI”


논문에서 매우 중요하게 다루는 부분이 Physical AI이다. 이는 단순히 화면 속 텍스트를 다루는 AI가 아니라, 현실 세계에서 보고, 판단하고, 움직이는 AI를 뜻한다. 예를 들면 다음과 같다.

  • 로봇

  • 자율주행

  • 산업 자동화

  • 과학 실험 자동화

  • 실시간 제어 시스템 (arXiv)


저자들은 앞으로 실제 세상에서 발생하는 대부분의 추론은 이런 물리 AI 환경에서 일어날 가능성이 크다고 본다. 이 영역에서는 성능만 좋다고 되는 것이 아니라,

  • 전력 효율

  • 발열

  • 응답 시간

  • 안정성

  • 신뢰성


이 전부 중요하다. 그래서 물리 AI야말로 AI+HW 공동설계의 필요성이 가장 크게 드러나는 분야라고 말한다. (arXiv)


8) 단지 칩을 잘 만드는 문제가 아니라, “전체 스택”을 다시 설계하자는 주장


이 논문은 반도체 논문처럼 보이지만, 사실은 칩만 이야기하지 않는다. 저자들은 소재-소자-칩-패키징-시스템-컴파일러-런타임-모델-응용까지 전부 한 덩어리로 봐야 한다고 주장한다. 어느 한 층만 개선해서는 1000배 효율 향상이 불가능하다는 것이다. (arXiv)

즉, 미래 경쟁력은 단순히

  • 좋은 GPU를 만드는 회사,
    혹은

  • 좋은 모델을 만드는 회사

한 군데에서만 나오지 않는다.


오히려 모델, 시스템, 컴파일러, 메모리 구조, 네트워크, 전력·냉각 설계까지 동시에 맞물리는 생태계 전체가 중요해진다는 메시지이다. (arXiv)


9) 신뢰성과 안전성도 성능만큼 중요해진다


논문은 미래 AI 시스템을 평가할 때 더 이상 “정확도만 높으면 된다”는 기준으로는 부족하다고 말한다. 앞으로는 다음의 균형을 함께 봐야 한다는 것이다.

  • 정확도

  • 강건성(robustness)

  • 에너지 효율

  • 지연시간

  • 설명 가능성

  • 지속 가능성 (arXiv)


특히 AI가 반도체 설계, 공장, 로봇, 인프라, 과학 연구처럼 실제 시스템에 들어갈수록 오류를 내도 되는 AI가 아니라 검증 가능하고 신뢰할 수 있는 AI가 필요해진다. 이를 위해 논문은 형식 검증, 물리 제약 반영, 런타임 모니터링 같은 접근이 중요하다고 본다. (arXiv)


10) 산업과 사회에 어떤 변화가 오나


논문은 AI+HW 공동설계가 단지 속도를 조금 높이는 수준이 아니라, 지금은 비용과 전력 때문에 불가능한 새로운 응용을 열 것이라고 본다. 예를 들어

  • 더 똑똑한 설계 자동화

  • 더 빠른 연구개발 사이클

  • 공급망 최적화

  • 제조 자동화

  • 자율 시스템

  • 과학 발견 가속


같은 변화가 나타날 수 있다고 본다. (arXiv)

즉, 이 논문은 “AI 반도체를 잘 만들자” 정도의 얘기가 아니라,
AI와 컴퓨팅 인프라를 다시 짜면 산업 생산성 전체가 재편될 수 있다는 큰 그림을 제시한다.


11) 저자들이 생각하는 2035년의 성공 기준


논문이 제시하는 10년 뒤 성공의 모습은 꽤 분명하다.

  1. AI 학습과 추론 효율 1000배 향상

  2. 클라우드, 엣지, 물리 AI를 끊김 없이 연결하는 에너지 인지형 시스템

  3. 소수 초대형 기업만이 아닌 더 넓은 주체들이 접근 가능한 AI 인프라

  4. 인간 중심 원칙이 내장된 지능형 시스템 (arXiv)


이 목표를 요약하면,
“더 거대한 AI”가 아니라
더 널리 쓰이고, 더 싸고, 더 안전하며, 더 지속 가능한 AI를 만들자는 것이다.


12) 이 논문이 정부·학계·기업에 요구하는 것


논문은 기술 제안에서 끝나지 않고, 정책과 협력 구조까지 강조한다. 저자들은 다음이 필요하다고 본다.

  • 국가 차원의 장기 AI+HW 이니셔티브

  • 공유 가능한 컴퓨팅 인프라

  • 학계-산업계-정부의 장기 협력

  • 인력 양성

  • 공공-민간 파트너십 강화 (arXiv)


핵심은 이렇다.
이 문제는 어떤 한 기업이 혼자 해결할 수 있는 문제가 아니라, 국가 차원의 산업·기술 전략으로 접근해야 한다는 것이다. 워크숍 소개 페이지도 이 보고서가 AI와 하드웨어 공동설계를 위한 10년 비전과 실행 과제를 만드는 목적에서 출발했다고 설명한다. (publish.illinois.edu)


아주 쉽게 요약하면


이 논문은 사실상 다음 말을 하고 있다.


“앞으로 AI의 승부는 모델 크기가 아니라, 전력·메모리·시스템까지 포함한 총체적 효율의 승부가 된다.”

조금 더 풀어쓰면,

  • 이제 GPU만 더 사서 해결하는 시대는 한계에 가깝다.

  • 데이터 이동 비용과 전력 문제가 진짜 병목이다.

  • 그래서 모델, 칩, 메모리, 패키징, 시스템 소프트웨어를 함께 설계해야 한다.

  • 특히 로봇, 자율주행, 산업자동화 같은 물리 AI 시대가 오면 이 문제가 훨씬 더 중요해진다.

  • 결국 미래 AI 경쟁력은 **“누가 더 큰 모델을 만들었는가”**보다
    **“누가 더 적은 전력과 더 낮은 비용으로 현실 세계에서 잘 돌아가는 지능 시스템을 만들었는가”**로 옮겨간다. (arXiv)


한 문단으로 다시 쓴 초압축 재작성본


이 논문은 앞으로 10년의 AI 경쟁이 단순한 모델 확장이 아니라 AI와 하드웨어를 처음부터 함께 설계하는 능력에 달려 있다고 본다.

지금까지는 더 큰 모델과 더 많은 연산으로 성능을 높여 왔지만, 이제는 전력 소모, 메모리 병목, 데이터 이동 비용, 냉각과 인프라 한계가 AI 발전의 진짜 제약이 되었다.

따라서 미래의 AI는 연산 중심 구조에서 벗어나 메모리 중심 아키텍처, 3D 적층, 이기종 시스템, 저전력 특화 모델, 실시간 추론 최적화로 이동해야 한다.

특히 로봇·자율주행·산업 자동화 같은 물리 AI 시대에는 낮은 지연시간과 높은 신뢰성, 에너지 효율이 핵심이 되므로, 모델·컴파일러·칩·시스템 전체를 통합 설계하는 접근이 필수적이다.

궁극적으로 이 논문은 2035년까지 AI 학습과 추론 효율을 1000배 높이고, 더 많은 주체가 활용할 수 있는 지속 가능하고 인간 중심적인 AI 인프라를 구축하자는 청사진을 제시한다. (arXiv)


=끝

2026년 3월 11일 수요일

생각정리 200 (* 리서치 방향)

그간 펼쳐놓았던 아이디어를 한 번 정리하고,
앞으로의 리서치 방향을 다시 세워보고자 한다.


AI는 어디까지 왔고, 이제 무엇을 봐야 하는가


지식노동 대체의 시대, 병목과 해자의 관점에서


지금 AI를 바라볼 때 중요한 것은 단순히 모델이 얼마나 똑똑해졌는가가 아니다. 오히려 그 발전이 어디에서 막히고 있고, 그 병목을 누가 어떻게 해결하는지가 더 중요해지고 있다.

AI는 이제 인간의 언어를 이해하는 수준을 넘어, 인간만의 고유 영역으로 여겨졌던 추론의 영역까지 들어오고 있다. 과거의 AI가 반복 업무와 정형화된 작업에 강한 도구였다면, 지금의 AI는 정보를 연결하고, 맥락을 파악하고, 불완전한 정보 속에서 결론을 만들어내는 방향으로 발전하고 있다. 그래서 AI는 더 이상 단순한 자동화 도구가 아니라, 점점 더 지식노동 자체를 위협하는 기술로 받아들여지고 있다.

이 변화의 배경에는 스케일업(scale-up)이 있다. 더 많은 데이터, 더 큰 모델, 더 많은 GPU와 서버, 더 많은 전력과 자본이 투입되면서 AI의 성능은 단순한 양적 확대를 넘어 질적으로도 달라졌다. 어느 순간부터는 요약에 머물던 모델이 추론을 하기 시작했고, 짧은 응답에 그치던 모델이 긴 문맥을 이해하기 시작했다. 이것이 흔히 말하는 창발효과이다.

중요한 것은 이 창발효과가 단순히 성능 개선에 그치지 않는다는 점이다. AI는 이제 기존 업무를 일부 대체하는 수준을 넘어, 인간의 생산성과 판단 능력을 확장하는 새로운 추가 효용을 만들어내기 시작했다. 다시 말해 기존 수요를 대체하는 1차 변화에서, 새로운 사용 방식과 새로운 워크로드를 만들어내는 2차 수요의 변곡점으로 넘어가고 있는 것이다. 최근 시장에서 Agent AI라는 표현이 부각되는 것도 이 흐름과 맞닿아 있다.

과거의 AI가 질문에 답하고 결과를 생성하는 시스템에 가까웠다면, 이제의 AI는 목표를 부여받고, 여러 단계를 나누어 사고하고, 필요한 도구를 호출하고, 작업을 이어서 수행하는 방향으로 진화하고 있다. 즉, AI는 단순한 응답형 시스템에서 행동하고 수행하는 시스템으로 이동하고 있다. 이 변화는 AI의 활용 범위를 넓히는 동시에, 필요한 인프라 자원을 훨씬 더 무겁게 만든다. 그래서 지금의 AI는 단순히 더 좋은 모델의 문제가 아니라, 더 복잡한 수요를 떠받칠 수 있는 인프라의 문제로도 읽어야 한다.

그 결과 AI는 이제 단순한 보조 도구가 아니라, 부가가치가 높고 시장 규모도 큰 지식노동 시장에 본격적으로 진입하기 시작했다. 문서를 읽고 정리하는 일, 자료를 비교하고 판단하는 일, 보고서를 작성하는 일, 코드를 짜는 일처럼 원래는 사람의 경험과 학습이 필요하다고 여겨졌던 영역들에서 AI의 역할은 빠르게 커지고 있다. 그렇다면 이제 중요한 질문은 “AI가 얼마나 더 똑똑해질까”가 아니라, 이 발전을 현실에서 무엇이 가로막고 있는가이다.


이제 중요한 것은 성능이 아니라 병목이다


기술 산업은 늘 비슷한 방식으로 움직인다. 수요는 빠르게 늘어나지만, 공급은 그 속도를 따라가지 못한다. 아무리 좋은 기술이 나와도 그것을 실제로 뒷받침할 공장, 장비, 자본, 전력, 부품이 부족하면 산업의 확산 속도는 반드시 제약을 받는다. 결국 산업의 발전 속도는 언제나 가장 부족한 자원에 의해 결정된다.

지금의 AI 산업이 정확히 그런 상태에 있다. AI에 대한 수요는 폭발하고 있지만, 이를 실제로 떠받치는 공급은 생각보다 훨씬 제한적이다. 좋은 모델만 있다고 산업이 굴러가는 것이 아니다. 그 모델을 돌릴 연산 자원, 큰 모델과 긴 문맥을 담을 메모리, 이를 지탱할 전력, 발열을 감당할 냉각, 칩과 메모리를 묶는 패키징, 그리고 서버와 서버를 잇는 네트워킹이 모두 필요하다.

즉, 지금 AI 산업의 핵심은 단순한 알고리즘 경쟁이 아니다. 폭증하는 수요와 제한된 공급이 정면으로 부딪히는 구조 자체가 핵심이다. 그리고 바로 이런 상황에서 기술의 다음 발전 방향이 결정된다. 이 지점에서 “필요는 발명의 어머니이고, 결핍은 발전의 출발점이다”라는 문장이 다시 의미를 갖는다. 수요가 충분한데도 공급이 따라가지 못하면 기존 방식은 더 이상 통하지 않는다. 그 순간부터 산업은 새로운 구조를 요구받고, 기술은 더 빠르게 진화한다.


인간의 뇌와 AI 데이터센터의 전력 격차가 보여주는 것


이 구조를 직관적으로 보여주는 비교 중 하나가 인간의 뇌와 AI 시스템의 에너지 효율이다. 인간의 뇌는 매우 적은 전력으로 언어를 이해하고, 기억하고, 추론하고, 창의적으로 사고한다. 흔히 인간의 뇌는 약 20W 안팎의 에너지로 작동한다고 설명된다. 물론 인간의 뇌와 AI 데이터센터를 1대1로 비교하는 것은 엄밀하지 않다. 구조도 다르고, 연산 방식도 다르고, 수행 과제도 다르기 때문이다.

그럼에도 이 비교가 의미를 가지는 이유는 분명하다. 인간의 지능은 놀라울 만큼 에너지 효율적인 반면, 오늘날의 AI는 여전히 매우 거대한 전력 집약형 시스템 위에서 작동하고 있기 때문이다. 다시 말해, 현재의 AI는 성능을 끌어올리는 데는 성공했지만, 효율 면에서는 아직 물리적 자원의 대규모 투입에 의존하고 있다.

이 사실이 중요한 이유는 AI 산업이 더 커질수록 더 많은 서버, 더 많은 전력, 더 많은 냉각, 더 많은 메모리, 더 많은 데이터 이동이 필요해지기 때문이다. 특히 Agent AI처럼 단순 응답이 아니라 더 긴 문맥을 유지하고, 여러 단계를 거치며, 도구를 호출하고, 중간 상태를 저장하는 방식이 확산될수록 필요한 인프라 자원은 훨씬 더 무거워진다. 그래서 AI를 볼 때는 모델만 볼 것이 아니라, 어떤 인프라가 필요하고, 그 인프라에서 무엇이 부족해지는가를 함께 봐야 한다.


첫 번째 병목: 추론 지연과 메모리 제약


AI가 더 넓은 지식노동 시장으로 들어가려면 단순히 답변을 잘하는 것만으로는 부족하다. 복잡한 추론을 더 빠르게, 더 안정적으로 해야 한다. 긴 문서를 읽고 핵심을 정리하거나, 여러 조건을 비교하고 판단하는 작업은 더 긴 문맥을 기억해야 하고, 더 많은 중간 결과를 저장해야 하며, 더 오랜 시간 상태를 유지해야 한다.

바로 여기서 메모리 문제가 핵심이 된다. 많은 사람들은 AI 성능을 말할 때 GPU의 연산 능력만 떠올리지만, 실제 현장에서는 필요한 데이터를 얼마나 빨리 읽고, 얼마나 많이 담고, 얼마나 효율적으로 유지할 수 있는지가 매우 중요하다. 그래서 AI의 실제 추론 성능은 단순한 연산 속도만으로 결정되지 않는다. HBM 용량, 메모리 대역폭, KV 캐시, GPU 사이의 데이터 이동 효율이 모두 핵심 요소가 된다.

Agent AI는 이 메모리 병목을 더 날카롭게 만든다. 질문 하나에 답하고 끝나는 것이 아니라, 작업 상태를 유지하고, 과거 결과를 기억하고, 중간 단계를 이어가야 하기 때문이다. 즉, 에이전트형 워크로드가 늘어날수록 메모리는 단순 저장 공간이 아니라 지속적인 작업 능력을 떠받치는 핵심 자원이 된다.


두 번째 병목: GPU, ASIC, 첨단 패키징 공급


다음 병목은 반도체 공급이다. 특히 GPU와 ASIC, 그리고 이들을 실제 제품으로 구현하는 첨단 패키징 공급이 중요하다. 많은 사람들은 반도체 병목이라고 하면 먼저 미세공정을 떠올리지만, 지금 AI 시대의 병목은 그것 하나로 설명되지 않는다.

실제 문제는 훨씬 더 복합적이다. 좋은 연산 칩만 있다고 끝나는 것이 아니다. 그 칩에 대용량 HBM을 붙여야 하고, 이를 하나의 패키지 안에서 안정적으로 연결해야 하며, 발열과 전력 문제도 감당해야 한다. 여기에 기판, 인터포저, 테스트, 수율까지 모두 따라붙는다. 즉, 지금의 병목은 칩 하나의 문제가 아니라, 전체 시스템을 얼마나 정교하게 조립하고 대량 공급할 수 있는가의 문제이다.

더구나 Agent AI가 확산될수록 필요한 추론 인프라는 더 무거워질 가능성이 크다. 짧은 질의응답용 서비스보다, 장시간 상태를 유지하고 여러 단계를 수행하는 서비스가 훨씬 더 많은 연산 자원과 메모리 자원을 쓰기 때문이다. 이 말은 결국 GPU와 HBM, 첨단 패키징에 대한 수요가 구조적으로 더 무거워질 수 있다는 뜻이다.

여기서 한 가지 더 중요한 흐름이 생긴다. ASIC, GPU, Logic 칩의 물리적 제약이 커질수록 칩 자체의 희소성과 가치는 높아질 수밖에 없다. 공급이 제한된 고가 자산일수록 시장은 그 자산을 최대한 쉬지 않고 돌리려는 유인을 갖게 된다. 즉, GPU의 유휴시간을 줄여야 할 필요성이 더 강해진다.

그리고 이 지점에서 논리는 자연스럽게 메모리로 이어진다. GPU 유휴시간을 줄인다는 것은 결국 더 많은 작업을 더 오래, 더 끊김 없이 처리해야 한다는 뜻이다. 그러려면 연산 칩 자체만으로는 부족하다. 칩이 기다리지 않도록 데이터를 제때 공급하고, 더 많은 상태를 붙잡아 두고, 더 깊은 추론을 지속할 수 있게 만드는 메모리 구조가 함께 따라와야 한다. 결국 칩의 희소성이 커질수록, 그 칩을 최대 효율로 돌리기 위한 메모리 수요는 다시 자극될 수밖에 없는 구조로 흘러간다.

즉, 반도체 병목은 메모리 병목과 분리된 이야기가 아니다. 오히려 희소한 GPU를 더 효율적으로 돌리려는 유인 자체가 메모리의 중요성을 더 끌어올리는 방향으로 작동한다.


세 번째 병목: 캐파 증설의 긴 시간 지연


여기에 더해 중요한 것은 시간이다. AI 수요는 매우 빠른 속도로 늘어나지만, 공급 능력은 그렇게 빨리 늘지 않는다. 공장을 짓는 데 시간이 걸리고, 장비를 들여오는 데 시간이 걸리며, 생산을 안정화하고 고객 인증을 받는 데도 시간이 걸린다. 즉, 시장이 원한다고 해서 다음 분기에 공급을 갑자기 두 배로 늘릴 수 있는 산업이 아니다.

이 구조 때문에 AI 산업에서는 한동안 수요 폭증과 공급 부족이 동시에 나타나는 상황이 이어질 가능성이 크다. 그리고 이 상황은 단순한 경기 변동과는 다르다. 일시적인 재고 조정의 문제가 아니라, 물리적 생산능력의 확대 속도가 수요 증가 속도를 따라가지 못하는 구조적 현상이다.

이 점이 중요한 이유는 명확하다. 이 구조에서는 병목을 푸는 기업이 훨씬 큰 힘을 갖게 된다. 단순히 좋은 기술을 가진 기업이 아니라, 희소한 공급능력을 실제로 제공할 수 있는 기업이 더 높은 협상력을 가질 가능성이 커진다.


네 번째 병목: 메모리 계층의 재편


이제 자연스럽게 시선은 메모리 구조로 이동한다. AI 인프라에서는 더 이상 연산 칩만 좋아서는 충분하지 않다. 중요한 것은 그 칩에 얼마나 많은 메모리를 붙일 수 있는지, 그 메모리를 얼마나 빠르게 쓸 수 있는지, 그리고 전체 시스템 안에서 메모리를 어떤 계층으로 나눠 쓸 것인지이다.

AI가 더 긴 문맥을 처리하고, 더 복잡한 추론을 하고, 더 많은 중간 상태를 저장할수록 메모리 부담은 커진다. Agent AI는 이 흐름을 더 밀어붙인다. 에이전트는 과거 작업을 기억해야 하고, 도구 호출 결과를 저장해야 하며, 문맥을 이어가야 하기 때문이다. 즉, 메모리는 단순 부품이 아니라 추론 성능과 자산 활용률을 동시에 좌우하는 핵심 계층으로 재평가되고 있다.

그래서 HBM과 DRAM의 중요성이 크게 올라왔다. HBM은 빠르고 대역폭도 높아 AI에 매우 적합하지만, 비싸고 희소하며 공급도 제한적이다. 이 지점에서 NAND와 SSD의 의미도 다시 보게 된다. 물론 NAND가 HBM을 대체하는 것은 아니다. 하지만 모든 데이터를 가장 비싼 메모리에만 올릴 수는 없기 때문에, 앞으로는 메모리를 하나로 보지 않고 HBM-DRAM-SSD/NAND로 이어지는 계층 구조 전체로 이해해야 한다. 결국 앞으로의 경쟁은 단순히 누가 더 좋은 칩을 만드느냐가 아니라, 누가 메모리 계층 전체를 더 효율적으로 설계하느냐에도 달려 있다.


결국 다시 중요해지는 것은 네트워킹이다


여기까지 오면 자연스럽게 다음 질문으로 이어진다. 연산도 중요하고, 메모리도 중요하고, 전력도 중요하다면, 이 모든 것을 연결하는 것은 무엇인가. 바로 네트워킹이다. AI 시스템은 점점 더 거대해지고 있고, 하나의 칩만으로 끝나지 않는다. 여러 GPU가 함께 일하고, 여러 서버와 여러 랙이 함께 움직여야 한다. 결국 전체 성능은 데이터를 얼마나 빠르고 효율적으로 주고받을 수 있는가에 달려 있다.

중요한 점은 많은 전력이 실제 계산 그 자체보다도, 데이터를 이동시키는 과정에서 소모된다는 것이다. AI가 커질수록 데이터 이동 비용도 함께 커진다. 따라서 앞으로는 단순히 계산 성능만 높이는 것으로는 부족하고, 데이터를 얼마나 효율적으로 움직일 수 있는가가 핵심이 된다. 특히 Agent AI처럼 더 많은 상태를 주고받고, 더 많은 도구 호출과 중간 결과가 오가는 구조에서는 연결과 이동 자체가 성능의 일부가 된다.

그래서 네트워크는 더 이상 주변부 인프라가 아니다. 오히려 컴퓨팅 효율을 결정하는 핵심 계층이다.


구리에서 광으로, 연결 방식도 바뀌기 시작한다


이 흐름은 더 멀리 가면 연결 방식의 변화로 이어진다. 즉, 구리 기반 연결에서 광 기반 연결로의 전환이다. 이유는 단순하다. AI 데이터센터가 점점 더 커지고 있기 때문이다. 시스템이 커질수록 전기 신호만으로 데이터를 전달하는 방식은 전력 소모, 발열, 거리, 신호 손실 측면에서 여러 한계를 드러낸다.

그래서 광 네트워킹은 단순한 통신 기술의 변화가 아니다. 그것은 한정된 전력 안에서 더 큰 AI 시스템을 더 효율적으로 운영하기 위한 기술적 해법이다. 그리고 Agent AI처럼 더 길고 복잡한 워크로드가 늘어날수록, 시스템 안에서 오가는 데이터도 더 많아질 수밖에 없다. 이 말은 결국 네트워크 효율 문제가 앞으로 더 중심으로 올라올 가능성이 크다는 뜻이다.


그래서 지금 진짜 중요한 리서치 주제는 무엇인가


여기까지의 흐름을 종합하면, 지금 AI 산업을 볼 때 중요한 것은 AI 기술이 현실에서 어디에서 막히고 있는가를 보는 것이다. 그리고 그다음 질문이 이어진다. 그 병목을 누가 풀고 있는가. 어떤 기업이 해결책을 갖고 있는가. 어떤 기술이 실제로 산업의 제약을 해소하고 있는가.

이것이 앞으로의 핵심 리서치 주제이다. 먼저 해야 할 일은 병목을 정확히 식별하는 것이다. 그다음에는 각 병목마다 어떤 기업이 어떤 솔루션을 제시하고 있는지 봐야 한다. 그리고 거기서 끝나면 안 된다. 그 솔루션이 얼마나 강한 기술적 해자를 갖고 있는지, 얼마나 쉽게 따라잡힐 수 있는지, 얼마나 오랫동안 높은 협상력을 유지할 수 있는지, 산업 전체 가치사슬에서 얼마나 중요한 위치를 차지하는지까지 봐야 한다. 마지막으로 그 해자가 실제로 기업가치와 밸류에이션에 어떻게 연결되는지까지 분석해야 한다.

결국 지금 필요한 것은 막연한 낙관이 아니다. 병목을 찾고, 솔루션을 찾고, 해자를 측정하고, 그 가치를 평가하는 일이다.


기술의 가치는 희소한 현실 위에서 빛난다


마지막으로 이 모든 흐름을 볼 때 놓치기 쉬운 것이 하나 있다. 현실의 자원은 언제나 한정되어 있고, 언제나 희소하다는 점이다. 기술은 진공 상태에서 발전하지 않는다. 언제나 현실의 제약 위에서 발전한다.

전력이 무한하지 않기 때문에 전력 효율 기술이 중요해진다. 메모리가 무한하지 않기 때문에 메모리 계층 설계가 중요해진다. 패키징 캐파가 무한하지 않기 때문에 공급망의 힘이 커진다. 네트워크 대역폭이 무한하지 않기 때문에 연결 기술의 가치가 높아진다. 즉, 기술의 가치가 빛나는 이유는 현실의 자원이 희소하고 유한하기 때문이다.

그리고 바로 그 희소성과 유한성이 더 선명해질 때, 기술 발전은 오히려 더 크게 꽃핀다. 그런 의미에서 지금의 AI 산업은 매우 흥미로운 국면에 있다. 겉으로는 소프트웨어 혁신처럼 보이지만, 그 안을 들여다보면 전력과 메모리와 패키징과 네트워크라는 물리적인 제약이 산업 전체를 다시 설계하고 있다. 기술의 다음 방향은 결국 이 한정된 자원을 누가 더 효율적으로 쓰게 만들어주느냐에 의해 결정될 가능성이 크다.

결국 지금 우리가 봐야 하는 것은 하나다. 어디가 가장 부족한가. 그리고 누가 그 부족함을 해결하는가. 앞으로의 AI 산업 리서치는 바로 그 질문에서 시작되어야 한다.

=끝

2026년 3월 10일 화요일

생각정리 199 (* Hormuz Strait)

아침에 출근해 외신 기사를 읽다 문득 떠오른 생각을 두서없이 정리해본다.

결론부터 말하면, 

호르무즈의 전후 질서는 다국적 외피를 두르더라도, 실질적으로는 미국이 설계하고 관리하는 해상안보 체제로 수렴할 가능성이 높지 않나이다.

유럽은 아직 에너지 위기에서 완전히 벗어나지 못했다.
러시아-우크라이나 전쟁 이후 에너지 공급망은 재편되고 있지만, 불안은 여전히 현재진행형이다.
에너지 안보 위기는 단순히 전력과 난방의 문제가 아니다.
이는 생활물가 상승으로 이어지고, 산업 경쟁력의 부담으로 전가되며, 결국 사회 내부의 불만을 키운다.
에너지 문제는 결국 정치 문제다.

전력요금과 난방비, 식료품과 운송비, 생산비와 실질임금이 한 번에 흔들리기 때문이다.
그리고 이런 불안이 누적될수록 사회는 더 예민해지고, 정치권은 더 극단으로 이동한다.

이런 상황에서 중동발 에너지 충격은 유럽에게 결코 가벼운 변수가 아니다.
특히 이란이 호르무즈 해협 봉쇄를 장기화한다면, 유럽 입장에서도 그 부담은 상당할 수밖에 없다.


https://www.politico.eu/article/pressure-eu-response-energy-crisis-iran-war/


https://www.politico.eu/article/germany-far-right-gains-ground-beyond-eastern-strongholds/


https://agsi.gie.eu/data-visualisation/filling-levels/EU
유럽 가스저장고가 2022년 수준으로 하락해 있는 상황


호르무즈 해협, 주권보다 통제가 우선되는 순간


이란의 봉쇄가 장기화될수록 국제사회는 왜 ‘관리 체제’로 움직이게 되는가


국제정치는 여전히 힘의 논리가 지배한다.
국제법과 원칙은 존재한다.
그러나 현실에서 그것은 언제나 절대적인 기준으로 작동하지는 않는다.

특히 강대국 중심의 국제질서에서는 자주국권도 무제한적으로 보장되지 않는다.
한 국가의 주권은, 다른 국가들의 핵심 이해와 이익을 정면으로 해치지 않는 범위 안에서만 폭넓게 인정된다.

이 원리는 약소국일수록 더 냉혹하게 적용된다.
주권을 주장하는 것과, 그 주장을 끝까지 관철하는 것은 다른 문제이기 때문이다.

이란은 오랫동안 중동 질서에서 독자적 공간을 확보해 온 국가다.
그 배경에는 이념, 군사력, 대리세력만 있었던 것이 아니다.
무엇보다 호르무즈 해협이라는 지정학적 병목지점이 있었다.

호르무즈 해협은 단순한 지역 해협이 아니다.
미국 EIA에 따르면 2024년 이 해협을 통과한 원유·석유제품은 하루 평균 2,000만 배럴이었다.
이는 전 세계 석유 소비의 약 **20%**에 해당한다.
IEA도 2025년 기준 호르무즈가 세계에서 가장 중요한 원유 병목지점 가운데 하나라고 설명한다. (U.S. Energy Information Administration)

가스도 마찬가지다.
IEA 팩트시트에 따르면 2025년 기준 호르무즈를 지난 LNG는 아시아 LNG 수입의 약 27%, **유럽 LNG 유입의 약 7%**를 차지했다.
즉 호르무즈의 불안은 단순한 중동 변수에 그치지 않는다.
아시아 제조업 국가의 에너지 비용, 유럽의 수급 안정, 글로벌 물가와 해운시장 전체를 흔드는 변수다. (IEA Blob Storage)

이 점이 바로 이란의 힘이었다.
이란은 오랫동안 호르무즈라는 병목지대의 전략적 가치를 지렛대로 활용해 왔다.
직접 봉쇄를 하지 않더라도, 언제든 긴장을 끌어올릴 수 있다는 사실 자체가 협상력으로 작동했다.

하지만 병목지대의 지렛대는 양날의 검이다.
그 지점을 지속적 봉쇄에너지 인프라 공격에 사용하기 시작하면, 그것은 더 이상 주권의 문제가 아니라 세계 공급망 교란의 문제가 된다.

이때부터 국제사회의 계산은 달라진다.
문제는 이란의 자주권이 아니다.
문제는 각국의 유가, 전력비용, 물가, 산업가동, 해운보험, 안보 리스크가 된다.

호르무즈는 국제해협이다.
유엔해양법협약(UNCLOS) 제3부에 따르면, 국제해협에서는 선박과 항공기의 통항통과권(transit passage) 이 인정되며, 그 통항은 원칙적으로 방해되어서는 안 된다.
즉 호르무즈는 원래부터 특정 연안국이 자의적으로 틀어쥘 수 없는 공간이라는 원칙 위에 놓여 있다. (유엔)

따라서 이란이 이 금기를 깨고 해협 봉쇄를 장기화한다면, 국제사회는 이란의 주권을 존중해야 한다는 명분보다 해협을 다시 열고 안정시키는 실리를 더 앞세우게 된다.
이란의 주권이 법적으로 사라진다는 뜻은 아니다.
하지만 이란이 주권을 방패로 활용할 수 있는 외교적 공간은 급격히 줄어들 수 있다는 뜻이다.

결국 이란이 호르무즈를 장기 교란의 공간으로 만들수록, 국제사회는 이란을 “존중해야 할 연안국”보다는 “통제해야 할 시스템 리스크”로 보기 시작할 가능성이 높다.
이것이 국제정치에서 주권보다 안정이 우선되는 순간이다. (U.S. Energy Information Administration)

여기서 중요한 질문이 나온다.

전후에 호르무즈가 사실상 국제관리 수역처럼 굴러갈 수 있느냐는 것이다.

결론부터 말하면, 법적 통치권 이전 가능성은 높지 않다.
즉 호르무즈 자체를 국제사회가 공식 통치하거나, 연안국의 형식적 주권을 박탈하는 방식은 현실성이 낮다.

하지만 실질적 안전관리·감시·호송의 상시화는 충분히 가능하다.
오히려 이쪽이 훨씬 더 현실적이다.

이미 미국 주도의 IMSC/CTF Sentinel은 바레인을 거점으로 호르무즈와 인근 해역에서 상선 위협 억지와 해상 감시를 수행해 왔다.
미 중부사령부와 미 해군 관련 설명에 따르면, 이 체계는 지역의 해상 위협을 억제하고 상업 선박을 안심시키는 데 초점이 맞춰져 있다.
미국 5함대 역시 바레인에 본부를 두고 페르시아만, 오만만, 아라비아해, 홍해 일대를 담당한다. (cusnc.navy.mil)

유럽도 별도 틀을 갖고 있다.
프랑스 주도의 EMASoH/AGENOR는 호르무즈에서 자유 항행 보호, 안전한 통항 지원, 긴장 완화를 목표로 운용되어 왔다.
즉 전후 질서가 재편될 경우, 이미 존재하는 미국·유럽의 해상안보 틀이 더 제도화되고 상시화될 가능성이 높다. (Forsvarsministeriet)

이 경우 호르무즈는 법적으로는 국제해협으로 남더라도, 실질적으로는 미국 중심 다국적 안보관리 수역처럼 운영될 수 있다.

그 실질 관리는 단순히 군함을 더 띄우는 수준이 아니다.
실제 통제는 훨씬 더 복합적이다.


1. 해군 상시배치와 호송


가장 먼저 강화될 것은 해군력이다.
미국 5함대, 걸프 우방국, 일부 유럽 국가가 중심이 되고, 필요할 경우 아시아 주요 수입국이 제한적으로 협조하는 구조가 될 가능성이 높다.
IMSC와 EMASoH가 이미 보여주듯, 전후에는 상선 호송, 감시 정찰, 기뢰대응, 위협 탐지가 상시화될 수 있다. (Naval Sea Systems Command)

2. 전쟁보험과 안전인증을 통한 선박 선별


실제 통제력은 군사력만으로 완성되지 않는다.
보험이 막히면 선박은 법적으로 항로가 열려 있어도 사실상 들어가기 어렵다.
런던보험시장 Joint War Committee는 전쟁위험 고위험 구역을 지정하고, 해당 지역 운항에는 추가 전쟁위험 담보가 요구될 수 있다고 밝히고 있다.
즉 누가 안전하다고 인증하고, 어떤 선박에 보험을 붙여줄지를 정하는 구조 자체가 통제수단이 된다. (lmalloyds.com)

3. 표준화된 항행 프로토콜과 지정 통항체계


전후에는 상선들이 평시처럼 자유롭게 지나는 방식보다, 지정 항로, 지정 시간대, 경계 강화, 안전 프로토콜 준수, 필요시 호송 결합 같은 방식으로 움직일 가능성이 높다.
최근 UKMTO·JMIC 권고도 호르무즈 인근에서 군사활동 증가, 전자교란, AIS 및 항행·통신 장애 가능성에 주의를 요구하고 있다.
이는 사실상 항행이 이미 군사·안보 조건에 크게 종속되고 있음을 보여준다. (UKMTO)

4. 제재·결제·재보험을 통한 후방 금융통제


실질 통제는 바다 위에서만 이뤄지지 않는다.
미 재무부 OFAC는 2025년 이란 원유 수출, 그림자선단, AIS 조작, 복잡한 소유구조를 활용한 제재 회피를 겨냥한 해운·금융 제재 지침을 강화했다.
이런 구조가 전후에 더 확대되면, 해협을 지나는 선박의 통과 여부는 단순한 물리적 항행권이 아니라 결제 가능성, 보험 인수 가능성, 재보험 접근성, 항만 서비스 이용 가능성에 의해 사실상 결정될 수 있다. (해외자산통제국)

5. 비축유·우회수송·수입선 다변화를 통한 협박력 약화


주요 수입국은 단지 해협을 군사적으로 지키는 데 그치지 않을 것이다.
IEA 회원국들은 원칙적으로 순수입 90일분 이상의 비축유를 유지해야 하며, 심각한 공급 차질 시 공동 대응할 준비를 갖추고 있다.
즉 전후에는 비축유 방출 체계, 우회 파이프라인 활용, 저장기지 확대, 수입선 다변화가 함께 강화될 가능성이 높다.
이것은 호르무즈의 지정학적 협박력을 구조적으로 낮추는 장치다. (IEA)



이 모든 장치를 종합하면 전후 질서는 한 방향으로 수렴할 가능성이 높다.


미국이 주도한다.

유럽은 감시, 외교적 정당화, 제한적 해군 참여로 보조한다.
아시아 에너지 수입국들은 직접적인 전면 군사개입보다는 비용 분담, 비축유 협조, 해운 안전조치, 조달 다변화를 통해 참여할 가능성이 높다.

그 이유는 단순하다.
호르무즈를 가장 많이 쓰는 쪽이 결국 아시아이기 때문이다.
IEA는 2025년 기준 호르무즈를 지난 원유의 44%를 중국과 인도가 받았다고 설명한다.
즉 전후 관리체제의 전략적 수혜자는 미국과 유럽만이 아니라, 아시아 주요 수입국이기도 하다. (IEA)

결국 이란이 호르무즈를 장기적으로 흔들수록, 국제사회는 이란의 자주권을 보장하는 방향보다 호르무즈를 실질적으로 관리 가능한 체계 안에 넣는 방향으로 움직일 가능성이 크다.

핵심은 이것이다.

국제정치는 여전히 힘이 지배한다.
국제질서에서 약소국의 주권은 법적으로는 동등하지만,
현실정치에서는 강대국의 안보·에너지 이해가 충돌하는 순간 훨씬 더 쉽게 제약된다.

그리고 호르무즈 해협은 그 현실이 가장 선명하게 드러나는 공간이다.

전후 세계는 아마 호르무즈를 더 이상 단순한 해상 통로로 보지 않을 것이다.
오히려 상시적으로 관리되어야 하는 전략적 병목지대로 재정의할 가능성이 높다.

법적으로는 국제해협일 수 있다.
그러나 실질적으로는 미국 중심의 다국적 세력이
누가, 언제, 어떤 조건으로, 어떤 보호 아래 통과하는지를 관리하는
준국제관리 수역에 가까운 모습으로 굳어질 가능성이 높다. (유엔)

=끝

생각정리 198 (* 전력기기)

AI 데이터센터 시대, 왜 변압기와 배전기기 시장이 함께 커질까


AI 데이터센터를 떠올리면 보통 GPU, 반도체, 서버부터 생각한다.
하지만 실제로 데이터센터를 움직이는 가장 중요한 기반은 전력 인프라다.

지금 AI 데이터센터는 단순히 서버 수가 늘어나는 산업이 아니다.
한 공간 안에 더 많은 전력을 넣어야 하는 산업으로 바뀌고 있다.

이 변화는 전력기기 시장에 세 가지 구조적 수요를 만든다.

  • 데이터센터 내부 전력 밀도 상승

  • 장거리 송전망 확장

  • 자체발전(BTM) 확산

이 세 가지가 동시에 진행되면
변압기, 스위치기어, ATS, 보호계전, 배전 시스템까지 시장이 넓게 커질 수 있다. (PJM)


1. 데이터센터 내부 전력 밀도가 급격히 높아지고 있다


가장 먼저 봐야 할 변화는 데이터센터 내부 전력 구조다.

예전 데이터센터는 서버를 많이 넣는 것이 중요했다.
지금 AI 데이터센터는 짧은 공간 안에 훨씬 더 많은 전력을 안정적으로 공급하는 것이 더 중요하다.

이 흐름을 상징적으로 보여주는 것이 NVIDIA의 800V DC 아키텍처다. NVIDIA는 차세대 AI 팩토리를 위해 기존의 저전압 분배 구조 대신, 800V 고전압 직류(HVDC) 기반 전력 구조가 필요하다고 설명하고 있다. 기존 54V DC 방식은 수 kW급 랙에는 적합했지만, 앞으로 등장할 MW급 랙에는 한계가 크다는 것이 핵심이다. (NVIDIA Developer)

이 말을 이해하려면 먼저 아주 기본적인 식 하나만 알면 된다.

전력 = 전압 × 전류

즉,

P = V × I

이 식의 의미는 단순하다.
같은 전력을 보내려면, 전압을 높이면 전류를 줄일 수 있다.

예를 들어 1MW의 전력을 보낸다고 해보자.

  • 100V라면 10,000A가 필요하다

  • 1,000V라면 1,000A면 된다

전압을 10배 높이면 전류는 10분의 1로 줄어든다. 이는 물리식 자체에서 바로 나오는 결과다.


왜 전류가 줄면 손실과 발열이 크게 줄어들까


전선이나 버스바에는 항상 저항이 있다.
전류가 흐르면 이 저항 때문에 열이 난다.

이때 손실은 보통 이렇게 표현한다.

손실 = I² × R

손실과 발열은 전류의 제곱에 비례한다.

이게 핵심이다.

  • 전류가 2배가 되면 손실은 4배

  • 전류가 3배가 되면 손실은 9배

  • 전류가 10배가 되면 손실은 100배

즉 같은 전력을 보내더라도,
전류가 큰 구조는 손실과 발열이 훨씬 커진다.

그래서 고전력을 낮은 전압으로 보내면 문제가 빠르게 커진다.

  • 전선이 더 뜨거워진다

  • 냉각 부담이 커진다

  • 더 두꺼운 구리선이 필요하다

  • 전력장비가 커진다

  • 장비가 차지하는 공간도 늘어난다

쉽게 말하면 이렇다.

AI 데이터센터는 전기를 많이 써야 하는데, 낮은 전압으로 그 전기를 밀어 넣으려면 전류가 너무 커진다.
그러면 열이 늘고, 구리가 늘고, 냉각이 어려워지고, 공간까지 잡아먹는다.

그래서 업계는 자연스럽게
전압을 높이고 전류를 낮추는 방향으로 가게 된다.

NVIDIA가 800V DC를 말하는 이유도 여기에 있다. NVIDIA는 800V 직접 입력 구조가 랙 내 전력변환 장치를 줄이고, 더 많은 컴퓨트 공간 확보와 고밀도 구성을 돕는다고 설명한다. (NVIDIA Developer)


왜 전력 밀도는 앞으로 구조적으로 더 높아질 수밖에 없을까


이 부분도 꼭 이해할 필요가 있다.

전력 밀도가 높아지는 것은 일시적 유행이 아니다.
AI 산업 자체의 방향이 그렇게 흘러가고 있기 때문이다.

첫째, AI 연산량이 계속 커지고 있다.
AI 모델은 계속 커지고 있고, 학습해야 할 데이터와 추론해야 할 작업도 늘고 있다. 그러면 더 많은 GPU가 필요해지고, GPU가 많아지면 전력도 같이 늘어난다.

둘째, GPU만 늘어나는 것이 아니다.
AI 데이터센터는 GPU만 있는 공간이 아니다. 고속 네트워크, 스위치, 스토리지, 냉각 장비, 전력변환 장비가 함께 커진다. 즉 전력 증가는 서버 한 대에서 끝나지 않고 전체 시스템 단위로 같이 커지는 구조다.

셋째, AI 산업은 속도를 위해 고밀도 집적을 선호한다.
AI 학습과 추론은 속도가 중요하다. GPU를 멀리 흩어놓는 것보다 가급적 가까이 모아두는 편이 유리하다. 가까이 모을수록 지연이 줄고 네트워크 효율도 좋아지기 때문이다. 그래서 업계는 계속해서 더 많은 컴퓨팅 장비를 더 좁은 공간에 넣는 방향으로 간다. NVIDIA가 800V DC와 MW급 랙을 이야기하는 것도 바로 이 흐름을 전제로 한다. (NVIDIA Developer)

결국 앞으로의 AI 데이터센터는
“서버가 많은 공간”이 아니라
**“전력 밀도가 매우 높은 공장형 시설”**이 될 가능성이 높다.

이 말은 곧
데이터센터 입구에서 받아야 하는 전력도 더 커지고,
그 전력을 나눠주는 수전·변전 설비도 더 커져야 한다는 뜻이다.

그래서 AI 데이터센터가 늘어날수록
154/230/345kV급 수전·변전 설비 수요가 직접적으로 증가할 가능성이 높다. PJM는 2036년 여름 피크 수요를 222,106MW, 향후 10년 증가폭을 65,733MW로 전망했고, 데이터센터 부하 증가를 주요 요인으로 반영했다. PJM Inside Lines도 2026 장기 전망에서 여러 존의 데이터센터 부하 증가가 반영됐다고 설명했다. (PJM)

쉽게 말하면 이렇다.

예전에는 서버실을 지으면 됐지만,
이제는 작은 도시 하나에 공급하는 수준의 전기를 받아야 하는 시설이 되고 있다.


2. 데이터센터가 몰리는 지역은 전기를 멀리서 끌어와야 한다


두 번째 변화는 전력의 이동 거리다.

AI 데이터센터는 아무 지역에나 고르게 지어지지 않는다.
통신망, 부지, 냉각, 세제, 인허가 조건이 맞는 지역에 집중된다.

문제는 전기를 많이 쓰는 지역과
전기를 많이 생산하는 지역이 항상 같지 않다는 점이다.

그 결과 전력망은 점점 더 먼 곳에서
전기를 대량으로 끌어와야 한다.

이때 중요한 것이 초고압 송전망이다.

  • 500kV

  • 765kV

이 전압단은 장거리로, 대량의 전기를 보내는 백본망 역할을 한다.

즉 데이터센터 수요가 특정 지역에 몰릴수록
그 지역 근처 변전소만 늘리는 것으로는 해결이 안 된다.

실제로 PJM은 대형 부하 증가에 대응하기 위해 500kV 업그레이드, 신규 765kV 선로, 525kV HVDC 링크 등을 포함한 보강안을 제시했다. 이는 동부 지역의 높은 부하 성장과 광역 전력 이동 수요를 반영한 것이다. (PJM Inside Lines)

이 흐름은 변압기 시장에 중요한 의미가 있다.

  • 데이터센터 인근에서는 154/230/345kV 수요가 직접 늘고

  • 광역 계통에서는 500/765kV 수요가 구조적으로 따라붙는다

즉 AI 데이터센터 증가는
로컬 전력기기 시장과 초고압 전력기기 시장을 동시에 키우는 구조다.

AEP는 765kV 송전이 345kV 대비 최대 6배 전력을 보낼 수 있다고 설명한다. 장거리 대전력 이동이 필요한 환경에서는 이런 초고압 백본의 경제성이 더 높아질 수밖에 없다. (AEP)


3. DCI 확대는 전력망 확장 논리를 더 강하게 만든다


AI 시대에는 데이터센터 하나만 커지는 것이 아니다.
여러 데이터센터를 서로 빠르게 연결하는 DCI(Data Center Interconnect) 시장도 함께 커지고 있다.

이 흐름은 중요한 의미를 가진다.

AI 인프라가 한 지점에만 있는 것이 아니라
여러 거점으로 나뉘어 연결될수록
각 거점도 여전히 큰 전력을 필요로 하게 된다.

즉 광통신망이 커진다고 해서
전력망 투자가 줄어드는 것이 아니다.

오히려 반대다.

  • 데이터센터는 여러 지역으로 늘어나고

  • 각 거점의 전력수요도 크고

  • 그 거점끼리는 더 빠르게 연결되어야 한다

결국 광통신 백본과 전력 백본이 함께 확장되는 구조가 만들어진다.

Ciena는 2025년 조사에서 응답자의 **53%**가 향후 2~3년 동안 AI workloads가 DCI 인프라에 가장 큰 수요를 만들 것이라고 답했다고 밝혔다. 또 **43%**는 신규 데이터센터 시설이 AI workloads 전용이 될 것으로 예상했다. (Ciena)

이 점에서 DCI 확대는
광통신 산업의 수혜 요인이면서 동시에
초고압 송전망과 변압기 수요를 정당화하는 배경이 된다.


4. 전력망이 부족하니, 데이터센터는 자체발전까지 고민하기 시작했다


세 번째 변화는 BTM(Behind-the-Meter) 이다.

쉽게 말하면
전력회사 전기만 기다리지 않고
데이터센터 안이나 바로 옆에서 직접 전기를 생산하는 방식이다.

왜 이런 흐름이 생길까.

이유는 명확하다.

  • AI 데이터센터 전력수요가 너무 빠르게 커지고 있고

  • 전력망 연결은 시간이 오래 걸리며

  • 대형 부하가 늘수록 일반 소비자 전기요금 부담 문제가 커지기 때문이다

그래서 미국에서는
데이터센터가 전력망 비용을 더 직접 부담하거나,
자체발전 설비를 병행해야 한다는 분위기가 강해지고 있다.

AP는 2026년 3월, 주요 빅테크들이 데이터센터 전력수요로 인한 비용을 일반 소비자에게 전가하지 않겠다는 취지의 합의에 참여했다고 보도했다. 또 AEP Ohio는 데이터센터 전용 tariff를 시행했고, 2026년 2월 기준 5,642MW에 대해 데이터센터 또는 개발사와 binding contracts를 체결했다고 공개했다. (AEP Ohio)

이 구조가 확산되면
배전기기 시장은 더 커질 수밖에 없다.

왜냐하면 BTM은 단순히 발전기 한 대 설치하는 문제가 아니기 때문이다.
유틸리티 전원, 자체발전, 배터리, UPS를 함께 묶어
하나의 작은 전력망처럼 운영해야 한다.

이때 필요한 장비가 많다.

  • 중전압 스위치기어

  • ATS(자동절체장치)

  • 차단기

  • 보호계전기

  • 배전용 변압기

  • 패널보드

  • 버스덕트

  • 전력관리 시스템

즉 BTM은 배전기기 시장을
단순한 보조 시장이 아니라
하나의 독립적인 성장 시장으로 키울 수 있다.


5. 왜 BTM은 배전기기 시장에 특히 중요할까


BTM의 핵심은
전력망 부족을 우회하는 대안이라는 점이다.

기존 데이터센터는
전력회사에서 전기를 받아 내부에 나누어 쓰는 구조였다.

하지만 BTM이 붙으면 구조가 달라진다.

이제는

  • 외부 전력망 전기

  • 자체발전 전기

  • 배터리 저장 전기

  • 비상전원

을 동시에 관리해야 한다.

그래서 필요한 장비도 더 복잡해진다.
단순 배전반이 아니라
전원을 전환하고, 보호하고, 제어하는 고사양 장비가 더 중요해진다.

예를 들어 ABB는 자사 중전압 스위치기어를 1kV~52kV 구간에서 진화하는 전력망을 연결하고 보호하는 핵심 장비로 설명한다. Eaton도 중전압 스위치기어와 전력분배 장비를 데이터센터를 포함한 고신뢰 전원 시스템의 핵심으로 제시하고 있다. Schneider Electric은 데이터센터 마이크로그리드가 전력 신뢰도 향상, 비용 최적화, 지속가능성을 동시에 추구할 수 있다고 설명한다. (ABB Group)

즉 BTM은 배전기기 시장을
양적으로만 키우는 것이 아니다.

제품 믹스를 더 고부가가치 쪽으로 끌어올리는 역할도 한다.


6. 결국 어떤 시장이 커질까


AI 데이터센터 시대의 전력기기 수요는
한 구간만 커지는 것이 아니다.

세 가지 변화가 서로 맞물리면서
여러 단계의 시장이 동시에 커질 가능성이 높다.

첫 번째 수혜

154/230/345kV급 수전·변전 설비

이 구간은 데이터센터 건설과 가장 직접적으로 연결된다.
AI 데이터센터가 늘어나면 가장 먼저 수요가 커질 수 있다. (PJM)

두 번째 수혜

500/765kV급 초고압 송전망과 대형 변압기

데이터센터가 특정 지역에 몰리면
결국 먼 곳에서 전기를 가져와야 한다.
이 과정에서 초고압 백본망 수요가 커질 수 있다. (PJM Inside Lines)

세 번째 수혜

중전압 배전기기와 BTM 관련 장비

전력망 부족이 이어질수록
자체발전, 마이크로그리드, 저장장치 수요가 늘어난다.
이때 스위치기어, ATS, 차단기, 보호계전 시스템 같은 장비 시장도 함께 확대될 수 있다. (AEP Ohio)


한 문장으로 정리하면


AI 데이터센터 시대는 전기를 많이 쓰는 시대가 아니라,
전기를 더 높은 밀도로 받고, 더 멀리서 끌어오고, 필요하면 직접 생산까지 해야 하는 시대다.

그래서 앞으로의 전력기기 시장은
단순한 변압기 수요 증가를 넘어,

  • 수전·변전 설비

  • 초고압 변압기

  • 중전압 배전기기

  • BTM용 전력관리 장비

까지 함께 커지는 다층적 성장 국면으로 갈 가능성이 높다. (NVIDIA Developer)


=끝

2026년 3월 9일 월요일

생각정리 197 (* Optical Interconnect 2)

호르무즈해협이나 유가 관련 기사를 계속 따라가는 것보다, 차라리 NVIDIA 2026년 GTC를 미리 공부하는 편이 훨씬 생산적이라는 생각이 든다.

단기 뉴스플로우보다, 앞으로 2~3년 뒤 산업 구조를 바꿀 주제가 무엇인지 먼저 잡아두는 것이 더 중요하기 때문이다.


현재 시장에서 이야기되는 2026년 (3/16~3/19) NVIDIA GTC의 주요 키워드는 대략 다음과 같다.


  • 베라루빈, 파인만

  • 추론 특화 AI 칩

  • 실리콘 포토닉스(광통신, 광학반도체)

  • 에이전틱 AI, 피지컬 AI


이 키워드들을 이어서 보면, NVIDIA의 기술 로드맵은 점점 AI 연산칩 자체를 넘어 추론 중심 인프라, 광학 네트워킹, 차세대 연결 구조로 확장되고 있다는 점이 분명해진다.

그중에서도 개인적으로 가장 기대하는 영역은 베라루빈 시리즈부터 본격적으로 강화될 광통신, 광학 네트워킹 분야다.

AI 시대가 깊어질수록 결국 병목은 연산 능력 자체보다 연산 자원을 얼마나 빠르고 효율적으로 연결하느냐에서 발생할 가능성이 높기 때문이다.

이전 광학 네트워킹 스터디에 이어, 이번에는 추가로 공부한 자료를 바탕으로 관련 내용을 조금 더 구조적으로 정리해보려 한다.


AI 시대, 왜 광학 인터커넥트가 중요해지는가


구리에서 플러거블로, 플러거블에서 CPO로


AI 인프라를 이야기할 때 많은 사람들은 먼저 GPU를 떠올린다. 실제로 현재 AI 하드웨어 혁신의 중심에는 NVIDIA가 있다. 특히 Rubin 플랫폼은 단순히 연산 성능만 키우는 것이 아니라, 통신 병목과 메모리 병목을 줄여 토큰당 비용을 낮추는 방향으로 설계되고 있다. NVIDIA는 Rubin 플랫폼 설명에서 Spectrum-X Ethernet Photonics를 통해 scale-out과 scale-across를 위한 광 기반 네트워킹을 본격 도입한다고 밝히고 있다. (developer.nvidia.com)


이 말은 곧, 앞으로 AI 시대의 핵심은 GPU 성능만이 아니라 GPU들이 서로 얼마나 빠르고 효율적으로 연결되느냐라는 뜻이다.

AI 모델이 커질수록, 추론 수요가 늘어날수록, 그리고 에이전트 AI가 확산될수록 데이터 이동량은 폭증한다. 이제는 연산 자원만 많이 확보한다고 끝나는 것이 아니라, 그 연산 자원들을 어떻게 연결하느냐가 성능과 비용을 동시에 좌우하는 시대가 된 것이다.


왜 구리 인터커넥트는 점점 불리해지는가


기존 데이터센터에서는 구리 케이블이 오랫동안 핵심 연결 수단이었다.
구리는 싸고, 익숙하고, 짧은 거리에서는 여전히 유용하다.

하지만 AI 데이터센터는 상황이 다르다.

첫째, 전송 속도가 너무 빨리 올라가고 있다.
이미 시장은 800G를 넘어 1.6T로 이동 중이다. Broadcom은 Tomahawk 6에서 102.4Tbps 스위치 용량과 100G/200G SerDes, CPO 지원을 공식화했고, Marvell도 1.6T PAM4 optical DSP를 전면에 내세우고 있다. 이는 업계가 이미 200G/lane과 1.6T 세대로 넘어가고 있음을 보여준다. (Broadcom)

둘째, 랙과 랙 사이, 스위치와 스위치 사이를 오가는 데이터량이 급증하고 있다.
AI 클러스터는 GPU 수가 늘수록 네트워크 부하가 기하급수적으로 증가한다.

셋째, 속도가 올라갈수록 구리의 발열, 손실, 거리 제약이 더 빠르게 나타난다.
NVIDIA 문서에서도 DAC와 ACC 같은 구리 기반 인터커넥트는 상대적으로 짧은 거리에서 주로 쓰이고, 더 긴 거리와 더 높은 속도에서는 광 연결이 유리한 구조가 드러난다. (NVIDIA Developer)

쉽게 말하면, 예전에는 일반 도로로 충분했지만 지금은 초고속 화물차가 계속 다니는 대형 물류 고속도로가 필요해진 것이다.
그래서 AI 시대에는 구리에서 광으로의 전환이 필연적이다.


지금 당장 구리를 대체하는 것은 CPO가 아니라 플러거블 광트랜시버다


많은 사람이 CPO를 가장 먼저 떠올리지만, 실제 순서는 조금 다르다.

지금 당장 rack-to-rack, switch-to-switch 구간에서 구리를 대체하는 주역은 플러거블 광트랜시버다.

즉 구조 변화는 보통 아래 순서로 이해하면 된다.

구리 케이블 → 플러거블 광트랜시버 → 일부 최고속 구간에서 CPO

이 순서가 중요한 이유는, CPO가 광을 처음 도입하는 기술이 아니라 이미 광으로 바뀐 연결 구조를 더 고도화하는 다음 단계 기술이기 때문이다. NVIDIA 역시 Rubin 및 photonics 관련 설명에서 CPO를 강조하지만, 동시에 이것은 AI 팩토리용 차세대 스위치 구조의 진화로 제시된다. (NVIDIA Developer)


플러거블 광트랜시버를 bottom-up으로 이해해보자


광학 인터커넥트를 가장 쉽게 이해하는 방법은 맨 아래 부품부터 위로 쌓아 올리는 것이다.

1. 재료와 소자: 가장 밑바닥 층

가장 아래에는 빛을 만들고, 받고, 조절하는 원천 부품이 있다.
대표적으로 LD, EML, CW laser, VCSEL, PD가 여기에 포함된다.

LD는 레이저 다이오드다. 쉽게 말하면 빛을 만들어 보내는 송신용 부품이다.
PD는 포토다이오드다. 즉 들어온 빛을 받아 전기신호로 바꾸는 수신용 부품이다.

아주 쉽게 비유하면,

LD는 말하는 입이고
PD는 듣는 귀다.

여기서 조금 더 세분화하면 다음과 같다.

EML은 LD의 고급 버전이다.
단순히 빛만 내는 것이 아니라, 고속 데이터 전송에 맞게 매우 정밀하게 빛을 조절하는 송신용 소자다.

CW laser빛을 일정하게 공급하는 광원이다.
실리콘 포토닉스 칩이 이 빛을 받아 데이터가 실린 광신호로 바꾼다.

VCSEL짧은 거리용 레이저다.
가까운 구간에서 빠르게 병렬 전송하는 데 유리하다.

즉 이 층은 광통신의 원천 부품층이다.
자동차로 치면 엔진, 브레이크, 변속기 같은 핵심 기계부품이 여기에 해당한다.


2. 광부품: 칩을 실제로 쓸 수 있게 만드는 단계


칩만 있다고 바로 제품이 되지는 않는다.

레이저 칩과 PD 칩을 실제로 사용하려면

  • 패키지에 넣고

  • 렌즈와 정렬하고

  • 광섬유와 정밀하게 맞추고

  • 열을 안정적으로 관리해야 한다


이 과정을 거쳐야 비로소 실제 광부품이 된다.

이 단계가 중요한 이유는 분명하다.
칩 성능양산 가능한 패키징 수율은 전혀 다른 문제이기 때문이다.

좋은 엔진 부품이 있어도 조립이 엉망이면 자동차가 제대로 달리지 않는 것과 같다.
광통신에서도 같은 일이 벌어진다. 결국 패키징, 정렬, 방열, 수율이 기술 경쟁력의 핵심이 된다.


3. 광엔진과 광트랜시버: 우리가 흔히 말하는 ‘광모듈’


이제부터가 사람들이 흔히 말하는 광트랜시버다.

이 안에는

  • 송신용 레이저

  • 수신용 PD

  • 실리콘 포토닉스 칩

  • DSP

  • 드라이버

  • TIA

  • 패키지


등이 모두 들어간다.


이렇게 만들어진 완성품을 스위치 포트에 꽂아 쓰는 것이 바로 플러거블 광트랜시버다.

쉽게 말하면, 플러거블 광트랜시버는 완성된 광통신 카트리지다.
사용자는 장비 앞면 포트에 꽂기만 하면 된다.


골드만삭스



4. 스위치/ASIC: 광모듈이 꽂히는 상대편


플러거블 광트랜시버는 혼자 존재하지 않는다.
반드시 스위치나 서버 장비와 연결된다.

여기서 중심이 되는 것이 스위치 ASIC이다.

구조를 단순하게 그리면 이렇다.

스위치 ASIC → 전기 포트 → 플러거블 광트랜시버 → 광섬유

즉 플러거블 시대에는 스위치와 광모듈이 분리되어 있다.
스위치는 전기신호를 내보내고, 광트랜시버는 그 신호를 받아 빛으로 바꾼다.


5. 네트워크 시스템: 최종 목적지


최상단은 개별 부품이 아니라 AI 데이터센터 전체 시스템이다.

결국 중요한 것은

  • 서버가 얼마나 빠르게 연결되는가

  • 랙과 랙 사이에 데이터를 얼마나 많이 보낼 수 있는가

  • 전력 소모를 얼마나 줄일 수 있는가

  • 전체 토큰 처리 비용을 얼마나 낮출 수 있는가


이다.

즉 광학 인터커넥트는 단순 부품 시장이 아니라,
AI 인프라의 경제성과 확장성을 결정하는 핵심 인프라가 되어가고 있다.


왜 200Gbps/lane은 100Gbps/lane보다 훨씬 더 어려운가


이제 중요한 질문이 하나 나온다.

왜 200Gbps/lane이 100Gbps/lane보다 그렇게 어려운가?

겉으로 보면 단순히 속도를 두 배 올리는 것처럼 보인다.
하지만 실제 기술 난이도는 두 배가 아니라 그 이상으로 뛴다.

이유는 간단하다.
속도가 올라갈수록 신호를 구분할 수 있는 여유 공간이 급격히 줄어들기 때문이다.

고속도로 비유로 보면 이렇다.

100G/lane은 한 차선에서 시속 100으로 주행하는 수준이라면,
200G/lane은 같은 차선에서 시속 200으로 달리는 것과 비슷하다.

그러면 어떤 일이 생길까.

  • 차와 차 사이 간격을 더 정밀하게 맞춰야 하고

  • 작은 흔들림도 사고로 이어지고

  • 도로가 조금만 나빠도 문제가 커지고

  • 운전자 실수 허용 범위가 급격히 줄어든다

광통신도 똑같다.

200G/lane으로 올라가면

  • 노이즈에 더 민감해지고

  • 신호 왜곡에 더 약해지고

  • 열에 더 예민해지고

  • 패키징 오차 허용 범위가 더 줄어들고

  • 수신기에서 신호를 정확히 판독하기가 훨씬 어려워진다

속도를 2배 올리는 것이 아니라, 전체 시스템의 정밀도를 한 단계 더 끌어올려야 하는 문제가 된다.


PAM4가 왜 중요해지는가


여기서 등장하는 핵심 기술이 PAM4다.

예전에는 신호를 보통 두 단계로만 구분했다.
즉 켜짐과 꺼짐, 0과 1 중심이었다.

그런데 100G/lane, 200G/lane 시대로 가려면 한 번에 더 많은 정보를 실어야 한다.
그래서 신호를 네 단계로 나누는 PAM4가 중요해진다.

쉽게 말하면,

예전 방식은
켜짐 / 꺼짐 두 가지만 구분하면 됐다.

PAM4는
아주 약함 / 약함 / 강함 / 아주 강함
네 단계를 구분해야 한다.

문제는 속도가 높아질수록 이 네 단계 간격이 점점 더 촘촘해진다는 것이다.
그러면 수신기 입장에서는 아주 미세한 차이를 정확히 판독해야 하고,
송신기 입장에서는 그 네 단계 신호를 아주 안정적으로 내보내야 한다.

즉 200G/lane에서는 단순히 레이저만 좋아서는 안 된다.
DSP, 드라이버, TIA, EML, PD, 패키징, 방열, 전기-광 인터페이스 전체가 동시에 좋아야 한다. Marvell의 1.6T PAM4 DSP가 200G host/line side를 지원하고, Broadcom이 200G SerDes와 CPO를 함께 밀고 있는 이유가 바로 여기에 있다. (Broadcom)


800G에서 1.6T로 갈수록 왜 패키징 능력이 더 중요해지는가


800G에서 1.6T로 간다는 것은 단지 숫자가 커지는 것이 아니다.
더 많은 lane, 더 높은 lane 속도, 더 촘촘한 부품 배치, 더 높은 전력 밀도를 뜻한다.

이렇게 되면 주변 광통신 소자와 패키징 능력이 훨씬 더 중요해진다.

왜냐하면

  • 레이저와 PD를 더 정밀하게 정렬해야 하고

  • 열을 더 잘 빼야 하고

  • 신호 간섭을 더 줄여야 하고

  • 전기신호와 광신호 변환 과정의 오차를 더 낮춰야 하기 때문이다

즉 1.6T 세대로 갈수록 경쟁력은 단순히 “좋은 칩 하나”가 아니라,
좋은 칩을 실제 제품으로 안정적으로 구현하고 양산하는 능력에서 갈린다.

바로 이 지점에서 기존 광소자·광부품·광패키징 강자들의 해자가 더 중요해진다.


왜 기존 광통신 강자들의 해자가 더 중요해지는가


광네트워킹 기존 강자들의 진짜 강점은 단순히 “오래된 회사”라는 점이 아니다.

그들의 강점은 보통 세 가지다.

첫째, 원천 광소자 역량이다.
EML, CW laser, VCSEL, PD 같은 핵심 부품을 직접 다룰 수 있다.

둘째, 패키징과 광정렬 양산 능력이다.
연구실 시제품과 대량 양산은 완전히 다르다.
고속 광모듈은 결국 수율에서 승부가 갈린다.

셋째, 고속 세대로 갈수록 누적된 설계·공정 노하우가 더 중요해진다는 점이다.
100G/lane까지는 많은 업체가 따라올 수 있어도,
200G/lane과 1.6T 세대로 갈수록 허용오차가 급격히 줄어들어 후발주자가 따라오기 더 어려워진다.

즉 800G에서 1.6T로 갈수록 시장은 단순 조립업체보다
광소자, DSP, 패키징, 시스템 통합 역량을 가진 업체 중심으로 재편될 가능성이 높다.


광학 인터커넥트는 rack-to-rack만의 이야기가 아니다


DCI 시장도 함께 봐야 한다


광학 인터커넥트를 이야기할 때 많은 사람이 rack-to-rack이나 switch-to-switch만 떠올린다.
하지만 광 네트워킹 장비가 사용되는 곳은 거기만이 아니다.

또 하나 매우 중요한 시장이 바로 DCI(Data Center Interconnect)다.
데이터센터와 데이터센터를 연결하는 네트워크다.

AI 시대에는 이 시장이 다시 중요해지고 있다.

이유는 분명하다.

  • 전력 확보 문제

  • 용수와 부지 문제

  • 인허가 문제

  • 발열 관리 문제


이런 제약 때문에 모든 AI 인프라를 한곳에 몰아넣기 어려워지고 있다.
그 결과 여러 캠퍼스와 여러 데이터센터를 나눠서 연결하는 분산형 AI 인프라가 중요해진다.

Ciena는 2025년 조사에서 데이터센터 전문가들이 향후 5년간 DCI 대역폭 수요가 최소 6배 증가할 것으로 봤다고 밝혔다. 또한 43%의 신규 데이터센터 시설이 AI 워크로드 전용이 될 것으로 예상했다. (Ciena)


왜 최근 Ciena가 다시 주목받는가


이런 흐름 속에서 최근 다시 주목받는 기업이 Ciena다.

시장은 이제 Ciena를 단순한 2025년 회복기업이 아니라,
2026년부터 2028년까지 이어질 고성장 광네트워킹 인프라 수혜기업으로 보기 시작했다.

Ciena의 2025년 실제 매출은 47.7억 달러이고,
2028년 컨센서스는 85.0억 달러 수준까지 올라간다.
이는 3년 만에 약 78% 성장하는 그림이다.

성장의 대부분이 여전히 Optical Networking에서 나오고 있으며,
DCI, Cloud, WAN 광통신 장비 매출이 크게 증가하는 구간이다. 

그렇기에 매출보다 영업이익과 EPS 증가 속도가 더 가파르다.
이것은 단순 매출 성장만이 아니라 제품 믹스 개선과 운영 레버리지가 동시에 작동하고 있음을 시사한다.

한 문장으로 요약하면 이렇다.

Ciena는 AI가 커질수록 반드시 더 많이 필요해지는 DCI 광네트워크 인프라의 핵심 수혜기업이다.





그러면 CPO는 무엇을 바꾸는가


이제 CPO를 보자.

많은 사람이 CPO를 새로운 광기술 자체로 생각하지만, 더 정확한 표현은 이렇다.

CPO는 광을 새로 도입하는 기술이 아니라, 기존에 스위치 바깥에 꽂던 광모듈의 핵심부를 스위치 안으로 끌어들이는 구조 변화다.

즉 CPO는 광을 없애는 기술이 아니라, 광의 위치를 바꾸는 기술이다.

플러거블 구조에서는

  • 스위치가 전기신호를 내보내고

  • 포트까지 비교적 긴 전기 구간을 지나

  • 외장형 광모듈이 이를 빛으로 바꾼다


그런데 속도가 1.6T 이상으로 올라가면 이 긴 전기 구간이 점점 부담이 된다.

그래서 CPO는 광모듈의 핵심 광엔진을 스위치 ASIC 바로 옆에 붙여서 전기 구간을 극단적으로 줄이는 방식을 택한다.

Broadcom은 102.4Tbps급 CPO 스위치와 200G SerDes 기반 구조를 내세우고 있고, NVIDIA는 Spectrum-X/Quantum-X photonics로 1.6Tb/s per port, 더 낮은 전력과 더 높은 복원력을 강조한다. (NVIDIA)

즉 CPO가 대체하는 것은
플러거블 광모듈의 외장형 구조와 긴 전기 인터페이스 구간이다.

반대로 CPO가 대체하지 않는 것은

  • 레이저

  • PD

  • SiPh

  • 광섬유

  • 광연결 자체


이다. 

오히려 이런 부품들은 더 중요해진다.


CPO도 bottom-up으로 보면 이해가 쉽다


1. 재료/소자


CPO에서도 출발은 같다.

여전히

  • CW laser

  • DFB laser

  • PD

  • SiPh 관련 재료


가 필요하다.

다만 CPO에서는 열 문제가 더 중요해지기 때문에,
레이저를 바깥으로 분리한 external laser source의 가치가 더 커진다.


2. 광부품


CPO에서는 광부품의 중요성이 더 커진다.

왜냐하면

  • fiber attach

  • connector

  • optical harness

  • thermal package


같은 요소가 스위치와 훨씬 더 밀접하게 결합되기 때문이다.

즉 CPO 시대에는 광패키징 자체가 핵심 경쟁력이 된다.

3. 광엔진


플러거블에서는 광엔진이 모듈 안에 있었다.
CPO에서는 이 광엔진이 스위치 ASIC 바로 옆에 들어간다.

즉 CPO optical engine은
플러거블 광트랜시버의 심장부만 떼어와 스위치 안쪽에 넣은 것이라고 보면 된다.

4. 스위치/ASIC


CPO 시대에는 이 층이 훨씬 더 중요해진다.

왜냐하면 CPO는 광모듈 업체 혼자서 만드는 시장이 아니라,
스위치 ASIC 아키텍처가 중심이 되는 시장이기 때문이다.

즉 앞으로는
누가 좋은 광모듈을 만드느냐보다
누가 스위치와 광엔진을 가장 잘 통합하느냐가 더 중요해진다.

5. 네트워크 시스템


결국 CPO의 목적은 단순하다.

  • 더 빠르게

  • 더 촘촘하게

  • 더 적은 전력으로

  • 더 큰 AI 클러스터를 연결하기 위해서다


즉 CPO는 개별 모듈 판매의 문제가 아니라,
AI 팩토리 전체의 총비용과 효율을 개선하는 시스템 기술이다.


플러거블과 CPO의 차이를 한 문장으로 정리하면


플러거블은 광모듈을 스위치 밖에 꽂는 방식이고,
CPO는 그 광모듈의 핵심부를 스위치 안으로 넣는 방식
이다.

그래서 실제 진화 경로는 이렇게 보는 것이 가장 자연스럽다.

구리 케이블이 먼저 rack-to-rack에서 밀리고
플러거블 광트랜시버가 그 자리를 차지하고
→ 가장 고속·고밀도 구간부터 CPO가 플러거블 일부를 흡수

즉 CPO는 플러거블 이후의 상위 단계다.


투자 관점에서 어떤 기업을 봐야 하는가


이제 마지막으로 밸류체인별 핵심 기업을 정리해보자.

가장 상단: 스위치/ASIC/시스템


Broadcom
은 가장 상단에서 봐야 할 기업이다.
플러거블이 늘어나도 좋고, CPO가 커져도 좋다.
왜냐하면 Broadcom은 스위치 ASIC, 100G/200G SerDes, CPO 플랫폼을 동시에 쥐고 있기 때문이다. (Broadcom)

NVIDIA는 더 이상 단순 GPU 회사가 아니다.
Rubin 플랫폼을 보면 GPU, NVLink, 스위치, photonics까지 AI 팩토리 전체 구조를 함께 설계하려 한다. 광학 인터커넥트가 중요해질수록 NVIDIA의 시스템 지배력은 더 강해질 가능성이 있다. (NVIDIA Developer)

핵심 병목: DSP/PAM4


Marvell
은 밸류체인 중간에서 매우 중요하다.
이유는 1.6T와 200G/lane 시대에는 고속 신호를 실제로 굴러가게 만드는 optical DSP가 필수이기 때문이다. Marvell의 Ara/Nova는 1.6T optical transceiver용 PAM4 DSP 제품군으로 명확히 포지셔닝돼 있다. (Marvell Technology)

핵심 광소자/광엔진


Coherent
는 1.6T SiPh 트랜시버, VCSEL/PD, CPO용 CW laser 쪽 노출을 동시에 가진다.
플러거블 수혜와 CPO 대응력을 함께 가진 회사라고 볼 수 있다. (NVIDIA)

Lumentum은 200G EML, InP 기반 광소자, external laser source, 고출력 laser 쪽 강점이 있다.
즉 Coherent보다 조금 더 원천 광소자와 외부 광원 공급자 성격이 강하다. NVIDIA의 CPO 공급망 협업사에도 포함돼 있다. (NVIDIA)

DCI 수혜주


Ciena
는 GPU 직접 수혜주라기보다
AI가 커질수록 반드시 더 많이 필요해지는 DCI 광네트워크 인프라 수혜주에 가깝다.
즉 rack-to-rack뿐 아니라 data center-to-data center 연결까지 함께 보려면 반드시 체크해야 하는 기업이다. (Ciena)


최종 정리


이 글의 핵심은 단순하다.

AI 시대에는 GPU만큼이나 광학 인터커넥트가 중요해진다.

800G에서 1.6T로 올라갈수록 rack-to-rack 구간에서는 구리보다 광이 유리해진다.

지금 당장 구리를 대체하는 것은 플러거블 광트랜시버다.

CPO는 광을 없애는 기술이 아니라, 플러거블 광모듈의 핵심을 스위치 안으로 옮기는 다음 단계 기술이다.

그리고 200G/lane, 1.6T 세대로 갈수록 중요한 것은 단순 속도 경쟁이 아니라
PAM4, DSP, EML, PD, SiPh, 패키징, 방열, 수율을 함께 다룰 수 있는 기술력이다.

바로 그래서 기존 광통신 강자들의 해자가 더 중요해진다.
고속 세대로 갈수록 시장은 단순 조립업체보다
원천 광소자와 광패키징, DSP, 시스템 통합 역량을 가진 업체 중심으로 재편될 가능성이 높다.

마지막으로, 광학 인터커넥트는 rack-to-rack만의 이야기가 아니다.
DCI까지 함께 확장되면서 수혜 범위는 더 넓어지고 있다.

한 줄로 정리하면 이렇다.

AI 시대의 광학 인터커넥트는 구리의 대체재를 넘어, AI 인프라 전체의 속도·전력·확장성을 좌우하는 핵심 산업이며, 800G에서 1.6T로, 플러거블에서 CPO로, rack-to-rack에서 DCI로 수혜 범위가 계속 넓어지고 있다.

=끝.