간밤에 눈에 띄는 뉴스를 읽고 이전에 정리해둔 Nvidia CES 2026 젠슨황 발언과 연결지어 PCB 산업에 대한 생각을 정리해본다.
| 애플 공급업체 코닝, AI 광섬유 부문에서 메타로부터 60억 달러를 수상하다 |
1. 문제의 본질: AI 인프라는 ‘연산’이 아니라 데이터 이동이 병목이다
AI 학습·추론 규모가 커질수록 진짜 병목은 GPU의 FLOPS가 아니라 데이터 이동 경로이다.
GPU ↔ GPU
GPU ↔ 메모리(HBM)
GPU ↔ 스토리지(SSD)
랙 간 / 랙 내 서버 간 네트워킹
여기에서 발생하는 전력 소모, 지연(latency), 신호 손실이 전체 TCO와 성능을 좌우한다. 그래서 설계 목표가 다음처럼 이동하고 있다.
과거: 최대 성능(FLOPS 극대화)
현재·미래: 성능/전력 효율, 성능/TCO(€/W, $/token) 최적화
결국 AI 데이터센터의 핵심 질문은
“얼마나 많이 계산하느냐”가 아니라
**“얼마나 싸고 효율적으로 데이터를 움직이느냐”**로 바뀐 것이다.
2. NVIDIA의 방향: Rubin + 케이블리스 랙 + 포트 수 증가 + 근접 스토리지
2-1. Rubin NVL72: 무(無)케이블 랙 구조 혁신
Tom’s Hardware에 따르면 Rubin NVL72는 섀시를 **‘fully cableless’**로 재설계하여, 기존 약 2시간 걸리던 설치 시간을 약 5분 수준으로 단축했다.
이 메시지의 핵심은 명확하다.
랙 내부 하네스·케이블 수작업을 최소화
제조·조립 리드타임과 인건비를 줄이는 방향으로 구조를 재설계
즉, 원래 케이블과 작업자가 맡던 부분을 기계적 구조 + 보드·커넥터 설계가 흡수하는 형태이다.
2-2. 스위치: CPO 기반 광 연결 확대
The Verge는 Rubin 플랫폼 구성요소로 Spectrum-X 102.4T CPO 스위치를 명시한다.
NVIDIA 공식 블로그에서도 Rubin 플랫폼의 한 축으로 **“Spectrum-X Ethernet Photonics”**를 제시한다.
이는 곧:
스위치 측에서 **공동 패키징 광(CPO)**를 도입해
광 인터커넥트 비중과 포트 밀도를 동시에 끌어올리겠다는 선언에 가깝다.
젠슨 황이 “랙 내 케이블 수는 줄이고, 대신 포트 연결 수는 늘리겠다”고 언급한 것도 이 방향과 일치한다.
2-3. 스토리지: 랙 스케일 Inference Context Memory Storage
NVIDIA 블로그에 따르면, CES 2026에서 Inference Context Memory Storage Platform(AI-native KV-cache tier)이 소개되었다. 이는:
장문맥 추론을 위해
컨텍스트 데이터(KV-cache)를 GPU에 더 가까운 계층에 두는 랙 스케일 스토리지 계층이다.
사용자가 정리한 것처럼, “AI SSD를 AI 데이터센터 랙 바로 옆에 배치해 동서(East–West) 트래픽을 늘린다”는 설명은,
NVIDIA가 밝힌 “컨텍스트 메모리/스토리지를 시스템에 통합해 장문맥 효율을 높인다”는 메시지와 정합적이다. (NVIDIA Blog)
결국, 연산 근처로 데이터 계층을 끌어당기고, 그 주변의 포트·네트워크 밀도를 올리는 전략이라고 볼 수 있다.
3. 그래서 ‘광(光)’이다: 전력·물리 한계의 정면 돌파
구리 기반 전기 신호(케이블·구리 트레이스)는 속도·거리·전력 사이에서 갈수록 거친 트레이드오프를 요구한다.
800G → 1.6T급으로 갈수록
삽입손실·반사·크로스토크 등의 SI 문제가 기하급수적으로 커지고
이를 버티기 위해 더 많은 전력·더 고급 재료·더 복잡한 설계가 필요하다.
반대로 광섬유는:
동일 대역폭 기준 전력 소모를 크게 줄이고
장거리·고속 전송에서 안정적이며
데이터센터 전력 한계(Power Cap) 문제를 완화하는 수단이 된다.
예를 들어, Meta는 Corning과 2030년까지 최대 60억 달러 규모의 광섬유 공급 계약을 체결했고, 이는 대형 AI 데이터센터가 기존 클라우드 대비 훨씬 많은 파이버를 필요로 한다는 점을 보여준다. (관련 내용: CNBC 기사)
핵심은, 전력·냉각·집적도 한계 때문에 광은 필연적으로 GPU·스위치·스토리지 근처까지 점점 더 침투하게 되어 있다는 점이다.
4. 중요한 포인트: 광이 늘어도 PCB는 ‘줄지 않는다’ — 오히려 고사양화된다
여기서 흔한 오해는 다음과 같다.
“광이 늘면 케이블·전기 신호 구간이 줄고, 결국 PCB 의존도가 떨어지는 것 아닌가?”
현실은 그 반대에 가깝다.
광+전기 혼재 구조가 장기간 유지
패키지/ASIC 바로 옆까지 광이 들어오는 CPO 구조라 하더라도
패키지–보드–전원–제어–클록 등은 여전히 전기 신호와 전력 분배가 필수이다.
케이블이 줄면 케이블이 하던 일을 보드·커넥터·백플레인이 떠안는다
케이블 routing 대신, 고속 PCB + 보드-투-보드(orthogonal) 커넥터 + 미드플레인/백플레인 구조가 신호를 책임지는 영역이 늘어난다.
이 과정에서 보드 내부 레이어 구성, 리턴패스, via·backdrill, 고급 CCL 등 설계 난이도가 상승한다.
결과적으로, 광 전환은
저사양·범용 PCB에는 구조적 역풍이 될 수 있지만
네트워크·스위치·백플레인 중심의 고사양 MLB에는 ‘난이도 프리미엄’을 부여하는 방향으로 작동하기 쉽다.
즉, **“광 전환 = PCB 소멸”이 아니라, “PCB 중에서도 상단(MLB)으로 가치가 집중되는 구조 재편”**에 가깝다.
5. 스위치용 MLB에 유리하게 작동하는 메커니즘
5-A. 케이블 감소 → 보드/커넥터/백플레인 난이도 증가
랙 내부 케이블을 줄이려면 실질적인 대안은 두 가지이다.
보드-투-보드(orthogonal) 커넥터 + 미드플레인/백플레인으로
원래 케이블이 담당하던 신호 경로를
고속 PCB + 커넥터 스택이 흡수
모듈러 유닛(서버 트레이, GPU 트레이, 스위치 모듈 등) 간 인터커넥트를
가능한 한 짧고, 규격화된 경로로 고정
이때 MLB 관점에서 나타나는 변화는 다음과 같다.
고속 신호 경로가 보드·커넥터 쪽으로 정형화되면서
→ 임피던스 제어, 레이어 스택업, 그라운드·리턴패스 설계 난이도 상승이를 위해
→ **층수 증가 + 고급 CCL 채택 + 정밀 가공(backdrill, 레이저 via 등)**이 필요케이블 BOM은 줄지만,
→ “고밀도 포트/커넥터/전원 블록”을 수용하는 MLB 단가(ASP) 상승 여지가 생김
한 문장으로 정리하면,
케이블이 줄어도, 케이블이 하던 일을 MLB가 더 고사양으로 떠안는 구조가 될 가능성이 크다.
5-B. 포트 수 증가 → 스위치 보드 물량·난이도 동시 상승
포트 수 증가가 스위치에 주는 영향은 매우 직선적이다.
더 많은 SerDes lane fan-out
더 많은 커넥터/케이지/전원·클록 분배 회로
링크 간 간섭·반사 제어를 위한 더 빡센 SI/PI 설계
이로 인해:
레이어 수 증가(Ground/Reference plane, 쉴딩 목적)
저손실 재료 비중 증가(고주파 손실 보정)
로 이어지고, 이는 곧 MLB ASP 상승 요인이다.
Rubin 세대에서 제시된 포트 수 증가 + CPO 도입은 스위치·인터커넥트의 고밀도·고사양화를 예고한다고 볼 수 있다. (The Verge, NVIDIA Blog)
5-C. 800G → 1.6T 전환: 기술 난이도 상승 = 프리미엄 근거
1.6T급 전환은 “속도 2배” 이상의 의미를 가진다.
더 높은 SerDes 속도(예: 224G급)
더 엄격한 삽입손실·반사·채널 budget
유효 채널 길이 단축 요구 등
여기서 비용이 늘어나는 항목은:
저손실·초저손실 CCL 채택 확대
레이어 증가(신호/그라운드/쉴딩/리턴패스 구성)
정밀 드릴·백드릴, via 구조 고도화
테스트·검사·수율 관리 비용 증가
따라서 “800G에서 1.6T로 간다”는 사실 자체가,
고사양 PCB에 가격 프리미엄을 요구할 수 있는 설계·공정상의 근거가 된다.
6. 고다층 MLB 업체와의 연결: “구조 변화 + 선제 CAPA → 이익 레버리지”
위 구조적 변화는 결국 다음의 큰 흐름으로 정리할 수 있다.
Rubin·Spectrum-X·CPO 도입 →
스위치·인터커넥트 포트 밀도·속도(800G → 1.6T) 상승케이블 수를 줄이고 포트 수를 늘리는 방향 →
케이블이 맡던 일부 인터커넥트를 고사양 MLB·커넥터 스택이 흡수결과적으로 고사양 스위치용 MLB에는
층수 증가 + 저손실 CCL 비중 확대 + 공정 난이도 상승이 동반이는 고다층 네트워크용 MLB 업체에
ASP 상승 가능성과 구조적 수요 증가 요인으로 작용
여기에 공급 측면까지 겹치면 레버리지가 커진다.
PCB 업계 말에 따르면, 국내 주요 고다층 MLB 업체 중 한 곳은:
이미 대구 공장 CAPA를 선제적으로 증설해 두었고
1.6T 등 차세대 네트워크 수요를 겨냥한 관련 기계·설비 발주를 선점해 둔 상태라고 전해진다.
즉, AI 데이터센터 내부 구조 변화(케이블리스 랙·포트 수 증가·CPO·근접 스토리지)와 설비 램프 타이밍이 맞물리면,
해당 업체 입장에서는 고사양 MLB 수요 증가 + CAPA 선제 확충 → 이익 레버리지가 실제 숫자로 드러날 가능성이 높다는 의미이다.
7. 다만, 마진까지 좋아지려면 추가로 필요한 세 가지 조건
ASP 상승이 곧바로 마진 상승으로 직결되지는 않는다.
마진(영업이익률)은 대체로 세 가지 변수의 함수이다.
7-1. 가격 결정력: 프리미엄을 실제로 받아낼 수 있는가
초고속 스위치/AI 네트워크 구간에서
납기·신뢰성·수율 중요도가 높아지면
고객이 “단순 가격만 보고 공급업체를 바꾸기 어려운 환경”이 형성될 수 있다.
이런 환경에서는 가격 경쟁이 완화되고,
MLB 업체가 난이도·납기·품질을 근거로 프리미엄을 요구할 수 있다.
이 구간이 열려야 ASP↑가 마진↑로 전이된다.
7-2. 수율(Yield)·램프 비용: 난이도 상승이 비용 폭증으로 되돌아오지 않는가
1.6T 전환 초기에는
불량률, 재작업, 라인 튜닝 이슈로
실제 제조원가가 상당 기간 높게 유지될 수 있다.
이 경우:
초기에는 ASP↑ < 원가↑ → 마진이 오히려 눌릴 수 있고,
공정·수율 안정화 이후에야 마진 레버리지가 발생하는 패턴이 많다.
따라서, 선제 CAPA·설비 확보만큼 중요한 것은
**“고난도 MLB를 안정적인 수율로 찍어낼 수 있는 내부 역량”**이다.
7-3. CPO의 양면성: “광 채택 = 무조건 플러스”는 아니다
CPO 도입이 스위치 보드에 주는 영향은 양면적이다. (The Verge, NVIDIA Blog)
한쪽 면에서는
프론트 패널 플러거블 트랜시버 구조가 바뀌며
일부 보드 영역·부품이 줄어들 여지가 있다.
다른 한쪽에서는
패키지 주변 전기 구간이 더 짧고 민감해져
보드·패키지 주변 SI/PI 요구가 훨씬 엄격해진다.
이 구간은 가공 오차 허용치가 작은 고난도 MLB를 필요로 한다.
따라서 CPO는 **“MLB 수요 감소”라기보다 “MLB 역할과 가치의 재편”**으로 보는 게 타당하다.
국내 고다층 MLB 업체 입장에서는, 이 재편 과정에서 **“어느 구간의 MLB를 맡고 있느냐”**가 향후 마진을 결정짓는 핵심 변수다.
8. 결론: 구조적 변화 + 선제 CAPA → 이익 레버리지 가능성은 충분
전체를 한 번에 요약하면 다음과 같다.
AI 인프라는 이제 **연산(FLOPS)**보다 **데이터 이동 효율(전력·지연·손실)**이 핵심 병목이다.
Rubin 세대의 케이블리스 랙·조립 시간 단축·포트 수 증가·CPO 도입·근접 스토리지 통합은,
→ 스위치·인터커넥트의 고밀도·고사양화를 의미한다. (Tom’s Hardware, The Verge, NVIDIA Blog)이는 스위치용 MLB에
→ 층수 증가 + 저손실 CCL 비중 확대 + 공정 난이도 상승 → ASP 상승으로 이어질 개연성이 크다.여기에, 국내 주요 고다층 MLB 업체가
→ 대구 공장 CAPA를 선제 증설하고, 관련 설비 발주를 선점해 둔 상태라는 점을 감안하면,
→ AI 데이터센터 내부 구조 변화 타이밍과 CAPEX 사이클이 맞물릴 경우, 이익 레버리지를 낼 여지가 크다고 볼 수 있다.다만 실제 마진 확대는
(i) 고객의 가격 결정력 구조
(ii) 1.6T 전환 과정에서의 수율·램프 안정화 속도
(iii) CPO 도입 이후 “가치가 보드/패키지/모듈 중 어디로 이동하는지”
에 의해 최종적으로 결정된다.
즉, “AI 데이터센터 구조 변화 + 고난도 네트워크용 MLB + 선제 CAPA” 조합은 분명 이익 레버리지를 만들 수 있는 셋업이다.
댓글 없음:
댓글 쓰기