이번 AI Theme 조정의 근원이 되었던 두 기업부터 먼저 짚어보고자,
이전 Oracle에 이어, 이번에는 그동안 모은 정보를 취합해 내가 생각하는 Broadcom에 대한 글을 정리해본다.
0. 서론: 왜 Broadcom인가
AI 경쟁의 중심은 점점 모델에서 칩·네트워크·데이터센터를 하나로 묶은 풀스택 인프라로 옮겨가고 있다.
특히 NVIDIA의 차세대 GPU인 Blackwell(GB200) 이후에는
GPU 진영의 1~1.5년 주기 세대교체 속도,
랙·전력·네트워크까지 포함한 TCO(토큰당 총비용) 경쟁
이 동시에 강화될 가능성이 크다.
이 구조 속에서 Broadcom은
구글 TPU 등 맞춤형 AI 가속기(XPU) ASIC,
Tomahawk·Jericho 계열 AI용 이더넷 스위치·라우터,
TSMC 선단공정·CoWoS 패키징 레퍼런스
를 동시에 쥔 몇 안 되는 기업이다.
2024 회계연도 기준 Broadcom의 AI 매출은 122억 달러(전년 대비 +220%), 반도체 매출의 41% 수준이며,
AI 칩 관련 서비스 가능 시장(SAM) 150~200억 달러 중 약 70%를 Broadcom이 점유한다고 회사는 설명한다.
여기에 더해, 최근 중국 DeepSeek의 컴퓨팅 한계,
그리고 Google Gemini 3가 “Scaling law는 여전히 유효하다”는 것을 재확인했다는 평가는
“결국 대규모 컴퓨팅을 얼마나 안정적으로 계속 키울 수 있느냐가 LLM 경쟁의 본질”이라는 점을 다시 부각시킨다.
이 글의 목적은,
이러한 환경에서 Broadcom의 해자(진입장벽)가 왜 시간이 갈수록 두터워질 수밖에 없는지를
기본 용어
Broadcom의 위치
전환비용·“1세대 삐끗”·글로벌 컴퓨팅 격차(DeepSeek vs Gemini 3)
고객 Lock-in
풀스택과 Blackwell
경쟁 구도(Broadcom vs Marvell vs MediaTek)
Jevons의 역설·플라이휠·설계자동화
순으로 정리하는 것이다.
1. 기본 용어 정리
1) GPU, ASIC, XPU
GPU
행렬 연산에 특화된 범용 가속기. AI 학습·추론의 기본 엔진이다.
NVIDIA A100/H100, 차세대 Blackwell(GB200) 등이 대표적이다.ASIC
특정 목적에 맞춘 맞춤형 칩이다.
구글 TPU, 아마존 Trainium/Graviton, 하이퍼스케일러들이 Broadcom과 함께 설계하는 커스텀 AI 가속기가 여기에 속한다.XPU
Broadcom이 쓰는 용어로, GPU·TPU·ASIC 등 AI 가속기 전체를 포괄하는 표현이다.
2) 프론트엔드 vs 백엔드 설계
프론트엔드 설계
“어떤 연산 유닛을 몇 개, 어떻게 연결할 것인가”를 정하는 아키텍처·논리 설계 단계이다.백엔드 설계
이 논리를 실제 실리콘 위에 **배치·배선(Place & Route)**해서
전력·발열·신호 품질을 모두 만족시키는 물리 설계 단계이다.
공정이 5nm·3nm로 미세해질수록 난도가 폭증하고,
Try & Error 기반의 경험이 해자의 핵심이 된다.
구글 TPU는
Google이 프론트엔드, Broadcom이 백엔드+TSMC 협업을 맡는 구조로 알려져 있다.
3) SerDes, CoWoS, HBM, 풀스택, TCO
SerDes / PHY
칩 내부의 느린 병렬 데이터를 극도로 빠른 직렬 신호로 바꿔 케이블·광섬유로 보내는 회로이다.
AI 데이터센터에서 네트워크 속도·품질을 좌우하는 핵심 IP이다.
HBM
수직으로 여러 개를 쌓은 고대역폭 메모리.
거대한 LLM을 돌릴 때 필수적인 메모리 수단이다.CoWoS
TSMC의 2.5D 패키징 기술로, XPU와 여러 개의 HBM을 하나의 초대형 패키지로 묶는다.
공정 난이도·설비 제약 때문에 NVIDIA·Broadcom·AMD·애플 등 소수 고객에게 우선 배분되는 병목 자원이다.풀스택(Full Stack)
XPU뿐 아니라스위치 ASIC, NIC
광 모듈·케이블
랙·전력·냉각
운영 소프트웨어
까지 데이터센터 한 덩어리로 제안하는 구조이다.
NVIDIA NVL72, Broadcom AI Ethernet 플랫폼이 대표 사례이다.
TCO(Total Cost of Ownership)
칩 가격, 전력·냉각, 데이터센터 CAPEX/OPEX, 운영 인력까지 포함한 토큰당 총비용이라 보면 된다.
2. Broadcom의 위치: XPU + 이더넷 + 랙
Broadcom은 HP/아질런트 통신·저장장치용 반도체 사업부에서 출발해,
Avago 인수 이후 네트워킹·스토리지·소프트웨어 업체들을 흡수하며
데이터센터 인프라 종합 기업으로 변신해 왔다.
AI 시대 Broadcom의 축은 크게 두 가지이다.
-
맞춤형 AI 가속기(XPU)
-
구글 TPU 등 하이퍼스케일러의 커스텀 AI ASIC을
선단공정·CoWoS로 설계·생산한다. -
2024 회계연도 AI 매출은 122억 달러(전년 대비 +220%),
반도체 매출의 41% 수준이다.
-
-
AI 이더넷 풀스택
-
102.4Tbps Tomahawk 6 스위치, Jericho 라우터, Thor NIC, 고속 SerDes·광 DSP를 묶어
AI 클러스터용 이더넷 패브릭 레퍼런스를 제시하고 있다.
-
2025년 10월에는 OpenAI와 10GW 규모의 맞춤형 AI 가속기 + 이더넷 + 랙 시스템 공동 개발·배치 계약을 체결하며,
실질적으로 “칩+네트워크+랙” 풀스택 공급자로서의 위상을 공식화했다.
여기서 중요한 점은, AI 워크로드가 **“XPU 몇 개”가 아니라 “수천 개 XPU + 스위치·NIC + 랙·전력·냉각이 결합된 시스템”**으로 돌아간다는 점이다.
따라서 스위치·NIC·통신장비·데이터센터 물리 설계 능력이 없는 상태에서 XPU만 잘 만들어도,
실제 클러스터에서 나오는 **TCO와 성능(토큰 처리량·지연·신뢰성)**은 GPU 풀스택 대비 크게 떨어질 수밖에 없다.
2-1. XPU 백엔드 경험과 통신/스위치 역량의 상호 강화
결론부터 말하면, 브로드컴이 고객사용 ASIC XPU(예: TPU류)에 대해 백엔드 설계를 잘할수록,
그 경험은 통신칩·스위치 ASIC·데이터센터 물리 네트워크 설계 능력으로 거의 그대로 연결된다.
구조적으로 보면 세 가지 축이 서로 피드백을 주고받는다.
-
공통 인프라: 고속 IO/SerDes/PHY
-
AI XPU이든 스위치 ASIC이든,
모두 112G/224G급 고속 SerDes·PHY를 대량으로 사용한다. -
XPU 백엔드에서
“이 SerDes 블록을 어디에, 어떤 전력·열·배선 조건에서 배치해야
SI(신호 무결성)·IR drop·열 문제 없이 속도를 뽑을 수 있는지”에 대한
실전 경험이 쌓이고, -
같은 문제가 그대로 스위치/통신칩 설계에도 등장한다.
→ XPU 백엔드를 잘할수록 고속 IO·채널 설계 노하우가 두꺼워지고,
이게 다시 스위치·NIC·통신칩 쪽 역량을 끌어올리는 구조이다. -
-
시스템 시야: 칩을 넘어 패브릭·랙까지 보는 감각
-
고객사 XPU 백엔드를 하려면
“이 칩이 어떤 네트워크 토폴로지 안에, 어떤 랙 구성으로,
어디가 병목인 환경에서 사용되는지”를 함께 설계하게 된다. -
같은 회사의 스위치 ASIC·NIC 팀은
그 패브릭을 실제 스위치·케이블·광모듈로 구현해야 한다.
→ Broadcom 내부에서는
칩 레벨 경험 + 패브릭 토폴로지 이해 + 랙·데이터센터 설계 경험이 서로 공유되며,
다른 ASIC 전용 하청업체보다 **“물리 스택 전체를 보는 눈”**이 넓어질 수밖에 없다. -
-
패키징·전력·쿨링 경험의 공유
-
3nm급 XPU와 51.2/102.4Tbps 스위치 ASIC은 모두
CoWoS, 대형 die, 고전력·고열 환경에서 동작한다. -
XPU·스위치·NIC 패키지를 반복 설계하면서
“이 정도 전력밀도·패키지 사이즈면 랙/섀시 레벨에서
공랭/액랭을 어떻게 설계해야 하는지”에 대한
실전 데이터와 직감이 축적된다.
-
이렇게 보면 Broadcom은
XPU 백엔드 설계 → 고속 SerDes/PHY·패키징 노하우 축적 →
스위치·NIC·통신장비·데이터센터 물리 설계 역량 강화
라는 선순환을 통해 단순한 ‘칩 설계 하청업체’를 넘어
XPU–네트워크–시스템을 아우르는 풀스택 인프라 플레이어로 자리 잡고 있으며,
이러한 구조적 역량(*Mediatek과 같은 후발주자가 따라잡을 수 없는)이 동사만의 두터운 경쟁우위이자 고객사와의 가격협상에서 우위를 제공하는 요인으로 작용한다.
3. 전환비용, “1세대 삐끗”의 치명성, 그리고 글로벌 컴퓨팅 격차
AI 서버 시장은 2030년 8,500억 달러 규모까지 성장할 수 있다는 전망이 있다.
AI 추론 수요가 구조적으로 늘어날수록 Broadcom의 해자는
기술·시간 기반 전환비용
파운드리·공급망 전환비용
운영·소프트웨어 전환비용
글로벌 컴퓨팅 격차(DeepSeek vs Gemini 3)
로 더 두터워진다.
3-1. 기술·시간 기반 전환비용과 “1세대 삐끗” 리스크
3nm/2nm급 AI XPU는
HBM·CoWoS 인터포저
수백억 개 트랜지스터
극단적인 전력·열·신호 관리
를 동시에 맞춰야 하는 초난도 설계 문제이다.
업계 경험상, 실전에서 경쟁력 있는 가속기까지는 최소 2~3세대 반복이 필요하다는 인식이 강하다.
한 세대 1~1.5년이라면, 3세대는 이미 NVIDIA가 GPU 아키텍처를 두 번 이상 올린 뒤이다.이 구조에서 중요한 포인트는,
ASIC 업체가 단 한 세대라도 GPU 대비 성능·TCO에서 밀리면
이후 세대에서 그 격차를 만회하기가 기하급수적으로 어려워진다는 점이다.
한 번 늦으면추가 CAPEX·OPEX 투입
파운드리 CAPA·우선순위 협상력 약화
그 사이 GPU 진영은 또 다음 세대로 이동
이라는 악순환이 발생한다.
Broadcom처럼 이미 다수 세대를 안정적으로 테이프아웃한 업체는
이 레이스에서 **“실패 확률이 상대적으로 낮은 쪽”**에 속한다.
3-2. 공급망·파운드리 전환비용
TSMC의 CoWoS·HBM 패키징 CAPA는 여전히 병목이며,
Google TPU조차 패키징 CAPA 제약을 받고 있다는 보도가 있다.NVIDIA·Broadcom·AMD·애플 등은
반복된 성공 레퍼런스와 대규모 물량으로 선단공정·CoWoS 우선권을 확보하고 있다.
새로운 ASIC 플레이어가 여기에 진입하려면
여러 세대의 성공·장기계약이 필요하며,
이는 “첫 세대 실패 → CAPA 협상력 약화 → 일정 지연 → GPU 격차 확대” 루프를 강화한다.
3-3. 운영·소프트웨어 전환비용
XPU와 네트워크 칩은
패킷 스케줄링·혼잡 제어, 장애 복구,
텔레메트리·모니터링, 자동 배포·업데이트 도구
와 결합된 운영 스택의 일부이다.
Broadcom AI Ethernet 플랫폼은 Tomahawk·Jericho·Thor·소프트웨어를 묶어
AI 패브릭 레퍼런스를 제공하는 방향으로 진화 중이다.
한번 이 기준으로 데이터센터를 설계하면,
다른 벤더로 옮기는 것은 칩 교체가 아니라 운영·툴·조직 노하우 전체를 갈아엎는 일이 된다.
3-4. DeepSeek vs Gemini 3: 글로벌 컴퓨팅 격차의 신호
여기에 최근 중국 DeepSeek과 Google Gemini 3 사례가
“컴퓨팅 격차”를 극명하게 보여준다.
DeepSeek: 제한된 컴퓨팅에서의 효율 극대화
DeepSeek는 V3·R1 모델을 공개하며,
GPT-4·OpenAI o1에 근접한 수준의 성능을 “상당히 적은 훈련 컴퓨팅”으로 달성했다고 주장한다.RAND·Brookings 분석에 따르면,
DeepSeek V3·R1은 미국 프론티어 모델 대비 훈련 컴퓨팅을 크게 줄였지만,
이것이 “컴퓨팅 자원 중요성이 줄었다”는 의미라고 보는 것은 잘못된 해석이며,
여전히 장기적으로는 막대한 컴퓨팅 자원을 지속적으로 투입할 수 있는 진영이 유리하다고 지적한다.Dario Amodei 역시 DeepSeek 사례를 논하면서,
미국의 GPU 수출 통제가 중국 LLM의 장기적 컴퓨팅 확보 능력을 제약하는 가운데,
DeepSeek 성공은 오히려 수출 통제 정교화의 필요성을 보여주는 사례라고 평가한다.
요약하면, DeepSeek는
**“컴퓨팅이 부족한 환경에서도 알고리즘·효율 개선으로 어느 정도 따라갈 수 있다”**는 점을 보여주지만,
동시에 GPU·선단공정 접근이 제약된 진영이 장기적으로 프론티어 레이스에서 불리할 수밖에 없다는 현실을 드러낸다.Gemini 3: Scaling law가 여전히 통한다는 재확인
중국 36Kr·해외 테크 블로그 분석에 따르면,
Gemini 3는 Google이 Scaling law를 가장 극단적으로 실행한 사례로 평가되며,
“충분한 compute·데이터·엔지니어링 최적화가 주어지면 Scaling law는 아직도 큰 보상을 준다”는 것을 보여줬다는 평가가 많다.Tomasz Tunguz는 “Gemini 3의 성과와 NVIDIA 실적을 보면 ‘스케일링 월’(Scaling wall) 논지는 사실상 붕괴했고,
Blackwell의 추가 연산력이 그대로 모델 성능 향상으로 이어질 것”이라고 주장한다.
즉, Google은
**“충분한 인프라(컴퓨팅)를 계속 늘리면 여전히 모델 성능이 크게 올라간다”**는 사실을 시장에 재확인시킨 셈이다.이 두 사례가 시사하는 것
DeepSeek: 컴퓨팅 제약이 있는 진영의 “효율 극대화” 전략
Gemini 3: 컴퓨팅 제약이 덜한 진영의 “Scaling law 무한 증폭” 전략
이 대비는 LLM 경쟁의 핵심이
결국 **“얼마나 큰 클러스터를, 얼마나 자주, 실패 없이 돌릴 수 있는가”**라는 점을 다시 확인해 준다.여기서 Broadcom의 위치
미국·하이퍼스케일러 진영이 이 “Scaling law 레이스”를 계속 밀어붙이려면,
선단공정 XPU(구글 TPU 등),
대규모 이더넷 패브릭,
CoWoS·HBM 패키징
을 안정적으로 공급할 파트너가 필요하다.
Broadcom은
Google TPU,
OpenAI 10GW XPU+랙,
를 통해 사실상 **“미국 측 Scaling law 실행 인프라의 한 축”**을 담당한다.
DeepSeek vs Gemini 3의 대비는,
컴퓨팅·인프라와 연결된 공급망(=Broadcom 같은 업체)의 중요성이 앞으로 더 커질 수밖에 없다는 정성적 근거가 된다.
4. 고객사 입장에서 Broadcom Lock-in이 합리적인 이유
하이퍼스케일러 입장에서 “탈 Broadcom”을 가정해 보면 다음 리스크들이 한꺼번에 튀어나온다.
리스핀·일정 리스크
선단공정 AI ASIC에서 마스크 한 번 실패는
수천만~수억 달러 손실 + 수개월 일정 지연을 의미한다.그 사이 NVIDIA는 Blackwell 이후 차세대까지 올릴 수 있다.
즉 한 세대 삐끗하면 그 세대는 끝이고,
다음 세대부터는 항상 “추격자” 포지션이다.
GPU 세대 교체 속도와 동기화 압박
1~1.5년 주기로 GPU 세대가 바뀌는 상황에서,
프론트엔드·백엔드·패키징·네트워크·랙을 모두 같은 템포로 업그레이드해야 한다.이때 백엔드를 Broadcom/Marvell 없이 전부 내재화하는 것은
일정 리스크를 크게 키우는 선택이다.
TSMC·HBM CAPA 리스크
CoWoS·HBM4 CAPA가 타이트한 환경에서
TSMC는 검증된 대형 고객에게 우선 배분한다.Broadcom처럼 레퍼런스를 쌓은 파트너를 통하는 편이
직접 진입보다 CAPA·수율 측면에서 훨씬 안전하다.
풀스택·랙 통합 부재
Broadcom은 OpenAI와 XPU+이더넷+랙 시스템을 10GW 규모로 공동 설계·배치한다.
자체로 이 수준의 통합을 구현하려면
칩뿐 아니라 네트워크·전력·냉각·운영 SW까지 직접 책임져야 한다.
요약하면,
GPU와의 세대 레이스에서 한 번 삐끗하면 격차가 구조적으로 벌어지는 상황에서는
Broadcom에 어느 정도 Lock-in되는 것이 오히려 합리적인 리스크 관리가 된다.
5. Full-stack 설계 능력과 Blackwell의 분기점
5-1. Blackwell이 만드는 새로운 기준선
NVIDIA의 Blackwell(GB200)·NVL72는
칩 성능·전력 효율
NVLink·NVSwitch·이더넷
랙·전력·냉각·소프트웨어
까지 포함한 참조 데이터센터 아키텍처를 제시한다.
경쟁 기준은 단순해진다.
같은 랙·같은 전력 하에서
누가 더 많은 토큰을 더 싸게 처리하느냐 (TCO)
5-2. Blackwell 랙 효율화 시점의 의미
Blackwell 랙이 실제 대규모 배치되고,
6~12개월간 디버깅·튜닝이 진행되면
이전 세대 대비 TCO에서 큰 격차가 드러날 가능성이 크다.
이 시점에서 하이퍼스케일러의 질문은 하나다.
“우리가 Broadcom과 같이 만드는 TPU/XPU + 이더넷 풀스택으로
Blackwell 랙과 비슷한 TCO를 낼 수 있는가?”
풀스택 설계·통합 능력이 없다면
개별 칩의 FLOPS/Watt가 좋아도 시장 경쟁력은 급격히 떨어진다.
Blackwell 랙 효율화 시점이 다가올수록
풀스택 역량의 중요성은 기하급수적으로 커진다.
6. 경쟁 구도: Broadcom vs Marvell vs MediaTek
6-1. Broadcom·Marvell: 이미 형성된 양강 구도
SemiEngineering 분석에 따르면 Broadcom은 커스텀 ASIC 시장 점유율 약 80% 수준이며,
Marvell이 2위로 뒤따르고, MediaTek·Alchip·GUC 등이 도전자로 거론된다.
Marvell
Custom cloud-optimized silicon, 스위치·NIC·SerDes·첨단 패키징을 묶어
데이터센터용 커스텀 실리콘 파트너를 지향한다.10개 이상의 고객, 50개 이상의 커스텀 실리콘 프로젝트를 진행 중이며
평생 매출 잠재력은 750억 달러 수준으로 추산된다.
Broadcom
Google TPU, OpenAI 10GW 등 상징적인 XPU+랙 프로젝트를 보유하고,
스위치·라우터·SerDes·광 DSP를 묶은 AI 이더넷 풀스택을 제공하며,
TSMC CoWoS·선단공정에서 오랜 레퍼런스를 가진 핵심 고객이다.
결국 ASIC 진영에서 Broadcom과 Marvell이 기본 축을 형성하고 있다고 보는 것이 자연스럽다.
6-2. MediaTek: 왜 Google의 복수 벤더지만 구조적으로 열위인가
Google은 향후 TPU 세대에서 MediaTek과의 협업을 확대하려는 움직임을 보이고 있다.
동시에 Broadcom이 TPU v7 등 핵심 물량을 계속 확보하고 있다는 보도도 있다.
이를 종합하면 다음과 같다.
Google 입장: MediaTek은 “브로드컴 견제 + 비용 압박용 세컨 벤더”
여러 기사들은 Google이 Broadcom 의존도를 일부 낮추고
백엔드 벤더를 듀얼화해 협상력을 높이려 한다고 해석한다.그러나 현 시점에선
MediaTek이 Broadcom을 완전히 대체하기보다는
일부 세대·일부 블록에 참여하는 보조 벤더에 가깝다.
MediaTek의 출발점: 모바일 중심, 데이터센터는 확장 영역
MediaTek은 스마트폰·소비자용 SoC에서 세계적인 플레이어지만,
데이터센터·클라우드 ASIC은 아직 **“증명해야 할 새로운 사업”**에 가깝다.2026년 클라우드 AI 칩 10억 달러, 그 이후 수십억 달러 매출을 목표로 하고 있으나,
아직 실적·레퍼런스는 Broadcom·Marvell에 비해 제한적이다.
풀스택·네트워크 포지션의 차이
Broadcom·Marvell은 이미
스위치 ASIC·SerDes·네트워크 장비를 통해 데이터센터 이더넷 핵심 벤더로 자리 잡았다.MediaTek도 고속 인터커넥트·SerDes IP를 홍보하고 있으나,
현재는 모바일·엣지 + 일부 클라우드 ASIC 단계이며,
“XPU+이더넷+랙” 풀스택을 당장 제공하는 수준은 아니다.
TSMC·CoWoS 레퍼런스 깊이 차이
TSMC CoWoS 공식 자료에서
Nvidia·Broadcom·HiSilicon 등 HPC·AI용 대형 고객 레퍼런스가 오랫동안 쌓여 있다.MediaTek 역시 주요 고객이지만,
데이터센터급 CoWoS·HBM 패키징에서의 레퍼런스는 상대적으로 얕다.
세대 레이스 관점에서 후발주자의 핸디캡
GPU 진영이 1~1.5년 주기로 아키텍처를 올리는 상황에서
Broadcom·Marvell은 이미 다수 세대의 커스텀 ASIC을 통해
Try & Error 데이터·조직 학습을 축적해 왔다.MediaTek은 지금부터 그 레이스에 합류하는 입장이라,
“한 세대 삐끗하면 회복이 어려운 구조”에서 출발선이 뒤에 있는 선수에 가깝다.
정리하면,
Google 입장에서 MediaTek은 의미 있는 복수 벤더·가격 압박 카드이지만,
풀스택·레퍼런스·조직 학습·TSMC CAPA 관점에서 Broadcom·Marvell 대비 구조적 후발주자이다.
따라서 MediaTek 점유율 상승은 Broadcom 단일 벤더 리스크를 다소 낮추더라도,
Broadcom의 “핵심 AI 인프라 벤더” 지위를 근본적으로 흔들 수준은 아니다라는 결론이 자연스럽다.
7. Jevons의 역설, 플라이휠, 설계자동화·조직학습력
7-1. Jevons의 역설: 효율이 좋아질수록 수요는 더 빨리 늘어난다
Jevons의 역설은
어떤 자원의 효율이 높아질수록,
전체 사용량은 줄지 않고 오히려 늘어난다
는 현상이다.
| GOLDMAN SACHS |
| GOLDMAN SACHS |
| GOLDMAN SACHS |
| GOLDMAN SACHS |
AI에서도,
Blackwell, TPU v7+, 맞춤형 XPU,
Broadcom의 이더넷·패키징·설계 최적화,
Gemini 3로 다시 확인된 Scaling law의 유효성
이 토큰당 추론 비용을 낮출수록
AI는 더 많은 서비스·업무·디바이스 속으로 파고든다.
중요한 점은, 이런 Jevons의 역설이 작동하는 시장에서는
-
효율 향상이 곧 수요 폭증으로 이어지고,
-
수요 폭증은 다시 플레이어 간 경쟁을 더욱 가속화시키며,
-
“조금만 뒤처져도 회복이 어렵다”는 인식 때문에
‘뒤처지면 끝’이라는 심리가 제도·투자·전략에까지 스며든다는 점이다.
결국, 효율 향상이
단순히 시장 파이를 키우는 데서 끝나는 것이 아니라,
경쟁의 속도와 강도를 동시에 끌어올리는 촉매로 작동하는 구조에서
브로드컴 고객사 입장에서 체감하는 전환비용은 및 RISK는 더욱 커질 수 밖에 없다.
| https://www.threads.com/@xie_ct |
7-2. Try & Error 데이터 → 설계자동화 AI → 플라이휠
경쟁이 가속화될수록 더 중요해지는 것은 동사의 핵심 경쟁우위, 즉 해자가 어디에 형성되어 있는가이다.
Broadcom 해자의 핵심은 단순히 “AI/EDA를 쓴다”가 아니라,
AI가 학습할 수 있는 내부 설계 데이터와 조직 학습력이다.
-
수십 년간 누적된 Try & Error 설계 데이터
-
과거 칩들의
-
회로 구조, 배치·배선 결과
-
전력·타이밍·열 시뮬레이션 vs 실제 실리콘 측정치
-
DRC/LVS 에러 위치와 ECO(수정) 히스토리
가 모두 내부 전용 데이터셋으로 축적되어 있다.
-
-
-
이 데이터가 설계자동화 AI의 훈련 데이터
-
이 히스토리를 기반으로
-
자동 배치·배선
-
전력망·클럭 트리 설계 가이드
-
설계 변경 시 품질 영향 예측
을 수행하는 설계 어시스턴트 AI를 만들 수 있다.
-
-
즉, 과거의 Try & Error 자체가 설계자동화 AI의 해자가 되고,
이를 많이 가진 회사일수록 같은 OPEX로 더 많은·더 복잡한 칩을 더 빨리 설계할 수 있다.
-
-
OPEX보다 더 빠르게 증가하는 마진
-
Broadcom AI 매출은 폭발적으로 늘지만,
R&D·인건비 등 OPEX는 같은 비율로 증가하지 않고 운영 레버리지가 붙고 있다. -
이는 설계자동화·조직 학습력이 실제로
비용 구조 개선과 마진 레버리지로 연결되고 있음을 시사한다.
-
-
플라이휠 구조
정리하면 Broadcom의 플라이휠은 다음과 같다.
-
AI 추론 수요 폭증
→ XPU·이더넷·랙 프로젝트 증가
→ Try & Error 설계 데이터 축적
→ 설계자동화 AI·조직 학습력 강화
→ 같은 OPEX로 더 많은·더 복잡한 칩, 더 빠른 타임투마켓
→ 높은 수익성·현금흐름
→ R&D·CAPA·TSMC 계약에 재투자
→ 기술·공급망·레퍼런스 우위 강화
→ 고객 Lock-in 심화
→ 다시 Broadcom이 AI 인프라 수요의 더 큰 몫을 흡수
여기에
-
GPU 진영의 1~1.5년 세대 레이스,
-
“1세대 삐끗하면 회복이 어려운 구조”,
-
DeepSeek vs Gemini 3가 보여준 글로벌 컴퓨팅 격차,
-
Broadcom·Marvell 중심 ASIC 올리고폴리,
-
MediaTek의 상대적 후발·부분 벤더 위치,
-
그리고 XPU 백엔드 경험과 통신/스위치·데이터센터 물리 설계 역량이 서로 피드백을 주는 구조
가 겹치면서,
AI 경쟁이 치열해질수록 오히려 Broadcom 내부에 축적되는 역량과 데이터가
더 강한 해자와 플라이휠을 만들어낸다는 그림이 자연스럽게 나온다.
이 모든 요소를 종합할 때,
Broadcom은 단순한 칩 공급자가 아니라,
Scaling law를 실질적으로 실행해 줄 수 있는 AI 인프라 플랫폼의 한 축이며,
시간이 갈수록 해자가 두터워지는 구조적 수혜자
라고 볼 수 있다.
시장이 노이즈로 쉬어갈때 가끔씩 이렇게 생각을 정리할겸 개별기업에 대한 생각을 글로 남겨보는것도 괜찮지 않을까 싶다.
=끝