이전 리서치에 이어 추가로 이번엔 메모리 IP에 대한 리서치 기록을 남겨본다.
생각정리 208 (* ARM CPU, TSMC, Memory)
생각정리 178 (* VAST Data, Optical Interconnect)
생각정리 176 (* Agent AI, VRAM)
AI 시대의 숨은 병목: 왜 메모리 IP 사업이 중요해지는가
AI 인프라를 이야기할 때 가장 먼저 떠오르는 것은 GPU와 HBM이다.
GPU는 AI 모델을 계산하는 엔진이고, HBM은 그 GPU 옆에서 데이터를 빠르게 공급하는 고속 메모리다.
하지만 AI 시스템이 커질수록 질문은 조금 달라진다.
GPU를 얼마나 많이 사느냐보다, 그 GPU가 멈추지 않도록 데이터를 얼마나 빠르고 효율적으로 공급할 수 있느냐가 중요해지고 있다.
이 질문의 중심에 메모리 계층이 있다.
메모리 계층이란 데이터를 저장하고 불러오는 여러 단계의 구조를 뜻한다. GPU 옆의 HBM, CPU 주변의 DDR 메모리, CXL 메모리, SSD, 원격 스토리지까지 모두 여기에 포함된다.
그리고 이 메모리 계층을 실제 반도체와 서버 안에서 작동하게 만드는 기술이 메모리 IP다.
메모리 IP는 HBM, DDR, LPDDR, GDDR 같은 메모리를 칩에 연결하고 제어하기 위한 설계 자산이다. 대표적으로 메모리 컨트롤러, PHY, 인터페이스 IP, 검증 IP가 포함된다.
과거에는 반도체 설계의 한 부품처럼 보였던 영역이다. 그러나 AI 시대에는 시스템 성능과 전력 효율을 결정하는 핵심 관문으로 올라오고 있다.
1. AI 발전의 병목은 두 축으로 이동하고 있다
1-1. 첫 번째 병목: 데이터 이동과 East-West 트래픽
초기 AI 인프라 경쟁의 중심은 GPU 연산 성능이었다.
더 많은 GPU, 더 빠른 GPU, 더 큰 모델이 중요한 키워드였다.
그러나 LLM과 Agent AI가 확산되면서 병목은 점점 연산 자체에서 데이터 이동으로 옮겨가고 있다.
LLM은 답변을 만들 때 이전 토큰의 계산 결과를 저장해둔다. 이를 KV 캐시라고 한다. 이전 계산 결과를 저장해두면 같은 계산을 반복하지 않아도 되기 때문에 추론 속도를 높일 수 있다.
문제는 KV 캐시가 메모리를 많이 차지한다는 점이다.
컨텍스트가 길어질수록 KV 캐시는 커진다. 동시에 처리하는 사용자가 많아질수록 필요한 메모리는 더 빠르게 증가한다. NVIDIA도 긴 컨텍스트와 큰 배치 사이즈에서 KV 캐시가 메모리 병목을 만든다고 설명했고, NVFP4 KV cache를 통해 KV 캐시 메모리 사용량을 최대 50% 줄일 수 있다고 밝혔다. (NVIDIA Developer)
여기서 중요한 변화가 시작된다.
KV 캐시와 에이전트 컨텍스트가 GPU HBM 안에만 머무르기 어려워지면, 데이터는 GPU HBM, CPU DRAM, CXL 메모리, NVMe SSD, 원격 스토리지 사이를 이동하기 시작한다.
즉, 데이터가 한 곳에 가만히 있는 것이 아니라 여러 메모리 계층 사이를 계속 오가는 구조가 된다.
이때 서버 안에서만 움직이는 데이터보다 더 큰 문제가 생긴다. GPU와 GPU, 서버와 서버, 랙과 랙 사이를 오가는 East-West 트래픽이 급증한다.
데이터가 멀리 이동할수록 전력 소모도 커진다. 지연시간도 길어진다. AI 데이터센터에서는 계산보다 데이터를 옮기는 과정이 더 큰 병목이 되는 순간이 생긴다.
그래서 앞으로의 AI 인프라 경쟁력은 GPU 숫자만으로 결정되지 않는다.
데이터를 얼마나 가까운 곳에 두는가.
얼마나 적은 전력으로 이동시키는가.
필요한 데이터를 얼마나 빠르게 다시 불러오는가.
이 세 가지가 점점 더 중요해진다.
NVIDIA가 BlueField-4 기반 CMX(Context Memory Storage Platform)를 제시한 것도 같은 맥락이다. NVIDIA는 CMX를 long-context, multi-turn, agentic AI inference를 위한 AI-native context tier로 설명하며, GPU 메모리를 pod-level shared context tier로 확장하는 방향을 제시하고 있다. (NVIDIA)
쉽게 말하면, GPU 안의 HBM만으로 모든 컨텍스트를 감당하기 어려워지자, GPU 밖에 새로운 메모리 계층을 만들고 이를 빠르게 연결하려는 시도다.
1-2. 두 번째 병목: Agent AI와 CPU 오케스트레이션
두 번째 병목은 CPU 오케스트레이션이다.
기존 챗봇형 AI는 비교적 단순했다.
사용자가 질문하면 모델이 답변을 생성하는 구조였다.
Agent AI에서는 구조가 훨씬 복잡해진다.
하나의 요청이 여러 단계로 나뉜다. 계획을 세우는 에이전트, 검색하는 에이전트, 코드를 실행하는 에이전트, 결과를 검증하는 에이전트가 동시에 움직인다.
이 과정에서 CPU의 역할이 커진다.
CPU는 단순히 GPU를 보조하는 장치에 머무르지 않는다. 작업을 나누고, 각 에이전트에 태스크를 배분하고, GPU와 메모리, 스토리지, 네트워크 사이의 흐름을 조율한다.
즉, Agent AI 시대의 CPU는 오케스트레이터에 가깝다.
오케스트라에서 지휘자가 여러 악기의 타이밍을 맞추듯, CPU는 여러 에이전트와 하드웨어 자원을 조율한다.
이때 CPU 주변의 메모리 계층도 중요해진다.
GPU HBM만 좋아져서는 충분하지 않다. CPU DRAM 대역폭, DDR5 RDIMM, MRDIMM, CXL 메모리, PCIe/CXL 인터커넥트가 함께 좋아져야 한다.
Agent AI는 GPU HBM 병목뿐 아니라 CPU 메모리 병목도 함께 키운다.
이 흐름은 서버 메모리 인터페이스, 메모리 컨트롤러, PHY, CXL, PCIe 관련 IP의 중요성을 높인다.
2. 왜 이 흐름이 메모리 IP 사업자에게 순풍인가
메모리 IP 사업자의 수혜 경로는 어렵지 않다.
AI 칩과 AI 서버가 더 많은 메모리를 필요로 할수록, 그 메모리를 연결하고 제어하는 기술도 더 많이 필요해진다.
반도체 칩은 HBM이나 DDR을 물리적으로 붙인다고 바로 작동하지 않는다. 칩이 메모리와 데이터를 주고받으려면 중간에 여러 설계 블록이 필요하다.
여기서 핵심이 메모리 컨트롤러와 PHY다.
메모리 컨트롤러는 데이터를 언제, 어떤 순서로, 어떤 우선순위로 메모리에 보낼지 결정한다.
PHY는 실제 전기 신호를 주고받는 물리 계층이다.
검증 IP는 이 인터페이스가 실제 칩과 패키지에서 안정적으로 동작하는지 확인하는 역할을 한다.
AI 시스템이 복잡해질수록 이 IP들의 가치는 커진다.
첫째, HBM 세대 전환이 빨라진다.
HBM3E에서 HBM4, HBM4E로 갈수록 대역폭은 커지고 인터페이스는 복잡해진다.
둘째, CPU 메모리 계층이 커진다.
DDR5 RDIMM, MRDIMM, CXL 메모리 같은 구조가 중요해지면 CPU 주변 메모리 인터페이스 칩과 IP 수요가 늘어난다.
셋째, 칩렛과 2.5D 패키징이 확산된다.
AI ASIC과 GPU는 HBM을 로직 다이 옆에 붙인다. 이때 로직 다이, HBM 스택, 인터포저, 패키지를 함께 설계해야 한다.
넷째, 실패 비용이 커진다.
AI ASIC 하나를 개발하는 데 막대한 비용이 들어간다. 메모리 인터페이스 오류로 칩이 제대로 동작하지 않으면 손실이 매우 크다. 고객 입장에서는 자체 개발보다 검증된 IP를 사는 편이 합리적이다.
결국 메모리 IP 사업자는 AI 인프라 확산에서 보이지 않는 톨게이트 역할을 한다.
AI 칩이 HBM을 쓰고, CPU가 더 큰 DDR5 메모리를 쓰고, 서버가 CXL과 MRDIMM을 채택할수록 메모리 IP의 중요성도 함께 커진다.
3. 대표 메모리 IP 3사: Rambus, Cadence, Synopsys
메모리 계층 IP에서 대표적인 회사를 꼽으면 Rambus, Cadence, Synopsys다.
다만 세 회사의 성격은 다르다.
Rambus는 서버 메모리 모듈과 메모리 특허 라이선스에 더 직접적으로 연결되어 있다.
Cadence와 Synopsys는 AI ASIC, GPU, CPU, NPU 설계자가 HBM·DDR·LPDDR·CXL 등을 붙일 수 있도록 설계 IP와 EDA 플랫폼을 제공한다.
같은 메모리 IP 수혜주로 묶을 수 있지만, 수혜의 경로는 다르게 봐야 한다.
3-1. Rambus: 가장 직접적인 메모리 계층 수혜주
Rambus는 세 회사 중 메모리 계층 노출도가 가장 직접적이다.
Rambus는 DDR5 서버 메모리 모듈에 들어가는 RCD, MRCD, MDB, PMIC, SPD Hub, 온도 센서 등을 제공한다. Rambus는 DDR5 RDIMM용 RCD·PMIC·SPD Hub·온도 센서와 DDR5 MRDIMM용 MRCD·MDB·PMIC·SPD Hub·온도 센서를 지원한다고 설명한다. (Rambus)
특히 Rambus는 DDR5 RDIMM 8000과 MRDIMM 12800용 완성형 칩셋을 공개했다.
MRDIMM 12800은 두 개의 DRAM rank를 multiplexing해 host memory bus가 native DRAM보다 두 배의 데이터 속도로 동작할 수 있도록 설계된다. Rambus는 MRDIMM 12800 하나에 MRCD 1개와 MDB 10개가 필요하다고 설명한다. (Rambus)
이 부분이 중요하다.
Rambus의 수혜는 단순히 메모리 시장이 좋아지는 데서 끝나지 않는다. 서버 메모리 모듈이 고속화되고 구조가 복잡해질수록, 모듈 하나에 들어가는 Rambus 관련 칩의 수와 가치가 늘어날 수 있다.
즉, Rambus는 서버 메모리 모듈의 복잡도 증가에 직접 노출된 회사다.
또 하나의 중요한 차별점이 있다.
Rambus는 삼성전자, SK하이닉스, 마이크론과 장기 특허 라이선스 계약을 맺고 있다. 이 점이 Cadence, Synopsys와 Rambus를 구분하는 핵심이다.
3-2. Cadence: 메모리 IP와 EDA 플랫폼의 결합
Cadence는 Rambus처럼 서버 메모리 모듈용 칩을 직접 파는 회사라기보다, 반도체 설계자가 HBM·DDR·LPDDR·GDDR을 칩에 붙일 수 있도록 돕는 회사다.
Cadence는 메모리 컨트롤러, PHY, 검증 IP, 설계 툴을 함께 제공한다.
Cadence의 HBM4E PHY and Controller IP는 AI/ML, 그래픽, 고성능 컴퓨팅용으로 설계되어 있으며, PHY, controller, interposer, package까지 포함한 complete HBM solution을 제공한다고 설명된다. (Cadence)
Cadence의 강점은 메모리 IP가 단독 제품으로 끝나지 않는다는 점이다.
AI ASIC 고객에게 필요한 것은 HBM 컨트롤러 하나가 아니다. HBM이 실제 패키지 위에서 안정적으로 동작하도록 만드는 전체 설계 환경이 필요하다.
여기에는 EDA 툴, 검증 환경, 3D-IC 패키지 설계, 전력·신호 무결성 분석이 모두 포함된다.
Cadence는 이 전체 과정을 묶어서 제공할 수 있다. 그래서 Cadence는 메모리 IP 단품보다 AI 칩 설계 복잡도 상승의 플랫폼형 수혜주로 보는 것이 적절하다.
3-3. Synopsys: 가장 넓은 Design IP 플랫폼
Synopsys는 Cadence와 함께 EDA/IP 시장의 핵심 기업이다.
Synopsys의 DesignWare IP는 HBM, DDR, LPDDR, PCIe, CXL, UCIe 등 다양한 인터페이스 IP를 포함한다.
Synopsys는 HBM4 PHY IP를 HPC, AI, 그래픽, 네트워킹 ASIC·ASSP·SoC용으로 제공하며, 최대 12Gbps per data pin을 지원한다고 설명한다. HBM4 PHY는 HBM4 Controller IP와 memory model VIP까지 결합해 complete HBM4 interface solution을 구성한다. (Synopsys)
또한 Synopsys HBM4 Controller IP는 JEDEC HBM4 표준을 지원하고, 전력·지연시간·대역폭·면적 최적화를 목표로 한다. QoS, refresh management, power-saving, RAS, ECC 같은 기능도 포함된다. (Synopsys)
Synopsys의 강점은 포트폴리오의 폭이다.
HBM뿐 아니라 DDR, LPDDR, CXL, PCIe, UCIe, embedded memory, verification IP까지 넓게 제공한다. AI 칩이 chiplet 구조로 가고, 메모리와 인터커넥트가 동시에 복잡해질수록 Synopsys의 IP attach 기회는 커진다.
다만 Rambus와 비교하면 성격이 다르다.
Rambus가 메모리 계층에 더 직접적으로 노출되어 있다면, Synopsys는 EDA와 Design IP를 함께 제공하는 대형 설계 플랫폼에 가깝다.
4. Rambus의 핵심 차별점: 메모리 IDM 3사와의 장기 특허 라이선스
Rambus가 특히 중요한 이유는 DDR5 인터페이스 칩을 팔기 때문만은 아니다.
Rambus는 메모리 산업의 핵심 기업인 삼성전자, SK하이닉스, 마이크론과 장기 특허 라이선스 계약을 맺고 있다.
계약 조건과 세부 로열티율은 공개되어 있지 않다. 그러나 Rambus가 공식적으로 밝힌 계약 기간과 특허 접근권은 분명하다.
Rambus는 삼성전자와의 계약에 대해 기존 재무 조건을 대체로 유지하면서 Samsung에 Rambus 전체 특허 포트폴리오에 대한 broad access를 2033년 말까지 제공한다고 밝혔다. (Rambus)
SK하이닉스와의 계약도 유사하다. Rambus는 SK hynix와 포괄적 특허 라이선스 계약을 10년 연장했으며, 2024년 7월 1일부터 2034년 중반까지 SK hynix가 Rambus 전체 특허 포트폴리오에 broad access를 가진다고 설명했다. (Rambus)
마이크론과는 2024년 12월에 특허 라이선스 계약을 5년 연장했다. Rambus는 해당 계약이 기존 라이선스 조건을 유지하며, Micron에 2029년 말까지 Rambus 특허 포트폴리오에 대한 broad access를 제공한다고 밝혔다. (Rambus)
이 부분이 Rambus의 핵심 차별점이다.
Cadence와 Synopsys는 주로 AI ASIC, GPU, CPU, NPU 설계자가 HBM·DDR·LPDDR을 붙이기 위해 쓰는 설계 IP를 제공한다.
반면 Rambus는 메모리 IDM 자체와 장기 특허 라이선스 관계를 가지고 있다.
즉 Rambus는 두 개의 축을 동시에 가진다.
첫째, DDR5/MRDIMM 서버 메모리 모듈용 실물 칩 사업이다.
둘째, 메모리 산업 핵심 기업들과의 특허 라이선스 사업이다.
이 이중 구조는 실적에서도 확인된다. Rambus는 2025년에 연간 product revenue 3.48억달러, royalties 2.79억달러, total revenue 7.08억달러를 기록했다. 회사는 DDR5 RCD 리더십과 신제품 기여를 product revenue 성장 요인으로 언급했다. (Rambus)
5. Rambus 주력 제품을 쉽게 이해하기
Rambus를 이해하려면 서버 메모리 모듈 용어를 먼저 정리할 필요가 있다.
전문용어가 많지만, 큰 그림은 단순하다.
서버 CPU가 더 많은 메모리를 더 빠르고 안정적으로 쓰려면, 메모리 모듈 안에 신호를 정리하는 칩, 데이터를 나눠주는 칩, 전력을 관리하는 칩이 필요하다.
Rambus가 바로 이 칩들을 공급한다.
RDIMM: 서버용 안정화 메모리 모듈
RDIMM은 Registered DIMM의 약자다.
서버에서 쓰는 메모리 모듈이다. 일반 PC용 메모리보다 안정성과 확장성이 중요하다.
서버 CPU가 많은 DRAM 칩을 직접 제어하면 신호 부담이 커진다. 그래서 RDIMM은 중간에 RCD를 넣어 명령, 주소, 클럭 신호를 정리한다.
쉽게 말하면, RDIMM은 서버 CPU가 더 많은 메모리를 안정적으로 사용할 수 있게 해주는 메모리 모듈이다.
MRDIMM: 더 빠른 서버용 메모리 모듈
MRDIMM은 Multiplexed Rank DIMM의 약자다.
RDIMM보다 더 높은 대역폭을 목표로 하는 서버 메모리 모듈이다.
핵심은 여러 DRAM rank의 데이터 흐름을 번갈아 묶어서 더 빠른 전송 속도를 만드는 것이다.
Rambus에 따르면 DDR5 MRDIMM 12800은 두 개의 DRAM rank를 interleaving해 host memory bus가 native DRAM보다 두 배의 데이터 속도로 동작하도록 설계된다. 이를 위해 MRCD와 MDB가 필요하다. (Rambus)
쉽게 말하면, MRDIMM은 CPU가 더 빠르게 메모리에 접근할 수 있도록 만든 고대역폭 서버 메모리 모듈이다.
RCD: 메모리 모듈의 신호 지휘관
RCD는 Registering Clock Driver의 약자다.
RDIMM의 핵심 제어 칩이다. CPU에서 들어오는 command/address 신호와 clock 신호를 DRAM 칩들에 안정적으로 나눠준다.
Rambus는 RCD를 RDIMM에서 command/address와 clock을 DRAM 장치에 분배하는 핵심 control plane chip으로 설명한다. (Rambus)
쉽게 말하면, RCD는 서버 메모리 모듈 안에서 신호를 정리해주는 지휘관이다.
MRCD: MRDIMM용 고속 지휘관
MRCD는 Multiplexed Registering Clock Driver의 약자다.
MRDIMM용 RCD라고 이해하면 된다.
MRDIMM은 여러 DRAM rank를 번갈아 움직여 더 높은 대역폭을 만든다. 이때 MRCD는 여러 rank가 정해진 타이밍에 맞춰 움직이도록 제어한다.
쉽게 말하면, MRCD는 MRDIMM에서 여러 DRAM rank를 번갈아 움직이게 하는 고속 제어 칩이다.
MDB: MRDIMM의 데이터 배분 칩
MDB는 Multiplexed Data Buffer의 약자다.
MRDIMM에서 데이터 흐름을 올바른 DRAM 쪽으로 보내고 다시 받아오는 역할을 한다.
Rambus는 DDR5 MRDIMM 12800 하나에 MRCD 1개와 MDB 10개가 필요하다고 설명한다. (Rambus)
쉽게 말하면, MDB는 MRDIMM 안에서 데이터가 어느 DRAM으로 가야 하는지 안내하는 데이터 배분 칩이다.
PMIC: 메모리 모듈의 전력 관리자
PMIC는 Power Management IC의 약자다.
메모리 모듈에 필요한 전력을 관리하는 칩이다.
DDR5 세대에서는 전력 관리 기능이 메인보드에서 메모리 모듈 쪽으로 더 많이 이동했다. 그래서 메모리 모듈 안에서 전압을 조절하고 필요한 전력을 안정적으로 공급하는 PMIC의 역할이 중요해졌다.
쉽게 말하면, PMIC는 메모리 모듈 안의 전력 관리자다.
여기서 한 가지를 덧붙일 필요가 있다.
Rambus는 fabless 회사다. 회사는 메모리 인터페이스 칩을 제3자 파운드리와 제조 계약사를 통해 생산한다고 공시하고 있다. 다만 RCD, MRCD, MDB, PMIC 각각이 어느 파운드리의 몇 nm 공정에서 만들어지는지는 공개하지 않는다. (Securities and Exchange Commission)
따라서 Rambus의 투자 포인트를 3nm, 5nm 같은 선단공정 노출로 보는 것은 적절하지 않다.
더 중요한 포인트는 서버 메모리 모듈이 고속화되고 복잡해질수록 모듈당 Rambus가 공급할 수 있는 칩의 수와 가치가 늘어날 수 있다는 점이다.
SPD Hub와 Temperature Sensor: 메모리 모듈의 신분증과 체온계
SPD Hub는 메모리 모듈의 설정 정보와 상태 정보를 시스템에 전달하는 칩이다.
Temperature Sensor는 메모리 모듈의 온도를 측정한다.
서버 메모리는 안정성이 중요하기 때문에, 시스템은 메모리 모듈의 상태와 온도를 계속 확인해야 한다.
쉽게 말하면, SPD Hub와 온도 센서는 메모리 모듈의 신분증과 체온계 역할을 한다.
6. 세 회사 비교: 누가 어떤 순풍을 받는가
세 회사 모두 AI 메모리 계층 변화의 수혜를 받는다. 다만 수혜의 성격은 다르다.
Cadence와 Synopsys는 AI 칩 설계 복잡도 전체의 수혜를 받는다. HBM, DDR, LPDDR, CXL, PCIe, UCIe가 복잡해질수록 이들의 IP와 검증 툴 attach 기회가 증가한다.
Rambus는 더 직접적이다.
Rambus는 서버 메모리 모듈용 인터페이스 칩, 메모리 특허 라이선스, DDR5/MRDIMM 전환에 동시에 노출되어 있다.
7. 왜 Rambus가 가장 온전히 순풍을 맞을 수 있는가
첫째, 메모리 병목과 사업 구조가 직접 연결된다
AI 서버에서 CPU 메모리 병목이 커질수록 DDR5, RDIMM, MRDIMM의 중요성이 높아진다.
Rambus는 이 모듈에 들어가는 핵심 인터페이스 칩을 제공한다.
AI 인프라가 GPU 단품 성능 중심에서 CPU·GPU·메모리·스토리지 전체를 연결하는 구조로 바뀔수록 Rambus의 역할도 커진다.
둘째, 메모리 IDM 대상 장기 특허 라이선스 포지션을 가진다
Rambus의 가장 독특한 지점은 삼성전자, SK하이닉스, 마이크론과 장기 특허 라이선스 관계를 가지고 있다는 점이다.
계약의 세부 조건과 제품별 로열티율은 공개되어 있지 않다. 하지만 공식 발표 기준으로 Rambus가 메모리 IDM 3사에 장기적으로 특허 포트폴리오 접근권을 제공한다는 점은 확인된다.
이 구조는 Cadence나 Synopsys와 구별된다.
Cadence와 Synopsys는 주로 AI 칩 설계자가 메모리 인터페이스를 구현하기 위해 쓰는 IP를 판다. Rambus는 메모리 산업 자체의 표준과 제품 사이클에 더 직접적으로 연결되어 있다.
셋째, DDR5에서 MRDIMM으로 갈수록 Rambus의 silicon content가 늘어난다
RDIMM에서 MRDIMM으로 가면 메모리 모듈 구조가 더 복잡해진다.
기존 RDIMM에는 RCD, PMIC, SPD Hub, 온도 센서가 중요하다. MRDIMM에는 여기에 MRCD와 MDB가 추가된다.
특히 Rambus는 DDR5 MRDIMM 12800 하나에 MRCD 1개와 MDB 10개가 필요하다고 설명한다. (Rambus)
이 구조는 Rambus에 유리하다.
서버 메모리 모듈이 고속화될수록, 모듈 하나에 들어가는 Rambus 관련 칩의 수와 가치가 늘어날 수 있기 때문이다.
넷째, Rambus는 AI 인프라의 비연산 병목에 베팅하는 회사다
AI 투자에서 가장 눈에 띄는 자산은 GPU다.
그러나 앞으로의 병목은 GPU 연산보다 데이터 이동, 메모리 접근, CPU 오케스트레이션, 외부 메모리 계층에서 더 자주 발생할 가능성이 높다.
Rambus는 GPU 경쟁 그 자체보다, GPU가 제대로 일하기 위해 필요한 메모리 경로에 노출된다.
AI 서버가 많아지고, CPU 메모리 대역폭이 중요해지고, DDR5/MRDIMM 전환이 빨라질수록 Rambus의 수혜 경로는 더 선명해진다.
8. 결론: 메모리 IP는 AI 시대의 보이지 않는 톨게이트
AI 시스템은 더 많은 데이터를 기억하고, 불러오고, 재사용하는 방향으로 발전하고 있다.
긴 컨텍스트, 멀티 에이전트, KV 캐시, 외부 컨텍스트 메모리, CXL, MRDIMM, HBM4는 모두 같은 방향을 가리킨다.
AI의 병목은 연산에서 메모리와 데이터 이동으로 이동하고 있다.
이 변화 속에서 메모리 IP 사업자는 AI 인프라의 보이지 않는 톨게이트가 된다.
AI 칩이 HBM을 붙이고, CPU가 더 큰 DDR5 메모리를 쓰고, 서버가 MRDIMM과 CXL을 채택할수록 메모리 IP의 중요성은 커진다.
Cadence와 Synopsys는 이 흐름에서 AI 칩 설계 플랫폼으로 수혜를 받는다. 복잡한 HBM, DDR, LPDDR, CXL, PCIe, UCIe 설계가 늘어날수록 IP와 검증 툴의 attach 기회가 증가한다.
그중 Rambus는 더 직접적이다.
Rambus는 서버 메모리 인터페이스 칩, 메모리 IDM 대상 장기 특허 라이선스, DDR5/MRDIMM 전환에 동시에 노출되어 있다.
그래서 메모리 계층의 중요성이 커지는 큰 흐름에서 Rambus는 가장 온전히 순풍을 받을 수 있는 회사로 해석할 수 있다.
=끝
댓글 없음:
댓글 쓰기