예전 연기금 주식운용팀에 합류했을 때, 나는 Goldman Sachs 리서치자료를 볼 수 있는 아이디를 받았었다. 그때 내가 GS 보고서를 읽은 목적은 단순했다. ‘답’을 찾기 위해서가 아니라, 언젠가 보고서 없이도 스스로 판단할 수 있도록 나만의 정보 체계와 분석 루틴을 만들기 위해서였다.
그래서 매일 밤낮으로 보고서를 훑어보며, 숫자를 쌓는 방식, 가설을 세우는 방식, 산업을 해석하는 프레임을 통째로 흡수하려 했다.
이후 연기금에서 나온 뒤 GS 아이디는 자연스럽게 만료되었다. 접근권은 사라졌지만, 그때 배운 “정보를 정리하는 관점”은 남았다. 이번 글은 그 시절 이후로 이어져 온 몇 가지 경험을 기록하려는 서문이다.
마침 2023년부터 AI에 대한 관심이 커지면서, 나는 AI Tech 가운데 특히 H/W를 담당하던 한 애널리스트의 보고서와 어닝모델을 꽤 참고하던 시기가 있었다. 동시에 나는 내 방식대로 미국 기업들의 어닝콜을 직접 듣고 요약하고, 어닝모델을 만들어가고 있었다.
어느 날, 예전에 받았던 GS 아이디로 접속해 그 애널리스트가 같은 기업을 어떻게 봤는지 확인해봤다. 그런데 내가 만든 추정치와 그의 모델이 너무 달랐다. 더 인상적이었던 것은 보고서 말미의 코멘트였다. 그는 어닝콜을 주도하던 C레벨에게 “좀 더 분발하셔야겠네요”라는 다소 이례적인 문장을 남겼다. 당시에는 ‘악감정이 있나’ 싶은 생각까지 들었다.
시간이 지나 2024~2025년, NVDA 밸류체인만 유독 주가·실적 모멘텀이 강하던 국면이 있었다. 그 무렵 그 애널리스트는 NVDA 밸류체인에 속하지 못한 한 반도체 장비사에 대해 스트롱바이 의견을 냈다.
나도 그 장비사의 어닝콜을 분기마다 정리하며 모델을 만들고 있었지만, 당시에는 뚜렷한 모멘텀이 잘 보이지 않았다. 몇 달을 지켜보니, 주가와 실적은 기대만큼 따라오지 않았고 오히려 시간이 갈수록 가이던스를 하회하는 발표가 이어지며 주가도 하락했다.
그런데 어느 날, 그 애널리스트가 ‘지금 AI 시대를 개척해가는 최고의 기업’으로 이직했다는 소식을 링크드인에서 보게 되었다. 묘하게 허탈했다. 동시에 하나를 깨달았다. 나는 그동안, 미국 기업을 현지에서 트래킹하고 기업과 직접 미팅·통화하며 정보를 축적해 온 그의 “정보 우위”와 “이해도”에 생각보다 많이 심리적으로 기대고 있었다.
그 이후부터 나는 다짐했다. IB 리서치에 대한 의존을 끊고, 해외 기업 어닝콜과 모델링을 더 집요하게 반복해 독립적인 판단 체계를 만들겠다고.
그리고 며칠 전, 네이버의 한 유명 블로거 글을 읽다가 뒤늦게 퍼즐이 맞춰졌다. 왜 그 애널리스트가 과거 특정 미국 IDM CEO에게 유독 날이 서 있었는지, 그 배경을 이해하게 된 것이다.
그 순간 머리를 얻어맞은 느낌이었다. 업계에서 오래 일했고 회사를 대표하는 CEO라 해도, 편향에서 자유로울 수 없고, 업계 동향을 완벽히 파악하지 못한 채 수년간 회사를 이끌 수도 있다. 나는 ‘대형사 CEO면 당연히 맞겠지’ ‘그렇게까지 틀릴 리 없지’라는 직함의 권위에, 나도 모르게 기대고 있었던 셈이다.
그래서 과거 그 문장—“좀 더 분발하셔야겠네요”—가 다시 떠올랐고, 이제서야 그 의미를 이해할 수 있게 되었다.
더 아이러니한 것은, 그 애널리스트가 마지막으로 스트롱바이를 외치고 떠났던 그 장비사가 지금은 창사 이래 최고 신고가를 이어가고 있다는 사실이다. 경쟁사들보다 더 큰 폭의 어닝 상향과 이익 성장률을 보여주며 시장의 평가를 새로 쓰고 있다.
그리고 이제 그는 애널리스트가 아니라 CFO로서 IR과 어닝콜을 주도한다. 이어폰 너머로 그의 목소리를 들을 때마다, 그 시절의 감정과 배움, 그리고 ‘독립적인 사고체계’이라는 단어가 다시 떠오른다.
이번 글은 그 경험에서 출발한다.
Agent AI시대에 HDD를 주력으로 운영해온 기업이 그간 폄하해왔던 eSSD에 대한 개인적인 생각이다.
메모리 수요가 AI 시대에 폭발적으로 증가하는 이유
그리고 왜 Agent AI·Physical AI가 NAND(eSSD) 상각을 전면으로 끌어올리는가
출처(문제의식 인용): 이동수 네이버클라우드 전무 페이스북 원문
한 장 요약(핵심 결론 5줄)
생성형 AI 이후 메모리(파라미터·컨텍스트·상태)가 성능과 직접 결합하는 구조가 형성되었다.
Agentic AI는 컨텍스트를 재사용 가능한 자산으로 만들며, HBM/DRAM 밖의 외부 메모리 계층을 요구한다.
외부 메모리 계층의 현실적 구현은 NVMe eSSD이며, 이때 SSD는 “저장”이 아니라 “메모리처럼” 쓰이기 시작한다.
SSD는 TBW/DWPD로 표현되는 쓰기 내구성이 유한하므로, 쓰기 트래픽 증가는 곧 상각 가속 또는 고내구 eSSD 채택으로 연결된다.
Physical AI(로봇)에서도 단기·장기 메모리가 자율작업 성능을 좌우하며, 온디바이스–엣지–클라우드로 메모리 계층이 확장될수록 SSD write와 상각 압력이 구조적으로 커진다.
0) 문제의식: AI 시대에는 메모리를 숨길 수 없다
“CPU 시대에는 캐시가 메모리를 가렸다.
스트리밍 시대에는 네트워크가 저장을 대체했다.
AI 시대에는 메모리를 숨길 수 없다.
메모리는 이제 지능의 물리적 기반이며, 협업의 토대다.”
출처: 이동수 전무 페이스북 원문
이 문장은 “왜 지금 메모리인가”를 한 문단으로 정리한다. 과거에는 캐시(locality)가 메모리 접근을 가렸고, 콘텐츠는 스트리밍으로 저장 수요가 일부 대체되었다. 그러나 생성형 AI는 메모리를 더 쓰는 것이 성능으로 직결되는 구조를 만든다.
1) AI 시대 메모리 수요가 구조적으로 늘어나는 이유
과거(트래픽 중심 시대) 메모리는 서버 수에 따라 늘어나는 수평 확장에 가까웠다. 메모리를 많이 쓴다고 서비스 품질이 근본적으로 점프하지는 않았고, 설계의 목표는 “메모리를 아끼기”였다.
하지만 생성형 AI 이후로는 전제가 바뀌었다.
**더 큰 모델(파라미터 증가)**은 더 많은 지식을 담는다.
**더 긴 컨텍스트(작업 기억 확장)**는 더 깊은 이해와 더 안정적인 추론을 만든다.
**더 많은 에이전트(상태·협업 확장)**는 더 복잡한 작업을 수행한다.
즉 “메모리를 늘리면 능력이 올라가는 구조”가 생겼다. 그래서 메모리 수요 증가는 경기순환적 유행이라기보다 아키텍처 변화가 만든 구조적 추세에 가깝다.
2) Agentic AI: 컨텍스트는 ‘휘발’이 아니라 ‘재사용 가능한 자산’이 된다
Agentic AI는 단발 질의가 아니라 **멀티스텝 체인(툴 호출·검증·재시도·역할 분담)**으로 움직인다. 이 구조에서 컨텍스트와 KV 캐시는 “잠깐 쓰고 버리는 데이터”가 아니라, 다음 단계에서 다시 쓰면 GPU 낭비를 줄일 수 있는 재사용 자산이 된다.
이 방향을 시스템 아키텍처로 밀어붙이는 사례가 이미 등장한다.
NVIDIA는 BlueField-4 기반 **추론 컨텍스트 메모리 저장 플랫폼(ICMSP)**을 소개하며, **재사용 가능한 추론 컨텍스트를 별도의 ‘컨텍스트 메모리 티어’에 저장하고 GPU 근처로 미리 적재(프리스테이징)**하는 설계를 강조한다.
삼성은 KV 캐시를 NVMe 등 외부 자원으로 오프로딩하는 구조에서, 멀티노드/마이그레이션 시 로컬 GPU 메모리에만 둘 경우 “소실→재생성 비용”이 발생한다는 문제를 정리한다.
여기서 결론은 단순하다. 컨텍스트가 커질수록 HBM/DRAM만으로는 부족해지고, 시스템은 HBM/DRAM 밖에 외부 메모리 계층을 둔다. 이 외부 계층의 가장 현실적인 구현이 NVMe eSSD이다.
3) 왜 NAND(eSSD) ‘상각’이 핵심 변수가 되는가
Agent AI에서 SSD는 “모델 파일을 저장하는 장치”에서, “컨텍스트를 계속 읽고 쓰는 외부 메모리”로 변한다. 역할이 바뀌면 비용 함수도 바뀐다.
3-1. SSD는 ‘쓰면 닳는 자산’이다
SSD 내구성은 TBW(총 쓰기 허용량), **DWPD(하루에 드라이브 전체 용량을 몇 번까지 쓸 수 있는가)**로 표현된다. 즉 SSD는 쓰기량이 늘수록 수명이 소진된다.
컨텍스트 워크로드가 읽기 중심에서 읽기/쓰기 혼합으로 이동하면 다음 중 하나(또는 복수)가 발생한다.
같은 SSD를 더 자주 교체한다 → 상각 가속
더 높은 DWPD 등급(eSSD)을 채택한다 → CAPEX 상승
결과적으로 TCO 상승 압력이 커진다
핵심은 “SSD를 더 많이 쓴다”가 아니라, “SSD를 메모리처럼 쓰면서 쓰기 소모가 비용 변수로 들어온다”는 점이다.
3-2. 공급이 타이트한 구간에서는 상각이 더 빨라진다
쓰기 총량이 늘어났을 때 SSD를 충분히 추가 배치해 부담을 분산하면 DWPD를 낮출 수 있다. 그러나 공급 제약·가격 상승·리드타임이 겹치면 SSD를 원하는 만큼 늘리기 어렵고, 결과적으로 SSD 1개당 DWPD 상승 압력이 커진다. 이때 상각 가속 위험이 커진다.
4) Physical AI(로봇): 메모리는 ‘자율작업 성능’의 기반이 된다 (재작성)
이 논리는 로봇(Physical AI)에서 오히려 더 노골적으로 드러난다. 이유는 로봇이 일하는 현실 세계가 **항상 ‘불완전한 입력’**만 제공하기 때문이다. 로봇은 카메라가 비추는 범위만 볼 수 있고, 물체는 사람이나 문에 가려졌다가 다시 나타나기도 하며, 조명 변화나 센서 노이즈로 인해 같은 장면이 다르게 인식되기도 한다.
즉 로봇이 매 순간 얻는 정보는 “세계의 전체 모습”이 아니라 조각난 단서들에 가깝다.
그런데 로봇 과업은 대개 길게 이어진다. 예를 들어 ‘물건을 찾아 집어 올려 정리하기’ 같은 작업도
(찾기 → 접근 → 집기 → 옮기기 → 놓기 → 다음 물건으로 이동)처럼 여러 단계로 진행된다. 이 과정에서 로봇에게 중요한 것은 “지금 프레임에서 보이는 것”만이 아니라,
방금 물건이 어디에 있었는지(가려지기 전 위치),
내가 이미 어떤 행동을 시도했고 무엇이 실패했는지,
지금까지 작업이 어디까지 진행됐는지(진행률),
같은 누적된 상태 정보이다.
따라서 로봇은 “현재 화면만 보고” 즉흥적으로 행동하면 쉽게 흔들린다. 물체가 잠깐 가려지면 목표를 잃고 멈추거나, 같은 실패 동작을 반복하거나, 작업 순서를 잊고 되돌아가는 문제가 생긴다. 결국 로봇 자율작업의 핵심은 센서 입력 그 자체가 아니라, 그 입력을 시간축으로 묶어 세계의 상태를 복원하고 유지하는 능력, 즉 메모리로 귀결된다.
Physical Intelligence 팀이 VLA 모델에 단기 시각 메모리와 장기 의미(시맨틱) 메모리를 제공하는 **다중 스케일 체현 기억(MEM)**을 개발했다고 설명하는 이유도 여기에 있다. 메모리가 없으면 반복 실패, 멈춤, 시간 감각 상실 등 현실에서 어려움을 겪는다는 메시지다.
출처: https://x.com/i/status/2028954630458401040
정리하면 로봇에서 메모리 증설이 성능 개선으로 이어지는 이유는 다음처럼 단순하게 설명할 수 있다.
단기 메모리는 “방금 봤던 세계”를 유지해 가려짐·센서 결손에도 행동의 연속성을 만든다.
장기 메모리는 “무엇을 왜 했는지”를 축적해 반복 실패를 줄이고 다음 시도에서 더 나은 선택을 가능하게 한다.
즉 Physical AI에서도 메모리는 비용이 아니라 능력(자율성)의 기반이다.
5) 촘촘한 연결: 로봇 메모리 확장 → 온디바이스/엣지/클라우드 계층화 → SSD write 증가(상각)
로봇의 메모리 증설은 로봇 내부 RAM 증설로 끝나기 어렵다. 현실적으로 로봇 시스템은 다음을 동시에 요구한다.
로봇 내부에서 빠르게 쓰는 단기 캐시(시각/궤적 버퍼)
엣지/현장 서버의 중기 작업공간(캐시·인덱스·리플레이 버퍼)
데이터센터의 장기 의미 메모리(지식·장면·경험 저장소)
이 3계층이 결합되는 순간 SSD는 “저장소”가 아니라 반복 업데이트되는 메모리 장치로 동작한다. 그 결과 SSD 쓰기량이 구조적으로 증가하고, 곧 상각 압력이 비용 변수로 올라온다.
데이터 흐름/계층도(한글 버전)
SSD write가 늘어나는 지점은 다음과 같이 정리된다.
로봇 단기 메모리의 체크포인트가 엣지 eSSD에 기록된다.
엣지에서 임베딩/검색 인덱스가 지속 업데이트된다.
데이터센터의 장기 의미 메모리가 학습·검색을 위해 계속 갱신된다.
Agent AI에서는 KV 캐시/컨텍스트가 NVMe 계층에 저장·프리스테이징되며 반복적으로 읽고 쓰인다.
삼성 KV 캐시 오프로딩: https://download.semiconductor.samsung.com/resources/white-paper/scaling_ai_inference_with_kv_cache_offloading.pdf
6) 왜 Agent AI 시대에는 HDD보다 eSSD 수요가 구조적으로 더 증가할 수밖에 없는가
HDD는 여전히 아카이브·백업·원천 데이터 레이크 같은 **콜드 스토리지(최저 비용/GB)**에서 강하다. 문제는 Agent AI가 폭증시키는 데이터가 콜드 데이터가 아니라, “자주 읽고 쓰며 다시 꺼내는” 핫 컨텍스트라는 점이다.
Agent AI 관점에서 스토리지 선택 기준은 “싼 저장”이 아니라 다음 3가지로 이동한다.
저지연: 컨텍스트를 늦게 가져오면 GPU가 기다린다.
고IOPS·동시성: 멀티 세션·멀티 에이전트는 작은 단위의 랜덤 I/O를 동시에 발생시킨다.
읽기/쓰기 혼합: 컨텍스트는 저장이 아니라 갱신·재사용이 반복된다.
이 패턴은 HDD의 약점 구간이고, NVMe eSSD의 주력 구간이다. 더 나아가 GPU가 비쌀수록(=유휴 비용이 커질수록) 저장장치 선택은 $/GB보다 GPU 활용률을 지키는 장치로 수렴한다. 결과적으로 증가하는 수요의 중심은 HDD가 아니라 eSSD가 위치한 핫 티어로 이동할 가능성이 높다.
결론: AI 인프라의 다음 질문은 ‘용량’이 아니라 ‘쓰기·상각’이다
AI 시대에는 메모리를 숨길 수 없고, Agent AI·Physical AI는 메모리를 협업 인프라와 자율작업의 작업공간으로 확장한다. 그 확장의 핵심 구현이 NVMe eSSD인 이상, 스토리지는 단순 CAPEX가 아니라 CAPEX+상각으로 재해석된다.
트렌드포스: 1분기 낸드(NAND) 가격 90% 급등 전망
=끝
댓글 없음:
댓글 쓰기