2026년 2월 4일 수요일

생각정리 175 (* Anthropic Claude AI)

0. 메모리 급락을 맞고 나서야 보이기 시작한 것들


전날 미국장에서 메모리·반도체가 크게 밀린 뒤, 다시 Anthropic Claude를 처음부터 공부하게 됐다.

처음 아래 같은 차트와 기사들을 봤을 때는 솔직히
“그래서 뭐 어쩌라는 건데?” 정도의 느낌이었는데,
이제는 “아, 이게 진짜 시장이 반응할 만큼 중요한 이벤트였구나” 하는 정도의 감이 생겼달까..




어쨌든 **“시장이 실제로 움직였다”**는 사실이 중요하다.
그래서 이번 기회에 관련된 생각과 리서치를 한 번에 정리해 둔다.


1. 1월 말 소프트웨어·메모리 급락의 출발점: Anthropic와 ‘SaaS-pocalypse’


1-1. 촉발 요인: Cowork 플러그인 11개, 그중 “법률 플러그인”


2026년 1월 30일, Claude를 만든 Anthropic은 데스크톱 에이전트 앱인 Claude Cowork에 붙일 수 있는 오픈소스 플러그인 11개를 공개했다.
특히 시장을 자극한 것이 법률 업무 자동화 플러그인(Legal) 이다.

Anthropic 공식 플러그인 설명에 따르면, 이 플러그인은 다음을 자동화한다.

  • 계약서·문서 검토

  • 위험 조항(Harmful Clauses) 표시

  • NDA(비밀유지계약) 분류·검토

  • 컴플라이언스(규정 준수) 워크플로

  • 정형화된 법률 브리핑·답변 템플릿 작성

Anthropic Legal 플러그인 소개 페이지 (Claude)
GitHub 오픈소스 템플릿 (GitHub)

즉, “기업 내 인하우스 변호사 팀이 돈 받고 하는 반복적인 법률 실무”의 상당 부분을 에이전트가 처리하기 시작했다는 신호로 읽힌 것이다.


Cowork 플러그인 런칭을 다룬 기사들에서는, Anthropic이 판매 중인 플러그인 템플릿을 통해
법률, 재무, 세일즈, 마케팅 등 9~11개 직무에서 Claude가 “도메인 전문가처럼” 행동하도록 만들 수 있다고 설명한다. (Blockchain News)

1-2. 하루 만에 2,850억 달러 증발, “SaaS-pocalypse”

이 발표 직후 하루 동안, 글로벌 소프트웨어·데이터·IT 서비스 주식에서 약 2,850억 달러 시가총액이 증발했다는 분석이 나왔다.

이는 The Times of India가 요약한 기사에서 “하루 만에 소프트웨어 주식에서 2,850억 달러가 사라졌다”고 직접 언급된다. (The Times of India)




유럽 시장에서는 가디언 보도처럼, RELX(LexisNexis), Sage, Wolters Kluwer, Pearson, London Stock Exchange Group(LSEG) 등 법률·데이터·출판·거래소 소프트웨어 기업들이 **10% 안팎, 톰슨로이터는 18%**까지 급락했다. (가디언)




미국에서는 WSJ

  • S&P Global

  • FactSet

  • Intercontinental Exchange(ICE)

  • MSCI

  • LSEG


같은 금융·법률 데이터 업체들까지 두 자릿수 하락을 기록했다고 정리한다. (월스트리트저널)

이 일련의 움직임은 여러 매체에서 **“SaaS-pocalypse(소프트웨어 종말론)”**이라는 별칭으로 불렸다. (The Times of India)

투자자가 읽은 메시지는 매우 단순하다.

“이제 AI는 초급 변호사·애널리스트·컨설턴트가 하던 실무
직접 수행하는 단계로 들어섰다.”


그래서 매도는,

  1. 법률·데이터 소프트웨어

  2. → 일반 SaaS

  3. → 나스닥 성장주 전반

  4. 그리고 AI 인프라·반도체(메모리 포함)


까지 연쇄적으로 번졌다. 블룸버그·WSJ·NYPost·가디언 등은 이번 충격을 **“Anthropic의 새 AI 도구가 소프트웨어·금융·자산운용 섹터 전반에 걸친 2,800억 달러 매도 랠리를 촉발했다”**고 요약한다. (뉴욕 포스트)

따라서 어제(한국 기준) 메모리·반도체가 큰 폭으로 밀린 것은,

  • 메모리 업황이 갑자기 나빠져서가 아니라,

  • **“AI가 기존 소프트웨어·전문직 비즈니스 모델을 부숴버릴지 모른다”**는 공포가
    AI 인프라 주까지 확산된 결과에 가깝다고 보는 편이 타당하다.


2. Claude AI는 무엇이고, 왜 VS Code에서 Copilot과 다른가


2-1. Claude: “채팅봇”이 아니라 “업무 에이전트 플랫폼”으로


Claude는 처음에는 ChatGPT와 비슷한 대화형 LLM으로 시작했다.
그런데 2025~2026년 들어 방향이 명확히 “업무 에이전트 플랫폼” 쪽으로 이동하고 있다.

특히 개발 영역에서는 두 가지 축이 중요하다.

  1. Claude Code: VS Code용 확장(Extension)

  2. Cowork: 데스크톱 에이전트(지정한 폴더 안에서 파일을 읽고, 수정하고, 작업을 자동화)


Claude Code는 단순히 “코드 자동완성”을 넘어서서, 다음에 가까운 기능을 지향한다.

  • 프로젝트 단위로 전체 파일 구조를 이해하고

  • 구현 계획(Plan)을 세운 뒤

  • 여러 파일을 직접 수정하고

  • 터미널 명령(테스트·빌드)을 실행하고

  • 실패하면 로그를 읽고 다시 수정하는 반복 루프를 수행

Anthropic의 개발자 문서와 블로그는 Claude Code를 “코드베이스 전체를 탐색하고, 파일을 읽고·쓰기·실행까지 하는 자율형 개발 에이전트”로 포지셔닝한다. (Anthropic)

반면, GitHub Copilot은 출발점이 다르다.

  • 내가 지금 치고 있는 한 줄·한 함수의 자동완성

  • IDE 안에서의 “스마트한 코드 추천”에 최적화된 보조 도구

따라서 VS Code 안에서의 체감은 대략 이렇게 정리할 수 있다.

  • Copilot = 키보드 옆에 앉아 있는 똑똑한 비서

  • Claude Code = “이 기능 구현해 놔”라고 통째로 일을 맡길 수 있는 대리인(에이전트)

실제 기사들에서도 Claude Code를
“에이전트형 코딩 도구(agentic coding tool)”로 부르고,
Anthropic 내부 코드의 상당 부분이 이미 Claude로 작성되고 있다고 전한다. (Financial Times)

2-2. MS가 “당장 똑같이 못 따라붙는” 이유 (그러나 장기적으로는 따라갈 여지는 있음)


여기서 중요한 포인트는 **“MS가 기술이 없어서 뒤처진다”**는 식의 단순한 구도가 아니라는 점이다.

  1. 철학·거버넌스의 차이

  • MS는 거대 엔터프라이즈 고객(은행, 정부, 대기업)을 상대로 한다.
    이런 고객 입장에서 “AI가 코드 전체를 마음대로 수정한다”는 것은
    보안·감사·책임(Responsibility) 측면에서 매우 민감한 이슈다.

  • 그래서 Copilot은 지금까지 **“보조 도구 → 점진적 자율성 확대”**라는
    매우 점진적 전략을 택해 온 것으로 보인다.

  • 반대로 Anthropic은 **“실제 업무를 대행하는 에이전트”**까지
    비교적 빠른 속도로 실험하고 있다. Cowork 플러그인 구조 자체가
    “역할(role)·도구·절차를 한 번에 번들로 묶어, Claude가 ‘직군별 동료’처럼 행동하게 만드는 것”이다. (Creati.ai)

  1. 생태계 구조

  • VS Code는 MS가 만든 IDE지만, 확장은 누구나 올릴 수 있는 개방형 마켓이다.
    따라서 “VS Code = 곧 Copilot 독점”이 아니며,
    Claude Code 같은 경쟁자가 빠르게 뚫고 들어올 수 있다. (Visual Studio Marketplace)

  1. 엔터프라이즈 통제 vs 개발자 경험

  • MS 강점: 계정·보안·권한·온프레미스·컴플라이언스 같은 거버넌스·통합 능력

  • Anthropic 강점: **“개발자 경험(DX)”과 “에이전트 자율성”**을
    전면에 내세워 빠르게 점유율을 올리고 있다는 점

다만, MS는 여전히

  • GitHub 코드 허브

  • Azure 클라우드

  • 대규모 엔터프라이즈 계약·보안 체계

를 모두 쥐고 있다.
따라서 중장기적으로는 **“통제가 가능한 에이전트형 Copilot”**이라는 방향으로
충분히 반격이 가능한 구조이다.
지금은 VS Code 내에서 Claude가 에이전트 경험을 선도하고 있지만,
**“구조적으로 MS가 영원히 따라잡지 못한다”**고 말할 단계는 아직 아니다.


3. 법률 플러그인이 던진 메시지: “기능을 파는 SaaS”가 AI 플러그인으로 깎일 수 있다


이번 쇼크는 법률 업계만의 이야기가 아니다.


Anthropic의 Legal 플러그인은 요약하면:

  • 계약 검토

  • 위험 조항 하이라이트

  • 사내 규정·정책에 맞춘 자동 체크

  • 반복적인 질의응답·브리핑 자동화


를 하는 법률 실무 에이전트이다. (Claude)

중요한 점은,

  • 플러그인 템플릿이 오픈소스로 깔려 있고, (GitHub)

  • 비(非)개발자도 Cowork 앱 안에서 어느 정도 수정·설정이 가능하도록 설계됐다는 점이다. (Creati.ai)

투자자 입장에서는 이렇게 보인다.

“과거에는 특정 법률·컴플라이언스 업무를 효율화하는 SaaS를
비싼 구독료 받고 팔 수 있었다.
그런데 이제는 클라우드 LLM + 오픈소스 플러그인 조합으로
이 기능의 상당 부분을 대체할 수 있지 않나?”

 

실제로

  • 유럽의 RELX, Wolters Kluwer, Pearson, Sage, LSEG 등 출판·데이터·법률 기반 SaaS 기업이 10% 안팎으로 급락했고, (가디언)

  • 미국에서는 S&P Global, FactSet, ICE, MSCI 같은
    금융·법률 데이터 대기업들까지 주가가 크게 빠졌다. (월스트리트저널)

결국 이번 이벤트는,

“특정 기능(function)을 파는 SaaS”가
“범용 LLM + 도메인 특화 플러그인”으로 재조합될 수 있다

 

는 시나리오를 처음으로 시장이 체감한 사례라고 볼 수 있다.
그래서 소프트웨어 섹터 전체 밸류에이션에 구조적인 질문이 던져졌다.


4. 에이전트 강화 → AI 추론 가속 → VRAM·인프라 투자 확대


그리고 다보스에서 젠슨 황이 말한 “5계층 AI 케이크” + 제번스 역설


이제 핵심 질문으로 들어간다.

“VS Code에서 Claude 같은 에이전트가 강해질수록,
왜 AI 추론 시장이 가속되고,
GPU 메모리(VRAM)·HBM·서버 DRAM 수요에
구조적인 상방 압력이 생기는가?”


4-1. 에이전트형 코딩이 만드는 추론 패턴


에이전트형 코딩(Claude Code, Cowork)은 전통적인 “한 번 묻고 한 번 답하는 챗봇”이 아니다.
흐름은 보통 다음과 같다.

  1. 긴 컨텍스트 읽기

    • 프로젝트 전체 파일 구조, 스펙 문서, 로그, 이슈, 기존 코드 등

  2. 계획 수립

    • 어떤 파일을 어떤 순서로 바꿀지, 어떤 테스트를 돌릴지 계획

  3. 다중 파일 수정

    • 여러 파일을 동시에 열어 수정, 리팩토링, 테스트 코드 생성

  4. 테스트·빌드 실행 → 실패 원인 분석

  5. 다시 수정·재테스트 (반복 루프)

이 과정에서 모델은

  • **모델 파라미터(본체)**와

  • 지금까지의 대화·컨텍스트를 담는 KV 캐시(Key-Value Cache)

를 GPU 메모리(VRAM)에 올려 놓고 계속 계산한다.

NVIDIA와 여러 기술 리포트는, 긴 컨텍스트·대규모 배치·여러 에이전트가 동시에 돌아가는 환경에서
KV 캐시가 LLM 추론 비용과 메모리 사용량의 핵심 병목이라고 지적한다.

요약하면,

  • 에이전트형 코딩·법률 작업은
    “짧은 자동완성”보다 훨씬 더 긴 문맥 + 반복 추론 + 다중 도구 호출을 요구한다.

  • 이는 곧 **추론 시점에 필요한 GPU 메모리(VRAM, 특히 HBM + 서버 DRAM)**를
    지속적으로 끌어올리는 방향으로 작용한다.

4-2. 젠슨 황의 다보스 발언: “5계층 AI 케이크”와 인프라 선순환


2026년 다보스 포럼에서 NVIDIA CEO 젠슨 황은 AI를

  1. 에너지·전력 인프라

  2. 칩·메모리·컴퓨팅

  3. 데이터센터·클라우드

  4. 모델

  5. 애플리케이션


으로 이루어진 **“5계층 AI 케이크(five-layer cake)”**로 설명했다.

https://www.instagram.com/reel/DR229DXkhZe/


그는 AI를 **“인류 역사상 가장 큰 인프라 구축(the largest infrastructure buildout in human history)”**라고 부르면서,

핵심을 이렇게 정리한다.

  • AI는 단일 소프트웨어가 아니라 에너지 → 하드웨어 → 데이터센터 → 모델 → 애플리케이션에 이르는 풀 스택 인프라이다.

  • **가장 윗층(애플리케이션)**에서 추론이 활발해질수록,
    그 아래의 모델 운영,
    더 아래의 데이터센터·클라우드,
    다시 그 밑의 GPU·HBM·DRAM,
    최하단의 전력·냉각·송전망
    전부에 **추가적인 Capex(설비투자)**가 필요해진다.

다시 말해,

“위에서 추론이 늘수록 아래층 H/W·에너지 투자가 더 커지고,
그 인프라가 다시 위의 S/W 생태계를 키우는 선순환”

 

이라는 구조이다.

여기까지는 “위에서 많이 쓰면, 아래를 더 깔아야 한다”는 직관적인 이야기다.
하지만 이 선순환에는 하나가 더 붙는다. 바로 **“더 싸지면 더 많이 쓴다”**는 효과, 즉 제번스 역설이다.


https://blog.naver.com/lskjhc/223835246228


4-2-1. 토큰당 가격 하락과 제번스 역설: 더 싸질수록 더 많이 쓰게 된다


현재 대부분의 LLM API·AI SaaS는 “토큰당(per-token) 과금” 구조를 쓴다.
텍스트는 일정 길이의 토큰 단위로 쪼개지고,
1,000토큰당 얼마 식으로 사용량을 측정해 요금을 받는다.
(OpenAI, Anthropic, Google 등 주요 업체 모두 같은 구조를 사용한다.)

여기서 중요한 것은 **“토큰당 가격이 얼마나 빨리 떨어지고 있는가”**이다.

  • OpenAI CEO 샘 알트먼은 2025년 초 블로그에서
    “동일 수준의 AI를 쓰는 비용이 1년에 10배 정도씩 떨어지고 있고,
    GPT-4(2023 초)에서 GPT-4o(2024 중)까지 토큰당 가격이 약 150배 하락했다”고 밝혔다.
    그리고 “가격이 떨어지면 사용량은 훨씬 더 크게 늘어난다”고 직접 썼다.
    관련 보도 – Business Insider

  • 여러 분석 사이트는 2024~2025년 사이
    주요 LLM들의 토큰 단가가 계속 인하되고 있고,
    더 저렴한 모델(Flash, Haiku, Mini 등)이 쏟아져 나오면서
    **“AI 토큰이 거의 미터기 찍기 힘들 정도로 싸질 수 있다(too cheap to meter)”**는
    논의까지 하고 있다.

경제학에서 **제번스 역설(Jevons paradox)**은,
**“어떤 자원을 더 효율적으로 쓰게 되면, 단위 비용이 떨어져서 오히려 전체 소비가 더 늘어나는 현상”**을 말한다.

  • 석탄을 더 효율적으로 쓰는 증기기관이 나오면,
    석탄 단위당 비용이 내려가면서 석탄 총소비량은 되레 증가한다.

  • 연비 좋은 차가 나오면, km당 연료비가 떨어져서 사람들이 더 많이 이동하고,
    전체 연료 소비는 더 늘어날 수 있다.

이 논리를 AI 토큰에 그대로 대입하면 구조가 명확해진다.

  1. 토큰당 가격이 1/10, 1/100로 떨어진다.

  2. 기업·개발자는

    • “조금만 시험적으로 써보자”에서

    • “아예 서비스 전체를 AI 중심으로 재설계하자”로 태도를 바꾸게 된다.

  3. 한 번에 쓰는 토큰 수가 늘고,
    기능별·서비스별로 AI 호출이 붙으면서
    전체 토큰 사용량은 폭발적으로 증가한다.

즉, **“토큰 1개당 VRAM·전기·GPU 소모는 더 줄어들었을지 몰라도,
토큰 개수가 훨씬 더 많이 쓰이면서, 총 VRAM·총 전력 사용량은 오히려 증가”**하는 구조가 된다.
이게 바로 제번스 역설에 부합하는 AI 버전이다.

젠슨 황의 5계층 케이크와 합치면 그림이 이렇게 바뀐다.

  • 윗층(애플리케이션)에서 가격 인하 + 품질 개선이 동시에 일어나고,

  • 제번스 역설 때문에 사용량(토큰·쿼리 수)이 더 빠르게 늘어나며,

  • 그 결과 아래층(모델·데이터센터·GPU·메모리·전력)에 대한
    총 수요는 시간이 갈수록 더 커진다.

즉, Claude AI와 같은 에이전트형 애플리케이션이  늘어날수록 인프라 수요는,
AI 사용을 폭발시키면서 오히려 VRAM·HBM·서버 DRAM 수요를 장기적으로 키우는 쪽에 더 가깝다.


정리하면,

  • 에이전트형 애플리케이션이 늘수록
    GPU당 메모리 탑재량(HBM·서버 DRAM)은 더 필요해지고,

  • 이미 타이트한 공급·가격 환경에서
    토큰 단가 하락(효율 개선) + 제번스식 사용량 폭증이 겹치면,
    메모리 가격·투자에는 구조적인 상방 압력이 생길 가능성이 크다.


5. Blue Owl 같은 대체투자까지 왜 같이 얻어맞았는가


5-1. “소프트웨어 비즈니스 모델 → 프라이빗 크레딧 포트폴리오”의 연쇄


이번 소동은 소프트웨어·데이터 회사에 돈을 빌려주거나 투자한
프라이빗 크레딧(Private Credit)·대체투자 운용사까지 번졌다.

WSJ 마켓 라이브에 따르면,

  • Ares Management

  • Blue Owl Capital


같은 프라이빗 크레딧 운용사 주가가
“AI가 소프트웨어 기업 가치와 상환능력을 훼손할 수 있다”는 우려
동시에 큰 폭으로 하락했다.

논리는 단순하다.

  1. 소프트웨어·데이터 기업 가치 하락

  2. → 이들 기업에 대한 대출·지분 투자 포트폴리오 가치 하락

  3. → 프라이빗 크레딧·사모펀드 운용사(Blue Owl 등)에 대한
    “대출 회수·재융자 리스크” 우려 확대

여기에 이미 진행 중이던

  • AI 데이터센터 프로젝트의
    자금 조달 구조·수익성에 대한 의문,

  • 일부 대체투자 딜에서
    투자자 보호 조건을 강화하려는 움직임

이 겹치면서,

**“AI 수익화·Capex 지속성에 대한 의심

  • 과열된 AI 테마 포지션 언와인드

  • 시장 전반 리스크오프”**

 

가 한꺼번에 터진 장면으로 볼 수 있다.

5-2. 이 과정에서 메모리까지 같이 매도됐다면, 왜 “기회” 논리도 성립하는가


메모리 섹터에 대해서는 다음과 같이 나눌 수 있다.

  1. 단기 심리

  • “AI 소프트웨어 비즈니스 모델이 흔들리면,
    AI 인프라 투자도 생각만큼 오래 지속되지 않을 수 있다”는 불안

  • → AI 테마 전반에 대한 리스크오프

  • → 메모리·HBM까지 포괄적으로 매도

  1. 펀더멘털

하지만 펀더멘털을 보면,

  • AI 데이터센터 수요로 인한 DRAM·HBM 공급 부족

  • 2025~26년 서버 DRAM·HBM 가격의 급등

  • 2025년 메모리 시장이 2,000억 달러 수준에 접근하고,
    HBM 비중이 빠르게 커지고 있다는 Yole Group의 분석

  • 주요 업체·애널리스트가 **“2027년 이후까지 공급 타이트가 지속될 것”**이라고 보는 점

을 감안할 때,
이번 충격의 1차 원인은 메모리 수요 붕괴가 아니라
소프트웨어·법률·데이터 SaaS 비즈니스 모델 불확실성
이었다고 보는 것이 더 합리적이다.

따라서 논리적으로는 이런 해석도 가능하다.

  1. 주가 하락의 직접 원인
    소프트웨어·전문직 비즈니스 모델에 대한 공포

  2. 메모리 펀더멘털은 여전히

    • AI 인프라 수요

    • HBM·서버 DRAM 공급 타이트

    • 소수 업체 과점 구조
      에 기반한 구조적 타이트 스토리에 가깝다.

  3. 그렇다면
    **“심리적 리스크오프와 테마 언와인드 때문에 같이 얻어맞은 메모리/HBM 업체들”**은
    중장기 관점에서 기술적·심리적 조정 = 매수 기회로 해석할 여지가 있다.


즉, “이번 급락이 메모리 수요 붕괴 때문이 아니라
Claude 에이전트가 촉발한 소프트웨어 공포와 AI 가격 구조 변화에서 출발했다”**는 점은 분명히 짚을 필요가 있다.


6. 한 문단 요약

  • Anthropic이 Claude Cowork용 법률 플러그인을 포함한 플러그인 세트를 공개하자,
    “AI가 초급 변호사·애널리스트·컨설턴트가 하던 화이트칼라 실무를 직접 대체할 수 있다”는 공포가 커졌고,
    그 결과 글로벌 소프트웨어·데이터·법률 SaaS 기업에서 약 2,850~3,000억 달러 시총 증발이 발생했다.

  • 개발 쪽에서는 Claude Code가 VS Code에서
    “한 줄 자동완성”이 아니라 목표를 주면 프로젝트 단위로 수정·테스트를 반복하는 에이전트형 코딩 도구로 진화하며,
    GitHub Copilot과 다른 영역을 파고들고 있다. MS도 따라갈 여지는 있지만,
    엔터프라이즈 보안·책임 이슈 때문에 Anthropic만큼 빠르게 자율성을 열지는 못하고 있다.

  • 법률 플러그인은 “특정 기능을 파는 SaaS”가
    “클라우드 LLM + 플러그인”으로 재구성될 수 있다는 가능성을 보여주며,
    기존 SaaS의 가격결정력과 장기 성장성에 대한 의문을 키웠다.

  • 이런 에이전트형 애플리케이션은 긴 컨텍스트를 들고 반복·병렬 추론을 수행하기 때문에,
    추론 시 GPU 메모리(KV 캐시 등) 사용량과 서버당 메모리 탑재량을 끌어올린다.
    여기에 더해, AI API·SaaS가 토큰당 과금 구조를 쓰는 상황에서,
    토큰당 가격이 빠르게 떨어지면(샘 알트먼의 표현대로 “1년에 10배씩 비용이 감소”)
    사용량이 더 빠르게 폭증하는 제번스 역설이 작동
    한다.
    결과적으로 토큰 단가 하락 + 에이전트 확산 → 전체 추론량·VRAM 사용량 증폭이라는 구조가 만들어진다.

  • 젠슨 황은 다보스에서 AI를 에너지→칩·메모리→데이터센터·클라우드→모델→애플리케이션의 5계층 인프라로 설명하며, 상단의 추론·애플리케이션이 활성화될수록
    하단의 GPU·VRAM·에너지 인프라 투자가 더 많이 필요하고,
    이 인프라가 두꺼워질수록 다시 소프트웨어·서비스 생태계가 더 커지는 선순환이라고 정리했다.

  • Blue Owl 같은 대체투자·프라이빗 크레딧까지 매도된 것은,
    소프트웨어·데이터 기업 가치 하락 → 이들 기업에 대한 대출·지분투자 회수 리스크 확대라는 연쇄 때문이며,
    이 과정에서 메모리까지 함께 팔렸다면,
    AI 인프라 수요·HBM 공급 타이트·메모리 가격 상승이라는 펀더멘털을 감안할 때
    일정 부분은 **“공포에 의한 과도한 할인”**으로 평가할 수 있다.

#글을 마치며 

며칠전 군 생활 때 알게 된 동생을 오랜만에 만나 저녁을 먹으며 이야기를 나누다가, 초급 회계사가 담당하던 전표 정리·엑셀 입력 업무가 이미 한 번에 AI로 대체되었고, 이제는 감사보고서 초안 작성까지 AI가 해내는 수준으로 발전했다는 다소 섬뜩한 이야기를 들은 기억이 있으며,


그 동생 말로는, 자신들이 벌어다 주는 회계법인의 수익 상당 부분이 당장의 성과급으로 돌아오지 않고, 오히려 이런 자동화 업무용 AI 툴을 개발·도입하는 데 필요한 자금으로 재투자되고 있다고 했다.

좀 더 직관적인 비유는 30~40만원짜리 월 구독료  LLM기반 S/W가 초임 월급 400만원 선의 신입 전문직들을 대체하기 시작한것이다.

이번에 글을 정리하면서 다시 느낀 바는, 언젠가 지금의 우리(=나 자신)가 하고 있는 사무직 업무가 순차적으로 AI에게 대체될 가능성을 인정한다면, 그 위험을 헤지하기 위한 수단으로서 H/W 칩, 특히 AI 인프라에 연관된 반도체 자산에 대한 투자는 이런 조정 매수기회가 왔을때마다 지속해야 하지 않을까 싶었다.


=끝

댓글 없음:

댓글 쓰기