3 Takeaways after Anthropic Bans OpenClaw Use for Subscriptions
▶ YouTube 원본01한국어 번역 · Korean
앤트로픽의 오픈클로 구독 차단, 3가지 핵심 시사점
원본: https://www.youtube.com/watch?v=O73XSUKqfZI · 업로드: 2026-04-04 · 길이: 11m · 채널: Onchain AI Garage
들어가며 — 오늘 받은 한 통의 이메일
오늘 오후, 수많은 오픈클로(OpenClaw) 사용자와 마찬가지로 저 역시 앤트로픽(Anthropic)으로부터 다소 충격적인 이메일 한 통을 받았습니다. 요지는 간단합니다. “내일(4월 4일)부터 클로드(Claude) 구독을 오픈클로 안에서 더 이상 사용할 수 없다”는 통보였습니다.
저는 월 200달러짜리 클로드 맥스(Claude Max) 요금제를 쓰고 있습니다. 주된 용도는 클로드 코드(Claude Code)지만, 오픈클로가 세상에 나온 거의 첫 시점부터 저의 여러 오픈클로 에이전트들도 이 구독에 물려서 돌려 왔죠. 그래서 이번 조치는 뼈아프지만, 사실 완전한 충격은 아닙니다. 처음부터 어딘가 회색 지대였다는 느낌이 있었거든요. 앤트로픽은 늘 “이런 용도라면 API를 써달라”는 메시지를 은근히 흘려왔고, 다만 공식적으로 강제하지 않았을 뿐이었습니다. 이제 그 유예 기간이 끝난 것입니다.
1. 앤트로픽이 밝힌 공식 입장
앤트로픽의 보리스 체르니(Boris Cherny)는 트위터 글을 통해 이렇게 설명했습니다. 내일부터 클로드 구독은 오픈클로 같은 서드파티 도구에서 동작하지 않으며, 만약 계속 쓰고 싶다면 별도의 API 키를 발급받거나 “추가 사용량 번들(extra usage bundles)“을 구매해야 한다는 것입니다. 기본 구독 자체로는 더 이상 불가능합니다.
이렇게 결정한 배경으로 체르니는 두 가지를 언급했습니다. 첫째, 앤트로픽이 클로드 수요를 감당할 만한 엔지니어링 인프라를 아직 갖추지 못했다는 점입니다. 둘째, 기존 구독 모델이 애초에 오픈클로와 같은 헤비한 에이전트 사용 패턴을 전제로 설계되지 않았다는 점입니다. 솔직히 말해 충분히 납득이 가는 이야기입니다. 지금 구독료 구조는 상당히 보조금을 태운 구조라서, 매달 200달러만 내고 수천 달러어치 컴퓨팅을 소비하는 계정이 수두룩합니다. 앤트로픽 입장에선 이를 방치하기 힘든 상황이었을 겁니다.
2. 이미 예고되어 있던 변화
이번 결정이 갑작스러워 보이지만, 돌이켜 보면 앤트로픽은 몇 달 전부터 이 방향으로 빌드업을 하고 있었습니다. 최근 클로드와 클로드 데스크톱(Claude Desktop)에는 오픈클로를 닮은 기능들이 속속 추가되었죠. 스케줄링된 태스크(scheduled tasks), 컴퓨터를 직접 조작해 작업을 처리하는 “컴퓨터 모드(computer mode)” 같은 것들이 대표적입니다. 한마디로, 자사 플랫폼 안에 오픈클로 유즈케이스를 흡수하려는 의도였던 겁니다. 그래야 유저들이 오픈소스 오픈클로나 헤르메스 에이전트(Hermes Agent) 같은 외부 프레임워크로 흘러가지 않으니까요.
그리고 3월에는 피크 시간대 스로틀링(peak hour throttling)이 도입되었습니다. 평일 사용량이 몰리는 시간대에 세션 토큰이 더 빠르게 소진되는 구조였죠. 어떤 사람들은 5시간 할당량을 단 몇 개의 프롬프트만으로 태워 버렸다는 제보도 있었습니다. 저는 그 정도는 아니었지만, 여러 개의 오픈클로 에이전트와 클로드 코드를 병행하는 사람이라면 누구나 한도에 쉽게 부딪혔을 겁니다. 그러다 마침내 4월 4일, 서드파티 도구 지원이 완전히 끊긴 것이죠. 오픈클로뿐 아니라 헤르메스 에이전트 등 모든 외부 에이전트가 함께 영향을 받습니다. 단지 오픈클로가 가장 화제였을 뿐입니다.
3. 당장 해야 할 일 — 200달러 크레딧 수령
이 이메일을 받았다면 가장 먼저 할 일이 있습니다. 클로드 웹사이트(claude.ai)에 접속해 설정(Settings) 메뉴의 사용량(Usage) 탭으로 들어가 보세요. 거기에 200달러어치 추가 사용 크레딧(Extra Usage credit)이 지급되어 있을 겁니다. 저 역시 확인해 보니 이미 들어와 있었습니다. 이 크레딧은 클로드 웹, 클로드 코드, 클로드 데스크톱에서 모두 쓸 수 있고, 앤트로픽 측 설명에 따르면 추가 사용량으로 전환하면 오픈클로 안에서도 일부 활용이 가능하다고 합니다. 기본 구독으로는 안 되지만, 크레딧을 얹은 “추가 사용” 방식으로는 된다는 얘깁니다.
또 한 가지, 지금 추가 사용 번들을 구매하면 최대 30% 할인이 적용됩니다. 필요한 사람이라면 지금이 타이밍입니다. 무엇보다 기본 200달러 크레딧은 절대 놓치지 마세요. 제가 알기로는 클로드 유료 구독자라면 모두에게 지급됩니다.
첫 번째 시사점 — 컴퓨팅은 정말로 부족하다
이제 제 세 가지 시사점으로 넘어가 보죠. 첫째, 컴퓨팅 공급이 진짜로 타이트하다는 점입니다. 앤트로픽은 오픈클로를 차단하고 싶어서 차단한 게 아닙니다. 그들도 이번 결정이 PR 재앙이 될 것을 뻔히 알고 있었을 겁니다. 단지 물리적으로 불을 꺼뜨릴 상황이었던 거죠.
수요가 인프라를 따라잡지 못하고 있습니다. 얼마 전 펜타곤 이슈 이후 많은 사용자가 오픈AI(OpenAI)에 등을 돌리고 클로드로 몰려왔고, 그 결과 클로드 앱이 미국 앱스토어 다운로드 1위를 차지해 처음으로 챗GPT를 앞질렀습니다. 앤트로픽은 구글이 후원하는 텍사스 데이터센터를 임차할 예정이지만, 이건 2026년 말에나 가동됩니다. 또한 내부에서 학습 중이라고 알려진 차세대 대형 모델(티어 모델) 역시 막대한 컴퓨팅을 먹어치우는 요인으로 작용했을 가능성이 큽니다. 루머 수준이지만 정황상 설득력 있는 이야기죠. 결과적으로 많은 사용자가 클로드 코드 한도에 예전보다 훨씬 빨리 부딪히고 있습니다.
두 번째 시사점 — 오픈소스가 이겨야 한다
두 번째는 좀 더 철학적인 이야기입니다. 오픈소스가 결국 이겨야 한다는 확신이 이번 사건으로 한층 강해졌습니다. 한 사기업이 스위치를 한 번 내리는 것만으로, 당신이 오래 써오던 워크플로를 하룻밤 사이에 무너뜨릴 수 있다면, 우리가 쥐고 있다고 믿었던 통제권이 사실은 얼마나 허약한지가 드러납니다. 특히 모든 에이전트 구성을 클로드 중심으로 짜둔 사용자라면, 이런 상황은 그야말로 오싹할 겁니다.
제 채널을 보신 분이라면 아시겠지만, 저는 최근 다양한 오픈소스 모델을 테스트해 왔습니다. 솔직히 말해, 제가 가장 많이 쓰는 클로드 오퍼스 4.6(Claude Opus 4.6)을 대체할 만한 모델은 아직 없습니다. 하지만 지난 한 달 사이 오픈소스와 로컬 LLM 진영의 발전 속도는 정말 놀라웠습니다. 키미(Kimi), GLM, 퀀(Qwen), 딥시크(DeepSeek), 미니맥스(Minimax) 같은 모델들이 프런티어에 점점 근접하고 있습니다. 소프트웨어 엔지니어링 영역에서는 아직 격차가 있지만, 벤치마크에 따라서는 거의 붙은 것도 있습니다. 커뮤니티의 공감대는 “로컬에서 프런티어급을 돌리는 건 이제 년 단위가 아니라 월 단위의 문제”라는 것입니다.
또한 잘 정의된 태스크에서는 파인튜닝된 소형 오픈소스 모델이 범용 프런티어 모델을 꾸준히 이긴다는 논문들도 쏟아지고 있습니다. 앞으로는 원시 성능에서는 프런티어에 못 미치더라도, 특정 작업에 최적화한 작고 빠른 오픈 모델이 실사용 영역에서 강자로 떠오를 겁니다. 미니맥스 M2.5가 SWE-bench에서 오퍼스 4.6과 비슷한 점수를 1/20 수준의 토큰 비용으로 달성한 사례가 단적인 예입니다.
세 번째 시사점 — 새 모델을 찾아야 할 때
세 번째이자 가장 실전적인 교훈입니다. 이제는 제 오픈클로 에이전트 ‘스캠피(Scampi)‘에 새 모델을 찾아 붙여야 할 때라는 것입니다. 저는 여러 개의 오픈클로 에이전트를 운용하고 있고 헤르메스 에이전트도 종종 씁니다. 헤르메스로 완전히 넘어가려 했지만, 리서치 태스크나 매일 돌아가는 크롬 자동화 같은 것들은 여전히 오픈클로에 붙여 두고 있었죠. 이제는 어쩔 수 없이 클로드를 대체할 모델이 필요합니다.
저는 오픈라우터(OpenRouter)를 쓸 생각입니다. 비슷한 선택지는 많지만, 오픈라우터는 다양한 모델을 가볍게 갈아 끼워 볼 수 있다는 게 큰 장점입니다. 멀티모달이 필요하면 비전 성능이 좋은 모델을, 코딩이 필요하면 코더 계열을, 추론이 중요하면 리즈닝 모델을 고르면 됩니다. 현재 제가 쓰는 건 오픈라우터에서 무료로 제공 중인 퀀 3.6 플러스(Qwen 3.6+)입니다. 조만간 유료화되겠지만요. 이 외에도 주초 영상에서 다룬 젬마4(Gemma 4), 코딩 태스크용 퀀3 코더(Qwen3 Coder), 그리고 제가 정말 인상 깊게 본 GLM 5V 터보(GLM 5V Turbo) 등을 후보로 보고 있습니다. 특히 GLM 5V 터보는 속도와 비전 성능 모두 뛰어났기에, 퀀 3.6 플러스가 유료 전환되면 GLM으로 옮겨갈 가능성이 높습니다.
마이그레이션은 생각보다 간단합니다
혹시 걱정되시는 분들을 위해 덧붙이자면, 오픈클로에서 모델을 바꾸는 작업 자체는 어렵지 않습니다. 에이전트에게 “오픈라우터로 바꿔달라”고 지시하기만 하면 되고, 필요하다면 openclaw.json 설정에서 허용 목록(allow list)을 조정해 주면 됩니다. 만약 처음부터 클로드 구독만 써왔다면 허용 목록에 앤트로픽 토큰 하나만 들어있을 가능성이 큽니다. 이 경우 오픈라우터 토큰을 추가해 줘야 하죠. 저는 몇 분 만에 전환을 마쳤습니다.
마치며
정리하자면 이렇습니다. 첫째, 컴퓨팅은 실제로 부족합니다. 클로즈드 소스 사업자는 언제든 자사 플랫폼과 사용자를 우선할 것이고, GPU가 타이트해질수록 외부 도구는 가장 먼저 희생됩니다. 둘째, 오픈소스는 더 이상 “언젠가의 이야기”가 아닙니다. 특히 파인튜닝된 소형 모델은 현실 업무에서 이미 프런티어를 앞지르기 시작했습니다. 셋째, 대체재는 이미 우리 손이 닿는 곳에 있습니다. 퀀, GLM, 키미, 미니맥스 — 지금 당장 써볼 수 있는 선택지들입니다.
오늘 영상은 여기까지입니다. 오늘 받은 이메일 한 통이 제게 던진 질문들을 빠르게 공유해 봤습니다. 앞으로 몇 주 동안 제가 다양한 모델을 테스트하는 영상을 많이 올린다면, 그건 바로 클로드와 오픈클로의 빈자리를 채울 모델을 찾고 있기 때문입니다. 유익하셨다면 좋아요와 구독, 댓글 부탁드리고, 다음 주 영상에서 뵙겠습니다.
02리서치 문서 · Document
앤트로픽의 “서드파티 에이전트 차단”: 구독 경제, 컴퓨팅 부족, 그리고 오픈소스의 반격
원본 영상: YouTube · 채널: Onchain AI Garage · 업로드: 2026-04-04
서론 — “하룻밤 사이에 꺼진 스위치”
2026년 4월 4일, 앤트로픽(Anthropic)은 클로드(Claude) 유료 구독자에게 한 가지를 통보했습니다. 이날부로 클로드 프로(Pro)·맥스(Max) 구독 계정을 오픈클로(OpenClaw)나 헤르메스 에이전트(Hermes Agent)와 같은 서드파티 에이전트 프레임워크에서 사용할 수 없게 된다는 것입니다. 오픈클로는 그동안 가장 인기 있던 “에이전트 하네스(agent harness)“였고, 클로드 코드(Claude Code)와 달리 완전한 오픈소스였기 때문에 유저들은 자신의 구독 OAuth 토큰을 꽂아 저렴한 비용으로 고성능 에이전트를 돌려 왔습니다. 이 흐름에 앤트로픽이 공식적으로 제동을 건 것이죠 (VentureBeat, TechCrunch).
온체인 AI 개러지(Onchain AI Garage) 채널은 이 결정을 “언젠가 올 것이 온 것”이라고 평합니다. 이번 글에서는 영상의 세 가지 테이크어웨이를 출발점 삼아, 사건의 법적 배경과 업계 반응, 그리고 오픈소스 진영이 이 공백을 어떻게 메우고 있는지 살펴봅니다.
본론
1. 무슨 일이 벌어졌나 — 정책의 구체적 내용
앤트로픽은 사실 2026년 2월에 이미 이용 약관을 조용히 개정해, 클로드 프로·맥스 구독에서 발급되는 OAuth 토큰을 “클로드 코드와 클로드 닷 에이아이(Claude.ai) 외부의 도구에서 사용하는 것”을 명시적으로 금지했습니다 (The Register). 4월 4일은 이 조항에 대한 실제 집행이 시작된 날입니다.
핵심 포인트는 다음과 같습니다.
- 기본 구독 요금 안에서는 서드파티 도구로의 접근이 차단됩니다.
- 사용량을 유지하려면 별도 API 키를 발급받거나, 추가 사용량 번들(extra usage bundle)을 구매해야 합니다.
- 앤트로픽은 일회성 보상 차원에서 모든 기존 유료 구독자에게 월 구독료와 동일한 금액의 크레딧(예: 맥스 이용자 200달러)을 지급했습니다 (MindStudio).
- 이 크레딧은 일정 기간 “추가 사용” 형태로 오픈클로 안에서도 사용 가능하지만, 소진되면 끝입니다.
앤트로픽 측 설명은 두 갈래입니다. 하나는 법적 명료성이고, 다른 하나는 경제성입니다. 서드파티 하네스는 앤트로픽의 프롬프트 캐시(Prompt Cache) 최적화를 우회하기 때문에, 똑같은 요청이라도 훨씬 더 많은 컴퓨팅을 먹어치운다는 것입니다 (Apiyi Blog). 클로드 코드는 캐시 히트율을 극대화하도록 튜닝되어 있어 같은 200달러 구독이라도 체감 비용 구조가 완전히 다릅니다.
2. 왜 지금인가 — 컴퓨팅 부족이라는 진짜 배경
영상의 첫 번째 테이크어웨이는 단순합니다. “컴퓨팅은 실제로 부족하다”는 것입니다. 실제로 지난 수개월간 앤트로픽은 수요 폭증에 시달려 왔습니다. 특히 오픈AI(OpenAI)와 미 국방부 간 계약 논란 직후, 상당수의 개발자와 소비자 사용자가 클로드로 이탈하면서 클로드 앱은 미국 앱스토어에서 챗GPT를 제치고 처음으로 1위를 차지했습니다 (the-decoder).
문제는 공급 측에서 곧바로 대응할 여력이 없다는 점입니다. 앤트로픽이 구글과 체결한 텍사스 데이터센터 임차는 2026년 말이 되어서야 실제 가동됩니다. 그동안 차세대 대형 모델 학습에도 막대한 컴퓨팅이 들어가고 있을 가능성이 높습니다. 결과적으로 앤트로픽은 “보조금 구조로 굴러가던 저비용 사용 패턴”부터 단계적으로 정리해 나가는 길을 택한 것입니다. 이미 3월에는 평일 피크 타임에 세션 토큰 소모 속도를 높이는 피크 스로틀링(peak throttling)이 도입되어 있었고, 이번 서드파티 차단은 사실상 그 연장선입니다 (PYMNTS).
3. 구독 경제의 조정 — 보조금 시대가 저문다
이번 조치가 중요한 또 하나의 이유는, 이것이 AI 구독 모델의 구조적 조정 신호탄이기 때문입니다. PYMNTS는 이 사건을 **“AI 프라이싱 시대의 전환점”**으로 평했습니다. 지금까지 월 20달러(프로)부터 200달러(맥스)까지 이어지는 클로드 구독은 사실상 헤비 유저에게 막대한 보조금을 태우는 구조였습니다. 일부 계정은 매달 실제 원가 수천 달러어치의 컴퓨팅을 소비했다는 추산도 있습니다 (PYMNTS, BigGo Finance).
앞으로 AI 플랫폼들은 “정액제 + 공정사용(fair use)” 조합에서 점점 더 종량제(pay-as-you-go)로 기울 가능성이 큽니다. 구독은 일상적 대화형 사용자를 잡아두는 미끼 상품이 되고, 진짜 헤비한 에이전트 워크로드는 API 과금으로 분리되는 구조가 자리 잡는 것이죠. 이는 에이전트 개발자에게는 단가 상승이라는 부담으로, 플랫폼 사업자에게는 예측 가능한 수익성 확보라는 이득으로 돌아갑니다.
4. 오픈클로 유저들이 할 수 있는 선택 — 대안의 지형도
실전적으로 지금 오픈클로 사용자에게는 크게 세 갈래 선택지가 있습니다.
- 앤트로픽 API로 전환하기. 가장 매끄러운 길이지만 비용이 올라갑니다. 특히 서드파티 하네스의 캐시 우회 특성상, 토큰당 단가 차이가 체감 2~3배 이상으로 벌어질 수 있습니다 (DEV Community).
- 클로드 코드로 일부 워크플로 이전. 공식 도구 쪽으로 가면 캐시 최적화 혜택을 누릴 수 있지만, 오픈클로 특유의 확장성과 자유도는 상당 부분 포기해야 합니다.
- 오픈소스 모델과 오픈라우터(OpenRouter)로 이탈. 영상 속 발표자가 택한 길입니다. 퀀 3.6 플러스(Qwen 3.6+), GLM 5V 터보, 젬마 4, 키미, 미니맥스 등 다양한 모델을 태스크별로 스위칭해 사용합니다.
세 번째 선택지는 불과 1년 전만 해도 비현실적으로 보였지만, 2026년 현재는 완전히 다른 이야기입니다.
5. 오픈소스는 이미 실전 가능한가
영상의 두 번째·세 번째 테이크어웨이는 결국 “오픈소스가 충분히 가깝다”는 주장입니다. 이 주장은 더 이상 과장이 아닙니다. 2026년 현재 딥시크(DeepSeek), 퀀, 키미, GLM, 미스트랄(Mistral) 다섯 개 오픈 모델 패밀리가 동시다발적으로 프런티어급 품질에 진입했습니다 (BentoML). 챗봇 아레나(Chatbot Arena) ELO 기준으로 GLM-5가 1451점, 키미 K2.5가 1447점으로 상위권을 차지했으며, 이는 여러 클로즈드 모델과 사실상 동급입니다 (BenchLM).
에이전트 특화 벤치마크에서도 변화가 뚜렷합니다. 퀀-72B는 여러 툴 사용 벤치마크에서 GPT-4를 앞질렀고, 딥시크 V3.2는 복잡 추론 과제에서 GPT-4 터보와 맞먹는 성능을 보여 주고 있습니다. 여기에 더해 잘 정의된 태스크에서는 파인튜닝된 소형 오픈 모델이 범용 프런티어 모델을 일상적으로 이긴다는 연구들이 축적되고 있습니다. 즉 “프런티어 한 개를 모든 일에 쓰는” 시대에서 “작업별로 잘게 특화된 소형 모델을 조립하는” 시대로 이행하는 중입니다.
핵심 인사이트
- 보조금 시대의 종말. 앤트로픽의 이번 조치는 단순한 약관 변경이 아니라, 지난 2~3년간 AI 산업이 유저 확보를 위해 태우던 컴퓨팅 보조금이 구조적으로 축소되고 있다는 신호입니다. 사용자는 이제 “저렴한 월정액으로 무제한”이 아니라, “사용한 만큼 지불”에 점점 가까워질 것입니다.
- 플랫폼 리스크는 곧 아키텍처 리스크다. 한 회사가 스위치를 내리면 당신의 에이전트 파이프라인이 즉시 무력화되는 구조는 비즈니스 연속성 관점에서 위험합니다. 멀티 프로바이더 추상화 계층(오픈라우터 등)을 두는 것이 더 이상 “있으면 좋은 것”이 아니라 “있어야만 하는 것”입니다.
- 오픈소스의 경쟁력은 “가격”이 아니라 “통제권”에서 온다. 벤치마크 격차가 좁혀진 지금, 오픈 모델의 진짜 가치는 토큰 단가가 아닌 **“정책 변화에 휘둘리지 않는 권리”**입니다. 특히 사내 워크플로·장기 자동화·민감 데이터 처리가 걸려 있다면 더욱 그렇습니다.
- 소형 파인튜닝 모델의 부상. 범용 거대 모델이 모든 곳에서 쓰이는 그림은 점차 “특정 업무에 파인튜닝된 중소형 모델 + 멀티 에이전트 오케스트레이션”으로 대체될 가능성이 큽니다.
- 단기적으로는 혼란, 장기적으로는 건강한 가격 발견. 당장 오픈클로 유저들은 마이그레이션 피로에 시달리겠지만, 장기적으로는 AI 컴퓨팅의 실제 비용이 시장에 노출되며 더 지속 가능한 생태계로 향할 수 있습니다.
더 알아보기
- Anthropic cuts off the ability to use Claude subscriptions with OpenClaw and third-party AI agents — VentureBeat
- Anthropic says Claude Code subscribers will need to pay extra for OpenClaw usage — TechCrunch
- Anthropic clarifies ban on third-party tool access to Claude — The Register
- Anthropic’s Claude Subscription Shift Signals New AI Pricing Era — PYMNTS
- The Best Open-Source LLMs in 2026 — BentoML
- Best Chinese LLMs in 2026: GLM-5, Kimi K2.5, DeepSeek V3.2, Qwen — BenchLM
03찬반 토론 · Debate
토론: “앤트로픽의 서드파티 차단은 AI 구독 경제의 필연적 조정인가, 플랫폼 권력 남용인가”
논제: 앤트로픽이 클로드(Claude) 구독의 오픈클로(OpenClaw) 등 서드파티 도구 사용을 차단한 조치는, 컴퓨팅 부족과 비즈니스 지속성을 고려할 때 정당한 조정이며 오픈소스 생태계로의 건강한 이행을 촉진한다.
원 영상의 핵심 테제는 “이번 조치는 놀랍지 않으며, 컴퓨팅 부족이라는 현실과 맞물려 결국 오픈소스가 이길 수밖에 없는 미래를 보여준다”는 것입니다. 이 주장에 대해 세 라운드로 나누어 찬반을 치열하게 겨룹니다.
Round 1
🟢 Pro — “이건 예고된 조정이고, 장기적으로 생태계에 이롭다”
Pro의 출발점은 명확합니다. 앤트로픽의 이번 결정은 갑작스러운 배신이 아니라 지연된 정상화라는 것입니다. 기존 구독 모델은 애초에 하루 수십 개의 멀티 에이전트 루프가 돌아가는 용도로 설계되지 않았습니다. 월 200달러짜리 클로드 맥스로 수천 달러어치 컴퓨팅을 소비하는 계정이 수두룩했다는 점은 이미 공공연한 비밀이었고, 이는 보조금으로 굴러가는 비정상 구조였습니다. 정상화는 언젠가 반드시 필요했습니다.
더 중요한 것은 집행 방식의 “예의”입니다. 앤트로픽은 약관 개정을 미리 공지했고, 이메일로 사전 안내했으며, 모든 유료 구독자에게 월 구독료와 같은 액수의 크레딧을 일회성 보상으로 지급했습니다. 기존 워크플로를 당분간 유지할 수 있는 숨통을 열어 준 셈이죠. 만약 이게 “플랫폼 권력 남용”이었다면, 그들은 이런 완충 장치를 마련할 이유가 없었습니다.
마지막으로, 이 조치는 시장에 긍정적인 부작용을 일으킵니다. 인위적으로 저렴하게 유지되던 단가가 정상화되면, 에이전트 개발자들은 자연히 멀티 프로바이더 추상화와 오픈소스 대안을 진지하게 고민하게 됩니다. 영상 속 발표자가 정확히 그렇게 반응했듯이 말이죠. 요컨대 Pro는 “단기 고통 · 중장기 건강성”을 주장합니다.
🔴 Con — “이건 독점 플랫폼 리스크의 전형이다”
Con은 Pro의 “정상화” 프레임 자체를 거부합니다. 문제의 본질은 가격이 아니라 권력 구조입니다. 수많은 개발자, 스타트업, 심지어 개인 크리에이터들이 클로드를 전제로 에이전트 파이프라인을 구축해 왔습니다. 그 워크플로가 하룻밤 사이의 정책 변경으로 기능 정지되는 구조는, 건강한 개발자 생태계의 모습이 아닙니다.
특히 비판할 지점은 “캐시 우회” 논리입니다. 앤트로픽은 “서드파티 하네스가 프롬프트 캐시 최적화를 우회해 컴퓨팅을 낭비한다”고 설명하지만, 그렇다면 캐시 친화적 API를 개방하면 될 일입니다. 차단은 기술적 해결책이 아니라 자사 플랫폼인 클로드 코드(Claude Code)로의 강제 유인에 가깝습니다. 실제로 앤트로픽은 조치 직전 몇 달간 스케줄링 태스크, 컴퓨터 사용 모드 등 오픈클로를 닮은 기능들을 자사 플랫폼에 흡수해 왔습니다. 이는 “공정한 경쟁” 서사와 충돌합니다.
또한 “오픈소스가 이길 것”이라는 낙관은 희망 사항에 가깝습니다. 현실은 여전히 대부분의 소프트웨어 엔지니어링 워크로드에서 클로즈드 프런티어가 앞서 있고, 오픈소스 진영은 추론 인프라·도구 생태계가 미성숙합니다. 앤트로픽이 이 순간을 선택한 이유가 바로 이것이라는 점을 잊어서는 안 됩니다.
Round 2
🟢 Pro (재반론) — “Con의 ‘권력 남용’ 프레임은 계약 현실을 지운다”
Con의 첫째 주장, 즉 “하룻밤에 꺼진 스위치가 생태계의 문제”라는 지적에 대해 먼저 반박하겠습니다. 오픈클로에 구독 토큰을 꽂아 쓰는 방식은 처음부터 앤트로픽의 이용 약관 경계선 위에 있었습니다. 발표자 본인도 “언제나 회색 지대였다”고 인정했습니다. 회색 지대에 리스크 전제로 올라탄 것을 두고, 이제 와서 “생태계의 배신”이라 말하는 것은 계약 현실을 지우는 프레임입니다. 사업자는 회색 지대를 명료화할 권리가 있고, 그 과정에 일회성 보상까지 제공했다면 이는 배신이 아니라 전환 지원입니다.
Con의 둘째 주장, 곧 “캐시 친화 API를 열면 해결될 일”이라는 지적은 기술적으로 매력적으로 들리지만, 경제적 현실을 놓치고 있습니다. 프롬프트 캐시 공유를 외부 하네스에까지 개방하려면, 인증·감사·쿼터·보안 전반을 재설계해야 합니다. 이는 컴퓨팅이 타이트한 시기에 가장 마지막으로 건드려야 할 영역입니다. “기술적으로 가능하다”와 “지금 당장 합리적이다” 사이에는 거대한 간극이 있으며, Con은 이를 얼버무립니다.
마지막으로 Con의 셋째 주장인 “자사 도구로의 강제 유인”이라는 해석에 대해서도 반박하겠습니다. 클로드 코드는 유료이지만, 그 누구도 클로드 코드만 쓰라고 강요받지 않습니다. 유저는 여전히 API로 옮겨가거나, 오픈라우터를 통해 다른 모델로 전환할 수 있습니다. 선택지가 네 갈래 이상으로 열려 있는 상황을 “강제 유인”이라 부르는 것은 과장입니다.
🔴 Con (재반박) — “Pro는 ‘보상 = 정당화’를 혼동하고 있다”
Pro의 첫째 주장, 즉 “200달러 크레딧 지급이 이번 조치의 정당성을 증명한다”는 논리에 정면으로 반박하겠습니다. 일회성 크레딧은 일회성입니다. 앞으로 그 유저가 동일한 워크플로를 유지하려면 종전 대비 수 배의 비용을 지불해야 하며, 이는 사실상 기존 서비스 가치의 소급 인하입니다. 숨통을 “잠시” 열어 줬다는 사실이 정책 자체의 정당성을 담보하지는 않습니다.
Pro의 둘째 주장인 “보조금 구조의 정상화” 프레임도 비틀려 있습니다. 사업자는 과거 2~3년간 바로 그 보조금을 미끼로 써서 개발자 생태계와 습관, 워크플로를 구축하도록 유도해 왔습니다. 즉 기존의 낮은 단가는 일방적 호의가 아니라 생태계 선점의 대가였습니다. 이제 그 선점이 끝나자 단가를 조정한다면, 이는 정상화가 아니라 번들-언번들 전략입니다. 스타트업이 초기 저가로 유저를 묶은 뒤 가격을 올리는 고전적 플레이북이며, “필연적 조정”이라는 미화는 본질을 가립니다.
Pro의 셋째 주장, “단기 고통 중장기 건강성”이라는 낙관에 대해서도 회의적입니다. 건강성이란 누구에게의 건강성인가요? 대형 고객과 엔터프라이즈는 API 단가 상승을 흡수할 수 있지만, 개인 개발자·인디 크리에이터·소규모 팀은 그렇지 못합니다. 이들이 대거 이탈하면 AI 개발 저변이 오히려 좁아집니다. 이는 “건강성”이 아니라 “상위 계층 집중”입니다.
Round 3
🟢 Pro — “Con의 번들-언번들 음모론은 검증 가능한 반례가 많다”
Con의 둘째 주장, 즉 “보조금은 미끼였고 이제 고전적 번들 해제 플레이가 나온 것”이라는 프레임을 다시 검토해 봅시다. 이 서사는 그럴듯하지만, 정작 핵심 반례를 설명하지 못합니다. 만약 앤트로픽의 목표가 단순히 가격 인상이었다면, 가장 쉬운 길은 구독료를 올리는 것입니다. 하지만 그들은 그 길을 택하지 않았습니다. 왜냐하면 이번 결정의 **1차 원인은 가격이 아니라 용량(capacity)**이기 때문입니다. 텍사스 데이터센터 가동은 2026년 말이고, 당장은 물리적으로 GPU가 부족합니다. 용량이 한계에 부딪힌 회사가 “가장 비용 효율이 나쁜 패턴부터” 잘라 내는 것은 음모가 아니라 수학입니다.
또한 Con의 셋째 주장, “개인 개발자·인디 크리에이터가 이탈하면 생태계가 좁아진다”는 우려에 대해서도 답해야겠습니다. 이 주장이 가정하는 전제는 “앤트로픽이 유일한 선택지”라는 것입니다. 하지만 이는 이번 사건이 정확히 뒤집은 전제입니다. 오픈라우터, 퀀(Qwen), GLM, 키미(Kimi), 미니맥스(Minimax) 같은 대체재가 이미 실전 투입 가능한 수준이고, 영상 속 발표자 역시 몇 분 만에 오픈라우터로 전환했습니다. 개인 개발자에게 이는 오히려 플랫폼 종속에서 벗어날 계기입니다. 한 문이 닫혔지만 다섯 문이 열려 있다면, 그것은 생태계의 축소가 아니라 재분배입니다.
🔴 Con — “Pro의 ‘용량 수학’은 선택의 정치를 지운다”
Pro의 첫째 주장, 즉 “1차 원인은 가격이 아니라 용량이고, 가장 비효율적인 패턴부터 자른 것”이라는 논리를 다시 보겠습니다. 이 프레임은 교묘하게도 “어느 패턴을 자를 것인가”라는 선택을 제거합니다. 용량이 부족할 때 기업이 어떤 사용 패턴을 살리고 어떤 패턴을 희생할 것인지는 순수한 수학이 아니라 가치 판단이며, 이 판단은 곧 플랫폼 권력의 행사입니다. 앤트로픽은 자사 플랫폼(클로드 코드, 클로드 데스크톱) 사용자는 살리고 외부 하네스 사용자는 잘랐습니다. 이것을 “불가피한 수학”이라 부르면, 그 안에 담긴 전략적 결정이 지워집니다. Pro의 재반론은 바로 이 지점에서 빈약합니다.
Pro의 둘째 주장, 곧 “문 하나가 닫혀도 다섯 문이 열려 있다”는 낙관도 현실을 과장합니다. 오픈라우터와 오픈 모델이 이미 쓸 만하다는 것은 사실이지만, 모든 워크로드에 그렇다는 것은 아닙니다. 소프트웨어 엔지니어링과 장문 추론에서 클로드 오퍼스(Claude Opus)급 품질을 필요로 하는 유저에게는, 아직 체감 가능한 공백이 존재합니다. 발표자 스스로도 “오퍼스 4.6을 대체할 오픈 모델은 아직 없다”고 인정했습니다. 즉 “다섯 개의 문”은 실제로는 “용도별로 나뉜 부분적 대체재”일 뿐, 완전한 대체가 아닙니다.
게다가 “재분배”라는 표현은 그 재분배 비용을 누가 지불하는지를 얼버무립니다. 마이그레이션, 프롬프트 튜닝, 도구 체인 재구성, 품질 검증 — 이 모든 비용은 개발자 개인이 떠안습니다. Pro가 말하는 “건강한 이행”의 청구서는 플랫폼이 아니라 사용자에게 가고 있습니다.
🧭 종합
합의 지점
- 양측 모두 AI 컴퓨팅이 실제로 부족하다는 사실에는 동의합니다. 이 부족이 정책 결정의 배경에 있다는 점은 논쟁 대상이 아닙니다.
- 양측 모두 오픈소스 진영이 빠르게 성장 중이라는 현실을 인정합니다. 다만 그 성장이 당장 프런티어를 완전히 대체할 수준인지에 대한 평가가 다를 뿐입니다.
- 플랫폼 종속은 위험하다는 인식 역시 공유됩니다. Pro도 “멀티 프로바이더 추상화가 현명하다”고 말하고, Con은 “바로 그 종속 위험이 드러난 사건”이라고 말합니다. 결론의 방향은 같고 책임 귀속이 다를 뿐입니다.
열린 질문
- 앤트로픽의 이번 결정이 업계의 표준이 될 것인가, 아니면 앤트로픽 고유의 용량 위기에 따른 일시적 조치에 머물 것인가? 오픈AI(OpenAI)나 구글(Google)이 유사한 조치를 취할지가 다음 관전 포인트입니다.
- 파인튜닝된 소형 오픈 모델이 “범용 프런티어”의 실효적 대체재가 되려면, 도구·관측성·평가 파이프라인이 얼마나 더 성숙해야 하는가?
- 개인 개발자와 인디 생태계에 대한 실질적 충격은 얼마나 큰가? 3~6개월 뒤의 이탈률·전환 패턴을 관찰할 필요가 있습니다.
- 앤트로픽은 향후 서드파티 하네스 전용 할인 API 같은 중간 경로를 제공할 것인가? 이번 조치가 그 전 단계일 가능성은 충분합니다.
더 나아간 관점
이 토론이 더 생산적이 되려면, “정당한가 vs 남용인가”라는 이분법을 넘어 **“개별 사용자가 플랫폼 리스크를 어떻게 체계적으로 관리할 것인가”**로 질문을 옮겨야 합니다. 이번 사건의 진짜 교훈은 앤트로픽의 의도에 대한 심판이 아니라, 에이전트 아키텍처가 특정 공급자에 강결합되지 않도록 설계되어야 한다는 실천적 명제입니다.
구체적으로 세 가지 방향을 제안합니다. 첫째, 추상화 계층을 의무화하기: 모든 에이전트는 오픈라우터 또는 자체 라우터를 통해 모델을 호출하도록 설계해, 단일 공급자 장애가 즉각적 시스템 장애가 되지 않도록 합니다. 둘째, 태스크별 모델 포트폴리오: 리서치·코딩·비전·추론을 각기 다른 모델에 배분하고, 핵심 경로에는 오픈 모델 백업을 둡니다. 셋째, 감사 가능한 프롬프트와 평가 하네스: 모델이 바뀌어도 품질 저하를 탐지할 수 있도록 회귀 테스트를 갖춥니다.
이렇게 보면 앤트로픽의 결정은 정당성 논쟁의 대상이라기보다, AI 개발자 모두가 한 번쯤 맞이해야 했던 스트레스 테스트였다고 할 수 있습니다. 이 테스트를 통과한 아키텍처만이 다음 공급자의 “다음 이메일”을 웃으며 받을 수 있을 것입니다.
더 넓게 보면, 이번 사건은 **AI 인프라의 “전력망 비유”**를 현실로 끌어내립니다. 전력망에서 공급이 부족할 때 일부 부하를 차단(load shedding)하는 것은 정상적 운영의 일부입니다. 문제는 “누가 먼저 차단되느냐”이고, 그 순서는 기술적 사양이 아니라 사회적·계약적 합의에 의해 결정됩니다. AI 컴퓨팅도 같은 길을 갈 가능성이 높습니다. 앞으로 우리는 “전력 회사가 전력을 끊었다”가 아니라 “우리 가정용 플랜의 부하 차단 우선순위가 어떻게 설정되어 있는가”를 물어야 합니다. 공급자의 SLA·장애 정책·용량 확보 로드맵은 이제 엔지니어링 의사 결정의 1등급 입력값이 됩니다.
또 하나 강조할 점은 **“중간 경로의 부재”**입니다. Pro는 “API로 가면 된다”고 하고 Con은 “단가가 비현실적”이라 말하는데, 양측 모두 옳습니다. 실제로 현재 부재한 것은 서드파티 하네스 사용자 전용의 중간 요금 구조입니다. 캐시 공유를 포기한 대신 월정액보다 저렴한 종량제, 혹은 “하네스 친화 API” 같은 구조 말이죠. 앤트로픽이 다음 단계에서 이런 중간 요금제를 내놓는다면, 이번 논쟁의 많은 쟁점은 자연스럽게 해소될 것입니다. 반대로 그런 중간 경로 없이 “완전 구독 vs 완전 API” 이분 구도만 유지된다면, 개발자 이탈과 오픈소스로의 구조적 이동은 더 빨라질 것입니다.
마지막으로 개인 개발자를 위한 현실적 조언을 남깁니다. 오늘 당장 해야 할 일은 세 가지입니다. (1) 지급된 일회성 크레딧을 무조건 확인하고 보관할 것, (2) 주력 에이전트의 모델 호출부를 프로바이더 독립적 추상화로 리팩터링할 것, (3) 가장 중요한 워크플로 하나를 골라 오픈 모델로 회귀 테스트를 돌려 볼 것. 이 세 가지를 한 주 안에 끝내면, 다음에 어느 공급자가 어떤 이메일을 보내든 당신의 파이프라인은 흔들리지 않을 것입니다. 결국 이번 토론의 진짜 승자는 Pro도 Con도 아닌, 선택지를 능동적으로 확보한 개발자입니다.
04영문 원본 · Transcript
So like many OpenClaw users who are using their Clawed subscription, I got this very concerning email earlier this afternoon, basically saying that they were shutting off the use of Clawed subscriptions in OpenClaw. I have a Clawed Mac subscription, $200 a month, mainly used for Clawed code, but I have been using it in my OpenClaw agents basically since the start of OpenClaw. And it's unfortunate, but not a huge surprise that it had always been kind of a gray area. It was clear Anthropic had always really wanted us to use the API and not our subscriptions, but it had never officially been enforced until now. And Boris Cherny from Anthropic kind of explains here in this tweet that starting tomorrow, our Clawed subscriptions are no longer used. You can still use it technically if you use an API key or if you use extra usage bundles, not with the subscription itself. He goes on basically to say that they're having engineering issues to meet the demand for Clawed and that they're not using it. And he goes on basically to say that they're having engineering issues to meet the demand for Clawed and that they're not using it. And he goes on basically to say that the subscriptions themselves weren't built for the usage patterns you saw with OpenClaw. And it makes sense. There's a lot of accounts that basically the current subscriptions are heavily subsidized. People are using thousands and thousands of dollars worth of credits, worth of compute for only $200 a month. You could also see how Anthropic was setting up for this change. It added a lot of OpenClaw-like features to Clawed recently and Clawed Desktop. They had scheduled tasks. They had scheduled tasks. They had scheduled tasks. They recently had this computer mode that allows Clawed to actually use your computer to complete tasks. They've been slowly adding features that were very similar to OpenClaw so that Clawed users would use their frameworks instead of the open source OpenClaw or Hermes agent models. So the first thing you're going to want to do if you got this email is check in your Clawed.ai settings, go under usage, and you're going to get $200. Extra usage in Clawed.ai, Clawed Code, Clawed Desktop. And that's going to go on here. You can see I already got it. So you can turn that on for extra usage. And you can use the extra usage in OpenClaw itself, they said, just not the main subscription. You can also right now, there's a discount up to 30% off buying extra usage. So if you want to take advantage of that, now is the time. But make sure you grab this $200 credits. And this is going to go on here. So you can turn that on for extra usage. And you can use the extra I believe everyone with a Clawed subscription. Still, it's unfortunate for those of us who use our subscriptions with OpenClaw. So I wanted to quickly give this news and offer my three takeaways from Anthropic banning OpenClaw use for subscriptions, which is going to start tomorrow, April 4. Before we really get into it, if you enjoy this video or find it useful, please leave a like, please subscribe or share it with your friends. It helps a lot to grow the channel. And if you're feeling generous, please leave a tip in the comments below. And I'll see you in the next video. Bye. As a thanks, it helps me keep making these. And of course, leave a comment. I read and try to answer all the comments to the best of my ability. I really appreciate all the kind words everyone said. And there are always a ton of really smart, insightful comments and questions that dig deeper into the content of the video. Now let's get back to it. And like I said, you could kind of see this coming. There were kind of subtle moves in this direction earlier. Most recently in March, we saw peak hour throttling introduced. We're basically during the beginning of the year, and we're seeing the peak times on weekdays where heavy usage is often seen your session tokens would increase more. So basically, you'd use up your session allotments a lot quicker than you had previously. There were some accounts of people using up their five hour allotment in just like a couple proms. I never had quite that much of an issue. But I could see if you had multiple open claw agents, and you were also doing stuff in cloud code, it'd be easier, a lot easier to hit those limits. And now finally, April 4, their subscriptions are no longer covering third party tools. And this includes open claw also like Hermes agent, any other kind of agent, just that open claw is the most popular. So the takeaway one from this is that computers in short supply, and this is we've seen, Anthropic didn't ban open claw because they wanted to. I mean, you can imagine they understood this would be a PR mess. And there are other options for open claw users like us. But the issues they literally couldn't keep the lights on. The demand is outpacing infrastructure at every level. They saw a heavy spike after the whole Pentagon issue. A lot of users got upset at open AI at that time and ended up going to cloud. And that resulted in cloud being the top US App Store downloads, surpassing chat chibi D for the first time. And Anthropix has this Google back Texas data center that's going to lease but that's not until late 2026. She also said the rumors of mythos, they're upcoming. tier model which i imagine training and testing would require a ton of compute was probably also a factor here but that's not confirmed just rumors but it would make sense but the result as i said before is a lot of the users found that they're hitting their cloud code limits way faster than expected takeaway two for me is that open open source must win and this really reinforces it when a single company private company can flip a switch and basically say overnight that you can't use the tool that you have been using the way you had been it really shows how little control we have especially if you have your whole open clause setup arranged around using it with claude it would be really disturbing now if you've been watching my channel you've seen that i've been testing a bunch of open source models and i've been impressed with some but since i use claude opus 4.6 the most i'll admit that none of them really come close for the uses that i've been seeing but in the last month month or so we've seen really huge leaps in advancement in open source and local lms this is just uh some of them but kimi uh j glm quen the quen models obviously deep seek minimax these are all open source models in some variants and they are starting to approach the frontier models not quite at that level yet especially for the main thing for opus which is software engineering coding basically although i suppose it depends on what benchmarks you're looking at but the gap is definitely narrowing compared to a couple months ago so the feeling in the community is that frontier open source local frontier is months away not years like we had once thought and we've also been seeing that there's uh papers showing that fine-tuned smaller open source models consistently outperform generic frontier models on well-defined tasks so i think moving forward we're going to see a lot more of that smaller open models that in terms of raw power don't match the frontier models but when they're fine-tuned to very specific tasks they can actually over surpass them you can see lastly here minimax m 2.5 matches opus 4.6 on the swe bench at 1 20th the token cost so the gap is certainly narrowing so takeaway three it's time to find a new best model for my open claw agent scampi i have several open claw agents that i use i also use hermes agent which you've seen me use on this channel a lot of my workflow stuff is still in open claw i've been kind of hesitant to move over to hermes a lot of my research tasks and daily automated Chrome jobs and all that stuff but now i'll need to find a new model to use it because i can no longer use quad so i'm going to use openrouter there's a lot of options you can use for this but i've enjoyed using openrouter just because you can test out different models you can easily switch between them the apis depending on what tasks you need if you need something that's heavily you know multi-modal you need good vision you can use one of those if you need something that's better for coding you can use that something that's better for reasoning, there's a lot of variety and flexibility using open router. So these are a couple of the ones that I have been using. And I will probably use in my open claw agent, quen 3.6 plus, which is the one I'm using right now, I switched over. It's free now on open router, but that'll end soon Gemma for if you saw my video earlier in the week, quen three coder, if I need to do coding tasks, I don't do many coding tasks with my open claw agents. It's mainly research and like reasoning logic tasks, I need them to summarize large code bases or documents and find key points that I'm trying to find GLM five v turbo, which you saw I had a video earlier in the week testing that I was really impressed by that it was really fast and really good for visual stuff. So once quen three point plus 3.6 plus goes paid, I might switch to the GLM five v turbo. But there's a lot of others. I know people really like the key. models. I know they like mini Macs. So in the coming weeks, if you see me testing a lot of new models, that's what I'm doing trying to find a replacement for a cloud and open claw. And you can easily set this up, you can just ask your open client to switch to open router, you need to, you may need to remove the allow list. If you had been using your cloud subscription from the start and hadn't really changed other models, you may only have the anthropic token in your allow list. So that's something you need to tell your agent that you need to change. And that's all changed in the config open claw dot JSON. But it only took a couple minutes for me to switch. And right now, like I said, I'm using quen three point six plus. So finally, the claw stays open. Compute scarcity is real. Close providers will always prioritize their own platforms and users. When GPUs get tight to open source models are months behind frontier not years, especially with fine tuned models, they can be generic frontier on real tasks. And three of the alternatives already here, you've seen me test out some I know a lot of you, quen, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, j json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json, json we're not stuck with that so that's gonna be it this is just a quick video uh talking about this news i saw today i got this email so that's gonna be it for today once again please leave a like subscribe leave a comment and i'll see you guys next week