트럼프와 알트만이 다리오를 순교자로 만들었다 — 다만 그는 순교자가 아니다
한 명은 뺨을 때렸고, 한 명은 뒤통수를 쳤다. 가만히 서 있는 사람만 성인처럼 보인다 — 가까이서 보기 전까지는.
오늘도 11,654명의 창업가와 투자자가 주실밸과 함께합니다.
📺유튜브 | 💬카톡공지방 | 🗣스타텁/VC/LP 카톡방(비번2060) | 🔗링크드인 | 📸인스타그램
오늘 뉴스레터는 좀 특이합니다. 어제 한글로 썼던 뉴스레터를 영문으로 번역하면서 프레임워크를 좀 바꿔봤습니다. 한국식 비교 분석 글을 미국식 스토리텔링 글로 재구성했습니다. 그러다보니 톤도 많이 변하고 관점도 약간 옮겨졌는데, 재미있어하실 분들이 있으실 것 같아 한국어 글을 영어로 번역한 글을 다시 한국어로 번역해서 ㅋㅋㅋ 공유드립니다. 아래는 어제 글입니다.
읽으시고 나서 아래 투표에 어제 글이 더 재미있으셨는지, 오늘 글이 더 재미있으셨는지 남겨주세요! ㅎㅎㅎ 감사합니다.
TLDR for AI
트럼프와 알트만이 다리오 아모데이를 실리콘밸리의 순교자로 만들었습니다. 하나는 연방정부 전체에서 퇴출이라는 뺨으로, 하나는 공개 지지 후 뒤통수라는 칼로. 결과? Claude가 앱스토어 1위, 서버 다운, AI 역사상 가장 효과적인 마케팅 캠페인이 되었습니다. 다만 — 순교자는 성인이 아닙니다. 안전 서약 철회, 킬 체인, 공포 마케팅의 부메랑까지. 오늘은 이 순교가 진짜 시장 포지션으로 전환되는지 구조적으로 뜯어봅니다.
아무도 계획하지 않은 최고의 마케팅 캠페인
세상에서 가장 강력한 두 남자 — 하나는 나라를, 하나는 AI의 대명사를 운영하는 — 가 Anthropicd의 다리오 아모데이를 순교자로 만들었습니다. 성인. 실리콘밸리 마지막 양심.
이 순교는 AI 역사상 가장 효과적인 마케팅 캠페인이 되었습니다. 월요일, Claude가 앱스토어 1위에 올랐고 그리고 서버가 터졌습니다. 수요를 감당하지 못해서요. Anthropic은 여기에 1원도 안 썼습니다 (뭐, 첫 파도를 일으킨 Super Bowl 광고 빼고요).
다만 — 그는 성인이 아닙니다. 왜 그게 중요한지 이해하려면, 먼저 이 순교가 어떻게 만들어졌는지부터 봐야 합니다.
Act 1: 트럼프의 뺨
타임라인은 이미 잘 알려져 있으니 간단히 정리하겠습니다.
1. Anthropic이 Pentagon에 “No” — 대량 감시와 자율 무기 타겟팅에 Claude 사용을 거부
2. 샘알트만이 공개적으로 Anthropic을 지지 — 직원들과 언론에 “같은 레드라인”이라고 말함
3. 트럼프가 Anthropic을 연방정부 전체에서 퇴출 — DoW뿐만 아니라 교육부, 보건부, NASA까지 전부. 지금까지 중국·러시아 기업에만 붙이던 “supply chain risk” 딱지를 붙임
4. 수시간 뒤, 알트만이 Pentagon 딜을 본인이 체결 — 방금 공개 지지한 그 “같은 레드라인” 위에서
5. OpenAI가 $730B 밸류에이션에 $110B 펀딩 발표 — Amazon $50B, Nvidia $30B, SoftBank $30B
“Supply chain risk” 지정은 짚고 넘어갈 가치가 있습니다. 미국 정부가 역사적으로 Huawei, Kaspersky, 그리고 적성국 정보기관과 연계 의혹이 있는 기업에 사용해온 도구입니다. 트럼프는 이걸 미국 AI 기업 — 그것도 이미 군의 classified network에서 제품이 돌아가고 있는 회사 — 에 사용했습니다. CEO가 계약에 “No”라고 했다는 이유로요.
Act 2: 알트만의 뒤통수
트럼프가 뺨을 때렸다면, 알트만은 뒤통수를 쳤습니다. 하지만 이 뒤통수는 다리오보다 알트만 본인에게 더 큰 데미지를 입혔습니다.
알트만은 직원들에게 Anthropic과 같은 레드라인을 공유한다고 공개적으로 말했습니다. 그리고 Pentagon 딜을 체결했습니다. 그리고 조건이 동일하다고 주장했습니다. 근데 합리적으로 생각해보면 — 조건이 정말 동일했다면, 정부가 왜 바꿨겠습니까? Pentagon은 이미 classified network에 Claude를 배치했고, CENTCOM이 실전에서 검증했습니다. 동일한 조건의 시스템을 이유 없이 교체하지는 않습니다.
Platformer와 The Verge가 이걸 확인했습니다. OpenAI의 Pentagon 계약은 세 단어로 요약됩니다: ”any lawful use.” 합법이면 미군이 OpenAI 기술로 뭘 하든 허용하는 구조입니다. 알트만이 근거로 든 법률 — EO 12333, FISA, National Security Act — 이게 바로 2013년 Snowden이 폭로한 대규모 감시 프로그램을 가능하게 한 바로 그 법적 근거입니다. 전부 “합법”이었죠.
OpenAI의 전 정책연구 책임자 Miles Brundage가 X에서 이렇게 말했습니다: ”OpenAI는 굴복하면서 굴복하지 않은 것처럼 포장했고, Anthropic을 돕는 것처럼 말하면서 실제로는 뒤통수를 쳤다.” (이후 “굴복” 표현은 완화했지만 — 핵심은 그대로입니다.)
이건 갑자기 일어난 게 아닙니다. 알트만의 모순은 이미 잘 문서화된 패턴 — 보드 증언부터 계약 분쟁, 라이선싱 논란까지. 매번 같은 구조입니다: 공개적으로 지지하고, 비공개로 뒤엎는.
TechCrunch 인터뷰에서 알트만 본인이 딜이 “definitely rushed 너무 급했다”였다고 인정했고, “the optics don’t look good 보기에 좋지않다”이라고도 했습니다 (스포일러: 보기에만 안 좋은 게 아닙니다). 그러고는 시키지도 않은 AMA를 X에서 급하게 열었습니다 — 내러티브가 밀린다고 느꼈다는 신호입니다.
결과적으로: 트럼프는 보복적 퇴출로, 알트만은 본인의 행동 패턴으로, 다리오 아모데이의 순교를 이뤄냈습니다. 다리오가 한 건 아무것도 없습니다. 그냥 서서 “No”라고 말하면 됐습니다.
Act 3: 순교 (a.k.a. AI 역사상 최고의 마케팅 캠페인)
그리고 순교는 먹혔습니다. PR 때문이 아니라 — 중요한 모든 차원에서 정당성의 연쇄 이전을 만들어냈기 때문입니다.
테슬라 문제: 샘알트만 버전
대부분이 놓치는 구조적 포인트입니다. Tesla의 핵심 고객은 인프라가 있는 메트로의 구매력 있는 소비자들입니다. 회사가 이 고객층을 소외시키는 정치에 올인하자, 브랜드가 실제 구매자들과 함께 무너졌습니다.
AI로 오면: 가장 많이 쓰고 가장 많이 돈 내는 사람이 누구입니까? 테크 기업, 스타트업, 개발자, 연구자 — 주요 테크 허브에 집중된 사람들입니다. Pentagon의 “any lawful use” 조건을 받아들이면서, OpenAI는 핵심 고객 및 직원 기반과 근본적인 마찰을 도입한 겁니다.
B2C: 퇴출에서 1위까지
ChatGPT의 트래픽은 이미 꺾이고 있었습니다 — 웹 점유율 86.7%에서 64.5%, 모바일 69.1%에서 45.3%. Super Bowl 광고가 가속시켰고, Pentagon 사건이 마무리를 지었습니다.
Reddit에서 “Cancel and Delete ChatGPT!!!” 포스트가 3만 업보트를 찍었습니다. CancelChatGPT.com이 등장했습니다. 3월 1일 기준, Claude가 미국 Apple App Store 1위에 등극 — 독일과 캐나다에서도 1위.
그리고 Claude 서버가 터졌습니다. 월요일 아침, 전 소비자 앱이 5시간 동안 다운. Anthropic의 설명: ”전례 없는 수요.”
정부의 ban과 경쟁사의 배신이 서버를 터뜨릴 만큼의 수요를 만들었다면, 그건 처벌이 아닙니다. 마케팅입니다.
인재: 서명과 연대
지금 AI 전쟁에서 인재를 잃는 건 유저를 잃는 것보다 무섭습니다.
Sutskever, Murati, Schulman — OpenAI에서의 엑소더스는 이미 진행 중이었습니다. 샘알트만은 본인이 공동 창업한 회사에서 유일하게 남은 활동 중인 공동 창업자입니다. 여기에 OpenAI 현직 직원 97명 — Google 772명과 함께 — 이 “We Will Not Be Divided”에 서명하며 Anthropic과 연대했습니다.
2023년, OpenAI 직원들은 알트만의 복귀를 위해 모였습니다. 2026년, 알트만에 반대하기 위해 모이고 있습니다. 3년 만의 180도 반전.
업계에는 이런 말이 있습니다: 진정한 최고 수준의 AI 엔지니어는 100명이 안 된다. 이들에게 OpenAI에서 Anthropic으로 이직하는 건 더 이상 리스크가 아닙니다 — pre-IPO 주식, 사명 정렬, 그리고 유저를 정부에 팔아넘긴 회사로부터의 거리. 합리적인 커리어 결정입니다.
모든 벡터가 한 방향으로 흐르고 있습니다. 거의 대본이 있는 것 같은 완벽한 순교.
거의.
Act 4: 근데 그는 순교자가 아니다
솔직히 말해야 할 때입니다 — 내러티브가 너무 깔끔해서 지금 모두가 지저분한 부분을 잊고 있거든요. 개인적인 경험으로 보면, 내러티브가 이렇게 깔끔할 때가 바로 더 깊이 털어봐야 할 때입니다.
다리오 아모데이는 성인이 아닙니다. 다른 사람들이 너무 문제라서 상대적으로 성인처럼 보이는 것뿐입니다.
Thread 1: 하루 전에 철회한 안전 서약
2월 25일, Anthropic이 Pentagon에 “No”를 말하기 정확히 하루 전, Anthropic은 Responsible Scaling Policy 약속을 조용히 철회했습니다 — 외부 안전 검토가 확인되지 않으면 최첨단 AI 모델을 배포하지 않겠다는 자발적 서약이었습니다.
타이밍이 놀랍습니다. Anthropic 공동 창업자 Jared Kaplan이 이렇게 정당화했습니다 — OpenAI에서 나올 법한 논리로: ”경쟁자들이 앞서 나가는데 사이드라인에 있는 건 말이 안 된다.” Anthropic이 거부하기 위해 설립된 바로 그 “경쟁 압력” 논리입니다.
1일차에 아모데이는 경쟁이 너무 치열해서 회사의 시그니처 안전 약속을 철회했습니다. 2일차에 양심이 허락하지 않는다고 Pentagon에 말했습니다. 둘 다 동시에 사실일 수 있습니다 — 다만 합치면 내러티브가 상당히 복잡해집니다.
Thread 2: Claude는 이미 킬 체인 안에 있었다
아모데이가 Pentagon에 “No”를 말하던 바로 그 날, Claude는 이미 CENTCOM에서 — Palantir의 Maven 플랫폼을 통해 — 이란 공습 계획 포함 실전 군사 작전에 사용되고 있었습니다. Axios와 NBC News에 따르면 kinetic targeting이 포함되어 있었습니다. Anthropic 임원이 Palantir에 전화해서 우려를 표했고, Palantir은 그 통화를 Pentagon에 보고했습니다.
“원칙적 거부”는 AI를 전쟁에서 빼겠다는 게 아니었습니다. Claude는 이미 베네수엘라를 포함한 다른 작전에서 거기 있었습니다. 거부는 특정 확장 — 대량 감시, 벌크 데이터 수집, 자율 타겟팅 — 에 대한 것이었습니다. 선을 그은 것 자체는 인정합니다. 다만 대중적 내러티브 — “Anthropic이 군에 AI 사용을 거부했다” — 는 사실과 다릅니다.
Thread 3: Safety Blowback
다리오는 “치명적 AI 사건 확률 25%”를 공개적으로 주장했습니다. 다보스에서는 AI 칩을 중국에 파는 것을 “북한에 핵무기 파는 것”에 비유했습니다. Fortune은 그의 AI 위험성에 대한 에세이를 ”마케팅과 예언의 중간”이라고 했습니다.
여기서 구조적으로 들어갑니다. 그 공포는 수사가 아니라 전략이었습니다. Anthropic은 Biden의 AI 행정명령을 적극적으로 로비했습니다. 캘리포니아의 SB 1047을 기존 대기업에 유리하게 약화시킨 뒤에 지지했습니다. Meta의 Yann LeCun은 오픈소스 모델을 규제하려고 로비한다고 비판했습니다 — 이건 직접적으로 Anthropic의 경쟁 이익에 부합합니다. 백악관 AI 차르 David Sacks는 몇 달째 이걸 “regulatory capture”라고 부르고 있습니다. 그의 말에 일리가 있습니다.
아이러니는 여기 있습니다: 수년간 세상에 AI가 핵무기급으로 위험하다고 설득하면, 정부가 “좋아, 핵무기처럼 규제하겠다”고 대응하는 건 당연한 수순입니다. 이 ”Safety Blowback” — 펀드레이징과 규제적 우위를 위해 배포된 종말론적 안전 수사가, 결국 자기 사업을 위협하는 정부 과잉 규제의 정치적 조건을 만드는 것. Anthropic이 수사적 발판을 쌓았고, 트럼프가 그 위에 올라선 겁니다.
Palmer Luckey와 Ben Thompson의 질문 — “민주주의를 믿습니까?” — 양날의 검입니다: 경쟁사를 불리하게 만드는 안전 규제를 로비하는 것이 원칙적 옹호입니까, 아니면 실험실 가운을 입은 사업 전략입니까?
TechCrunch는 이걸 “Anthropic이 스스로 만든 함정”이라고 불렀습니다. 안전에 이렇게 강하게 브랜딩하면, 아무리 실용적인 타협이라도 위선으로 읽힙니다. RSP 철회, Palantir 상황, 다리오 본인의 자율 무기가 “국방에 필수적일 수 있다”는 인정 — 하나하나가 브랜드와 현실 사이의 격차를 넓힙니다. “무슨 대가를 치르더라도 안전” 포지셔닝은 이미 조용히 퇴장하고 있습니다.
그래서 어쩌라고?
두 남자가 하나의 이야기를 만들어냈습니다: 트럼프는 보복적 퇴출로, 알트만은 배신으로. 둘은 AI 역사상 가장 효과적인 순교이자 마케팅 캠페인을 제조했습니다. 다리오 아모데이는 성인으로의 캠페인이 필요 없었습니다. 모두가 “Yes”를 말할 때 혼자 “No”라고 말하면 됐습니다.
다만 순교자가 되었다고 성인이 되는 건 아닙니다.
다리오는 Pentagon에 “No”를 말하기 하루 전에 안전 서약을 철회했습니다. 레드라인을 그었을 때 Claude는 이미 킬 체인 안에 있었습니다. 그의 회사는 경쟁사를 불리하게 만드는 규제를 로비했습니다. 그리고 Anthropic의 브랜드를 만든 공포 마케팅이 바로 그 ban의 정치적 조건을 만들었습니다.
진짜 중요한 질문은 도덕이 아니라 구조입니다: 이 순교가 지속 가능한 시장 포지션으로 전환되는가?
피해를 정리해보겠습니다. 연방정부 ban으로 Anthropic이 잃는 정부 계약은 대략 $200M입니다. 대부분의 추정에 따르면 $4-5B+ ARR 대비 5% 미만 — 적지 않지만, 얻은 브랜드 자산의 가치를 생각하면 충분히 감수할 만합니다. 다만 리텐션 없는 브랜드 자산은 일시적입니다. 오늘 Claude가 앱스토어 1위지만, 항의성 다운로드는 제품 충성도가 아닙니다. 이건 계속 추적해야 합니다.
“We Will Not Be Divided”에 서명한 OpenAI 직원 97명의 서명은 의미가 있습니다. 진정한 최고 수준의 AI 연구자가 100명이 안 되는 업계에서, 그 중 다수가 이미 OpenAI 출신인 상황에서, 이 순간은 구조적으로 의미가 있습니다. 지켜볼 질문: 그들이 실제로 떠나는가? 앞으로 90일 안에 최고급 연구자 다섯, 여섯 명만 이직해도 인재 플라이휠이 자기 강화를 시작합니다 — 그때가 순교가 구조적인 무언가로 전환되는 시점입니다.
두 명의 빌런, 한 명의 우연한 영웅, 그리고 성인은 없다. 2026년 AI판에 오신 걸 환영합니다.
앞으로도 함께 지켜봅시다.
이안 드림





