미 국방부, Anthropic을 'Supply Chain Risk'로 공식 지정 — AI 안전과 국가 안보의 첫 정면충돌

무슨 일이 있었나

미 국방부(DOD)가 Anthropic을 공식적으로 supply chain risk로 지정했습니다. 3월 5일, CNBC가 단독 보도했습니다.

배경은 이렇습니다. DOD는 자율 무기 시스템 개발과 국내 대규모 감시 프로그램에 Claude 기술을 활용하고 싶었습니다. Anthropic은 이를 거부했습니다. 협상이 수개월간 이어졌지만 결렬됐고, DOD는 결국 Anthropic을 공급망 리스크 목록에 올리는 이례적인 조치를 취했습니다.

Anthropic은 즉각 법적 대응을 예고했습니다.

관련 소식

클라우드 3사, Anthropic 지지 선언

이 소식이 알려진 직후, Microsoft·Google·Amazon이 나란히 공식 성명을 발표했습니다. 세 기업 모두 “비국방 고객에게 Claude 모델 접근을 계속 제공하겠다”고 확인했습니다. Azure, Google Cloud, AWS에서 Claude API를 사용하는 기업 고객에게는 서비스 연속성이 보장된 셈입니다.

TechCrunch — Microsoft, Google, Amazon say Anthropic Claude remains available

Claude 앱, App Store 1위 기록

Pentagon 분쟁이 알려지면서 Claude 앱 다운로드가 급증했습니다. iPhone App Store에서 ChatGPT를 제치고 1위에 올랐고, Anthropic 대변인은 “역대 최고 가입자 수”를 기록했다고 밝혔습니다. 앱 순위 추적 서비스에 따르면 일일 다운로드가 전주 대비 약 300% 이상 증가한 것으로 추정됩니다.

TechCrunch — Anthropic’s Claude rises to No. 2 in the App Store following Pentagon dispute

대조적으로, OpenAI는 사용자 이탈

같은 시기에 OpenAI는 국방부에 서비스를 제공하겠다고 발표한 후 약 150만 명의 사용자를 잃었다는 보도가 나왔습니다. AI 업계에서 군사 협력 여부가 소비자 선택에 직접적으로 영향을 미치는 선례가 만들어지고 있습니다.

Gizmodo — OpenAI in desperate need of a win

수치로 보기

항목수치
Claude 앱 다운로드 증가율약 300%+ (전주 대비)
OpenAI 이탈 사용자 수약 150만 명
클라우드 파트너 지지 선언Microsoft, Google, Amazon 3사

정리

AI 기업이 정부의 군사적 요구를 공개적으로 거부하고, 그 대가로 공식 제재를 받은 것은 이번이 처음입니다.

Anthropic의 Acceptable Use Policy는 창업 초기부터 무기 개발, 대량 감시, 인권 침해 목적의 AI 활용을 명시적으로 금지해 왔습니다. 이번 사건은 그 원칙이 실제로 비즈니스에 영향을 미치는 순간이 왔을 때, Anthropic이 어떤 선택을 했는지를 보여줍니다.

흥미로운 것은 시장의 반응입니다. 통상적으로 정부 제재는 기업 가치에 부정적이지만, 이번에는 오히려 소비자 신뢰가 상승했습니다. “AI 안전”이라는 가치가 단순한 마케팅 메시지가 아니라, 실질적인 브랜드 자산으로 작동할 수 있다는 것을 수치로 입증한 사례입니다.

다만, 이 효과가 장기적으로 지속될지는 지켜봐야 합니다. 소비자는 결국 모델 성능으로 움직이기 때문입니다. Anthropic이 안전과 성능 두 가지를 동시에 유지할 수 있느냐가 핵심입니다.

출처: CNBC


Sources

댓글 0

0 / 1000