OpenAI 로보틱스 리더 사임 — Pentagon 계약의 파장이 내부로 번지다

무슨 일이 있었나

2026년 3월 7일, OpenAI의 로보틱스 하드웨어 팀을 이끌던 Caitlin Kalinowski가 Pentagon 계약에 항의하며 사임을 발표했습니다.

Kalinowski는 X(구 Twitter)에 올린 글에서 두 가지 핵심 우려를 밝혔습니다.

“사법부 감독 없는 미국인 감시(surveillance of Americans without judicial oversight)와 인간 승인 없는 자율 살상(lethal autonomy without human authorization)은 더 많은 숙의가 필요한 레드라인이었다.”

후속 포스트에서는 이렇게 덧붙였습니다.

“명확히 하자면, 내 문제는 가드레일이 정의되기 전에 발표가 서둘러 이뤄졌다는 것이다. 이것은 무엇보다 거버넌스 문제다.”

핵심은 Pentagon과 AI 계약을 맺는 것 자체에 반대한 게 아니라, 안전장치 없이 서둘러 발표한 과정에 대한 항의라는 점입니다.

TechCrunch — OpenAI robotics lead quits in response to Pentagon deal

관련 소식

Kalinowski의 경력과 영향력

Kalinowski는 실리콘밸리에서 검증된 하드웨어 리더입니다. Apple에서 약 6년간 MacBook 설계에 참여했고, Meta(구 Facebook)에서 9년 이상 Oculus VR 헤드셋을 개발했습니다. 이후 Meta의 Orion AR 글래스 개발을 2년 반 동안 이끌었고, 2024년 11월 OpenAI에 합류했습니다.

그녀의 사임은 OpenAI의 로보틱스 야망에 직접적인 타격입니다. OpenAI는 지난 1년간 샌프란시스코에 약 100명의 데이터 수집 인력이 근무하는 연구소를 조용히 구축해왔습니다. 로봇 팔에 가사 노동을 학습시키는 것을 시작으로, 궁극적으로 휴머노이드 로봇을 만드는 것이 목표입니다. 캘리포니아 리치몬드에 제2 연구소도 계획 중이었습니다.

OpenAI는 “Kalinowski를 대체할 계획이 없다”고 밝혔습니다. 이 말이 로보틱스 하드웨어 팀의 방향 전환을 의미하는지는 아직 불명확합니다.

Fortune — OpenAI robotics leader resigns over Pentagon surveillance concerns

OpenAI의 공식 입장

OpenAI는 다음과 같이 대응했습니다.

“우리는 Pentagon과의 합의가 AI의 책임 있는 국가안보 활용을 위한 실행 가능한 경로를 만든다고 믿는다. 국내 감시 금지와 자율 무기 금지라는 레드라인을 명확히 했다.”

그러나 Kalinowski의 주장은 이 레드라인이 계약 이전에 명확히 정의되지 않았다는 것입니다. “결과물은 같을 수 있지만, 과정이 문제”라는 거버넌스 비판인 셈입니다.

NPR — OpenAI robotics leader resigns over concerns about Pentagon AI deal

OpenAI 내부 균열의 역사

이번 사임은 OpenAI 역사에서 반복되는 패턴의 연장선입니다. 2023년 11월 Sam Altman 해임 사태, Ilya Sutskever와 Jan Leike의 Superalignment 팀 해체 후 퇴사, 그리고 비영리에서 영리 전환 과정의 내부 갈등까지. OpenAI는 “안전”과 “성장” 사이의 긴장을 반복적으로 겪고 있습니다.

다만 이번 건은 성격이 다릅니다. 이전의 갈등이 “AI 안전 vs. 상업화”라는 기술적 논쟁이었다면, 이번은 “AI의 군사적 활용”이라는 더 근본적인 가치 충돌입니다.

연쇄적 인재 유출 가능성

Kalinowski의 사임 이후, 다른 OpenAI 직원들도 유사한 우려를 표명하고 있다는 보도가 나오고 있습니다. Pentagon 계약이 장기적으로 OpenAI의 인재 확보에 어떤 영향을 미칠지 주목할 필요가 있습니다. 실리콘밸리의 탑티어 AI 인재들은 군사 프로젝트에 대해 전통적으로 거부감이 강합니다. Google의 Project Maven 사태(2018)가 그 전례입니다.

CNBC — OpenAI hardware leader resigns after deal with the Pentagon

개념 정리

AI의 군사적 활용 — 어디까지가 레드라인인가?

현재 주요 AI 기업들의 군사 AI 입장은 다음과 같습니다.

기업입장
Anthropic대규모 국내 감시, 자율 살상 무기 거부. Pentagon 계약 상실
OpenAIPentagon 계약 체결. “국내 감시·자율 무기 금지” 선언했으나 사전 거버넌스 부재 논란
Google2018 Project Maven 철수 이후 방어적 입장. 현재 연방 AI 계약 참여 중
Microsoft적극적 군사 AI 참여 (Azure Government, JEDI/JWCC 후속 계약)
Palantir설립 목적 자체가 국가안보. AI 무기 시스템 적극 개발

핵심 쟁점은 세 가지입니다:

  1. 국내 감시(Domestic Surveillance): AI가 미국 시민을 대상으로 영장 없이 감시 활동에 사용되는 것
  2. 자율 살상(Lethal Autonomy): 인간의 최종 승인 없이 AI가 치명적 무력 사용을 결정하는 것
  3. 거버넌스 타이밍: 안전장치가 계약 전에 정의되어야 하는가, 계약 후에 구체화해도 되는가

정리

Kalinowski의 사임은 개인의 양심적 결정이지만, 더 큰 구조적 문제를 가리킵니다.

AI 기업들은 이제 피할 수 없는 선택 앞에 서 있습니다. 군사 계약은 거대한 수익원이지만, 실리콘밸리의 핵심 인재들은 이에 거부감을 느낍니다. Google이 2018년 Project Maven에서 철수한 후 내부 문화를 안정시키는 데 수년이 걸렸습니다. OpenAI가 같은 실수를 반복하고 있는 건 아닌지 의문입니다.

특히 OpenAI의 대응이 주목할 만합니다. “대체할 계획이 없다”는 발표는 두 가지로 해석됩니다. 로보틱스 하드웨어 방향을 재검토하겠다는 의미일 수도 있고, 한 명의 사임에 동요하지 않겠다는 강경 메시지일 수도 있습니다.

Anthropic과 OpenAI의 대조가 선명합니다. 한쪽은 계약을 거부하고 사용자를 얻었고, 다른 한쪽은 계약을 수락하고 핵심 인재를 잃었습니다. 어떤 선택이 장기적으로 더 나은 전략인지는 아직 모릅니다. 하지만 AI 기업의 “가치관”이 인재 확보, 사용자 신뢰, 그리고 궁극적으로 시장 경쟁력에 직접적인 영향을 미치는 시대가 왔다는 점은 분명합니다.

출처: TechCrunch · Fortune · NPR


Sources

댓글 0

0 / 1000