SPACEBARSpacebarAI Research
칼럼··8 min read·SpacebarAI

[칼럼] AI 기업은 자기 기술의 사용을 거부할 수 있는가

Anthropic이 펜타곤에 'No'라고 말했습니다. AI 기업의 기술 사용 거부권은 어디까지 인정되어야 할까요.

전례 없는 거절

Anthropic이 미국 국방부에 "No"라고 말했습니다. 자사 AI가 대규모 감시와 자율 무기에 사용되는 것을 허용할 수 없다고 했습니다. 펜타곤은 "모든 합법적 용도"에 사용할 수 있어야 한다고 요구했고, Anthropic은 거절했습니다. 그 대가는 "공급망 리스크" 지정이었습니다. 통상 적대국 기업에 붙이는 딱지를 미국 AI 기업에 붙인 것입니다.

이 사건은 단순한 계약 분쟁이 아닙니다. AI 기업이 자기 기술의 사용처를 제한할 권리가 있는지에 대한 첫 번째 실전 테스트입니다.


세 가지 시선

이 사건을 바라보는 시선은 크게 세 가지로 나뉩니다.

국가 안보 우선론

펜타곤의 논리는 명확합니다. 국가 안보가 걸린 상황에서 민간 기업이 기술 사용 범위를 결정해서는 안 된다는 것입니다. 특히 펜타곤이 우려하는 시나리오는 군사 작전 중 Anthropic이 "모델의 동작을 사전에 변경하거나 기술을 비활성화"하는 상황입니다. 전장에서 AI가 갑자기 작동을 멈추면 생명이 위험해질 수 있습니다.

이 관점에서 Anthropic의 거부는 민간 기업이 국가 안보 결정에 거부권을 행사하는 위험한 선례입니다.

기업 자율권론

Anthropic과 지지자들의 논거도 강력합니다. 150명의 전직 판사, Microsoft, 그리고 경쟁사인 OpenAI와 Google의 직원 30명 이상이 Anthropic을 지지하고 있습니다. Google 수석 과학자 Jeff Dean까지 서명했다는 점은 이 문제가 경쟁 구도를 넘어섰음을 보여줍니다.

핵심 논거는 수정헌법 제1조입니다. Anthropic은 AI 안전에 대한 자사의 입장이 "보호받는 발언(protected speech)"이며, 정부가 이를 이유로 보복할 수 없다고 주장합니다. 기업이 자사 제품의 사용 조건을 설정하는 것은 기본적인 사업 자유라는 것입니다.

제3의 시선: 구조적 문제

가장 불편한 질문은 따로 있습니다. Anthropic이 거절한 바로 그 자리를 OpenAI가 채웠다는 것입니다. NPR에 따르면 Anthropic이 펜타곤에서 밀려난 직후, OpenAI가 국방부 계약을 체결했습니다.

이것은 개별 기업의 윤리적 선택이 산업 전체의 변화로 이어지지 않을 수 있음을 보여줍니다. Anthropic이 거부해도 다른 기업이 그 역할을 대신합니다. 윤리적 기업은 매출과 시장 접근성을 잃고, 덜 제약적인 기업이 같은 기술을 군사적으로 더 넓게 활용하는 역설이 발생합니다.


선례가 될 세 가지 이유

3월 24일로 예정된 임시 구제 심리의 결과가 중요한 이유가 있습니다.

첫째, AI 기업의 "사용 제한 약관"이 법적으로 유효한지가 처음 시험됩니다. 대부분의 AI 모델은 이용약관에서 무기 개발이나 감시에의 사용을 금지하고 있습니다. 이 약관이 정부를 상대로도 유효한지는 아직 판례가 없습니다.

둘째, "공급망 리스크" 지정의 남용 가능성이 다뤄집니다. 이 지정은 본래 화웨이 같은 외국 기업을 대상으로 설계된 것입니다. 이를 미국 기업에 적용한 것은 정부가 동의하지 않는 기업을 압박하는 도구로 사용될 수 있다는 우려를 낳습니다.

셋째, AI 군사 거버넌스의 프레임워크가 필요하다는 사실이 드러났습니다. 현재는 "모든 합법적 용도" 대 "특정 용도 제한"이라는 양극단만 존재합니다. 중간 지대, 즉 어떤 군사적 용도는 허용하되 어떤 것은 제한하는 구체적인 프레임워크가 없습니다.


결국 필요한 것

Anthropic의 거부가 옳은지 그른지를 판단하기 전에, 이 사건이 드러낸 공백을 먼저 봐야 합니다. AI의 군사적 활용에 대한 명확한 규칙이 없습니다. 기업별 이용약관, 개별 계약 조건, 그리고 정부의 재량에 맡겨져 있을 뿐입니다.

개별 기업의 윤리적 선택에 의존하는 것은 지속 가능하지 않습니다. 한 기업이 거부하면 다른 기업이 대체합니다. 필요한 것은 AI의 군사적 활용 범위를 정하는 산업 표준이나 법적 프레임워크입니다.

3월 24일 법정에서 나올 판단은 그 프레임워크의 첫 번째 조각이 될 수 있습니다. Anthropic이 이기든 지든, 이 재판은 AI 기업과 정부의 관계를 정의하는 중요한 순간입니다.


핵심 요약

  • Anthropic이 AI의 군사적 사용 제한을 고수하며 펜타곤에 거부했고, 이는 AI 기업의 기술 사용 거부권에 대한 최초의 법적 시험대가 되고 있습니다
  • 경쟁사 직원, 전직 판사 150명, Microsoft까지 Anthropic을 지지하는 이례적 연대가 형성되었으나, OpenAI가 같은 자리를 대체하며 개별 기업 윤리의 한계도 드러났습니다
  • 3/24 임시 구제 심리를 앞두고, AI 군사 거버넌스의 구체적 프레임워크 필요성이 부각되고 있습니다

관련 리서치