[데일리] Anthropic, 펜타곤과 갈등 격화 — 자율무기 조항 거부
Anthropic이 펜타곤과의 계약에서 자율무기 사용 금지 조항을 포기하라는 요구를 거부했습니다. AI 기업의 윤리적 선택이 시험대에 올랐습니다.
Anthropic vs 펜타곤: 자율무기 조항 충돌
Anthropic과 미국 국방부(펜타곤) 사이의 갈등이 표면화되었습니다. 핵심 쟁점은 Anthropic이 계약서에 포함시킨 두 가지 조항입니다:
- AI를 완전 자율 무기에 사용하지 않을 것
- AI를 대규모 국내 감시에 사용하지 않을 것
펜타곤은 이 조항의 삭제를 요구했고, Anthropic은 거부했습니다.
왜 중요한가
이것은 단순한 계약 분쟁이 아닙니다. AI 기업이 자사 기술의 사용처에 대해 어디까지 제한할 수 있는가 — 이 질문이 처음으로 실질적인 수준에서 테스트되고 있습니다.
Anthropic은 자사를 "AI 안전 기업"으로 포지셔닝해왔고, 이번 결정은 그 정체성을 건 선택입니다.
엔터프라이즈 플러그인 출시
같은 시기, Anthropic은 커스터마이저블 엔터프라이즈 플러그인을 출시했습니다. 기업용 소프트웨어 내에서 직접 태스크를 실행할 수 있는 도구로, Claude의 B2B 시장 공략을 강화하는 움직임입니다.
국방 시장에서의 갈등과 엔터프라이즈 시장 확대 — Anthropic은 **"어디에서 돈을 벌 것인가"**에 대한 명확한 선택을 하고 있습니다.
업계 반응
- 지지: "AI 기업이 윤리적 원칙을 지키는 좋은 선례" — AI 안전 커뮤니티
- 비판: "국방은 기술 기업의 책임 영역이 아니다" — 일부 투자자
- 현실론: "계약 금액이 충분히 크면 입장이 바뀔 수 있다" — 업계 관계자
오늘의 한줄
AI 기업의 윤리적 원칙이 실제 수익 앞에서 유지될 수 있을까? Anthropic의 펜타곤 대응은 이 질문에 대한 첫 번째 실전 테스트입니다.