오픈AI 내부 갈등 확산…샘 알트먼 "국방부 협력하되 자율무기·감시는 배제"
||2026.03.03
||2026.03.03
[디지털투데이 AI리포터] 샘 알트먼(Sam Altman) 오픈AI 최고경영자(CEO)가 미 국방부와 앤트로픽 간 갈등 완화를 촉구했지만, 오픈AI 내부에서는 국방 협력을 둘러싼 논쟁이 확산되고 있다.
27일(현지시간) 경제매체 CNBC에 따르면, 오픈AI 내부 문건에서 알트먼은 직원들에게 "인공지능(AI)은 대규모 감시나 자율 치명 무기에 사용돼서는 안 되며, 고위험 자동화 결정에는 반드시 인간이 개입해야 한다"라는 원칙을 재확인하는 메모를 보냈다. 이는 국방 협력 논의가 이어지는 가운데 회사의 윤리 기준을 분명히 하려는 조치로 해석된다.
알트먼은 최근 인터뷰에서 "AI 안전을 중시하는 앤트로픽의 입장을 이해한다"라고 밝히면서도, "오픈AI 역시 국방부와 협력하되 자율 치명 무기나 국내 감시 목적은 배제하는 방향으로 논의하고 있다"라고 말했다. 그는 "강한 입장을 취하는 것도 중요하지만, 윤리적 기준을 지키는 것이 더 중요하다"라며 내부 논의를 거쳐 방향을 조율하겠다고 덧붙였다.
최근 앤트로픽(Anthropic)은 미 국방부로부터 자사 AI 모델 클로드(Claude)를 군사 목적으로 개방하라는 압박을 받고 있는 것으로 전해졌다. 앤트로픽은 클로드가 감시나 자율무기에 사용되지 않도록 하는 안전장치를 요구했지만 받아들여지지 않았고 공급망 위험 기업으로 지정 되는 등 갈등을 겪고 있다.
이와 관련해 오픈AI 내부에서도 반발 기류가 감지된다. 일부 직원들은 앤트로픽을 지지하는 발언을 이어왔고, 소셜미디어(SNS)에 공개서한을 올리며 압박을 받는 부서에 대한 이해와 연대를 표명했다. 국방 협력의 범위와 윤리적 기준을 둘러싼 내부 논쟁이 수면 위로 드러난 셈이다.
오픈AI는 지난해 국방부와 2억달러(약 3000억원) 규모의 계약을 체결했으며, 28일 국방부와 기밀 환경에 첨단 AI 시스템을 배치하는 데 합의했다고 밝혔다. 국방 협력을 확대하면서도 자율 치명 무기와 대규모 감시 배제라는 원칙을 어떻게 지킬지가 향후 핵심 쟁점이 될 전망이다.
Yesterday we reached an agreement with the Department of War for deploying advanced AI systems in classified environments, which we requested they make available to all AI companies.
— OpenAI (@OpenAI) February 28, 2026
We think our deployment has more guardrails than any previous agreement for classified AI…
고객님만을 위한 맞춤 차량
