앤트로픽이 미국 트럼프 행정부와 갈등을 빚는 가운데, 최근 이란 공습 작전에 앤트로픽의 인공지능(AI) 모델 클로드가 활용된 것으로 알려지면서 AI의 군사적 활용을 둘러싼 후폭풍이 실리콘밸리 전반으로 확산되고 있다.
AI 활용이 국방 분야까지 확장되면서 국가 안보와 AI 윤리를 둘러싼 가치가 정면 충돌하는 것으로, 군사 분야에서 AI 활용을 어디까지 허용할 것인지에 대한 논의도 본격화 될 것으로 전망된다.
3일(현지시간) 기준 '우리는 분열되지 않는다'라는 제목의 온라인 공개서한에 1000명 가까운 구글과 오픈AI 직원이 참여했다. 앤트로픽을 대상으로 한 국방부의 압력에 맞서 공동 연대를 구축하기 위한 이 서한에는 현재까지 구글 현직 직원 856명과 오픈AI 직원 100명이 서명했다.
클로드가 퇴출된 직후 국방부와 계약을 체결한 오픈AI에 대한 역풍도 거세다. 시장조사업체 센서타워에 따르면 오픈AI와 국방부 계약 이후 챗GPT 앱 삭제율이 295% 늘어난 것으로 나타났다. 챗GPT 유료 구독을 취소하자는 '큇(Quit)GPT' 캠페인에는 이날까지 250만명 이상이 참여했다.
이번 사태는 클로드를 제한 없이 군사적으로 활용하게 해달라는 정부 요구를 앤트로픽이 거부한 데서 촉발됐다. 트럼프 대통령은 이를 “국가안보 위협”이라고 규정했고 국방부는 앤트로픽을 '공급망 위험'으로 지정했다.
쟁점은 AI의 군사적 활용 범위다. 국방부는 앤스로픽의 AI 모델을 '합법적인 모든 용도'에 제한 없이 사용해야 한다는 입장이다. 반면 앤트로픽은 미국인 대상 대규모 감시나 완전 자율 무기에는 자사 모델을 사용해선 안 된다는 두 가지 원칙을 넘어서는 안 되는 한계선, 즉 '레드라인'으로 고수하고 있다.
AI 기술 발전을 관련 법 체계가 따라가지 못하는 상황에서 AI 분석을 토대로 군사적 판단을 내릴 경우 책임 소재 문제가 생길 가능성이 있고, 오류나 환각 현상 등 기술적 한계도 존재한다는 지적이 나온다. 이미 AI는 군사 영역에서 정보 평가, 목표물 식별, 전장 시뮬레이션 수행 등에 활발히 활용된다.
다리오 아모데이 앤트로픽 최고경영자(CEO)는 최근 미국 CBS와 인터뷰에서 “오늘날 AI 시스템은 완전 자율 무기를 만들 만큼 신뢰성이 높지 않고 기술적인 측면에서 아직 해결하지 못한 예측 불가능성이 존재한다”면서 “관리감독의 문제와 함께 아군 오인 사격이나 민간인 공격 등 잘못된 판단에 대한 신뢰성의 문제도 있다”고 지적했다.
향후 AI 군사적 활용 범위를 둘러싼 국제적 논의가 핵 무기와 유사한 규제 체계로 발전할 가능성도 거론된다. 샘 올트먼 오픈AI CEO는 최근 AI 임팩트 정상회의 연설에서 “급속하게 진화하는 AI 기술을 시급하게 규제해야 한다”며 국제조정기구 필요성을 강조하기도 했다.
김명주 AI안전연구소장은 “AI가 국가 안보 기술로 인식되면서 각국이 군사 분야에서 활용을 확대하고 있지만 동시에 치명적 활용에 대한 윤리적·국제법적 논의도 커지고 있는 만큼 핵확산금지조약과 비슷한 형태의 국제 규제 체계가 논의될 가능성이 있다”면서 “다만 오픈소스 모델과 다양한 개발 환경이 존재하는 상황에서 완전한 규제는 현실적으로 쉽지 않은 문제”라고 전망했다.