"AI가 찍으면 인간이 쏜다"…현실화한 '알고리즘 전쟁'
SBS Biz 송태희
입력2026.03.09 07:58
수정2026.03.09 14:31
[시리아에 떨어진 이란 미사일 (로이터=연합뉴스)]
현대 전장의 정보 분석과 표적 식별 과정에 인공지능(AI)이 핵심 기술로 자리 잡고 있습니다. 위성 사진, 드론 영상, 각종 센서 데이터를 AI가 분석해 잠재적 위협 요소를 신속하게 추려내는 이른바 '알고리즘 전쟁'이 전장의 새로운 양상으로 떠올랐습니다.
미 국방부는 2017년 방대한 영상 정보에서 목표물을 식별하는 컴퓨터 비전 알고리즘 개발을 위해 프로젝트 메이븐을 출범시켰습습니다.
초기 영상 판독 보조 도구로 시작된 이 프로젝트는 현재 미 국가지리정보국(NGA)과 최고디지털·AI책임관실(CDAO)로 이관되며 미군의 데이터 및 AI 인프라 고도화에 기여하고 있습니다. 미 국방부의 합동전영역지휘통제(CJADC2) 구상과 맞물려 각 군의 센서 정보를 융합하는 데이터 기반 역할을 수행 중입니다.
이러한 기술적 변화는 실제 전장에서도 확인됩니다.
우크라이나 전장에서는 미국 데이터 분석 기업 팔란티어의 소프트웨어와 우크라이나군의 전장 인식 시스템 '델타(Delta)'가 결합해 표적 식별 및 분석 시간이 크게 단축된 것으로 알려졌습니다.
AI의 군사적 활용을 두고 가장 뜨거운 논쟁이 벌어진 곳은 이스라엘과 하마스 간의 분쟁입니다.
영국 가디언과 이스라엘 탐사매체 '+972 매거진' 등 일부 외신은 익명의 정보 소식통을 인용해 이스라엘군이 '하브소라(Habsora)'와 '라벤더(Lavender)'라는 AI 시스템을 활용해 잠재적 타격 대상을 생성하고 있다고 보도했습니다.
이들 매체는 전쟁 초기 AI가 생성한 명단을 정보장교가 검토하고 승인하는 데 걸린 시간이 1건당 수십 초에 불과했으며 AI 모델의 오탐 가능성으로 인해 민간인 피해 우려가 있다는 의혹을 제기했습니다.
미국과 이스라엘 등은 무기 체계 운용에 있어 "최종 결정은 항상 인간이 내린다"는 점을 강조하며 AI를 '결심 보조 도구'로 규정합니다.
그러나 인권 단체와 군사 전문가 일각에서는 우려의 목소리를 냅니다. 시스템 개발자나 운용 알고리즘이 기밀로 취급되는 상황에서 오폭 등 예기치 않은 결과가 발생할 경우 현장 지휘관과 시스템 제공자 중 누구에게 법적 책임을 물을지 모호해진다는 것입니다.
보안 및 디지털 정책 분야의 한 전문가는 "전장의 데이터화와 AI 분석 도입은 이미 거스를 수 없는 현실"이라며 "군사적 목적의 AI 활용 시 알고리즘의 신뢰성을 검증하고 인간의 책임 범위를 명확히 하는 국제적 통제 장치가 조속히 도입돼야 한다"고 말했습니다.
ⓒ SBS Medianet & SBSi 무단복제-재배포 금지
많이 본 'TOP10'
- 1.'6억 낮춰서라도 팔게요'…버티던 다주택자들 결국
- 2.소득 없는데 건강보험료 왜 이리 비싸?…확 낮추는 방법
- 3.60만원 등골 휘는 교복…부모들 7만원으로 해결?
- 4.'24억 대박' 로또 1등 12명…자동 명당 7곳 어디?
- 5.국민연금 당장받고, 30만원 덜 받을게…손해연금 아시나요?
- 6.자영업자 대출 확대하자마자…서민금융 잇다 삐그덕
- 7.배우자 사망때 선택해야 하는 노령·유족연금…당신의 선택은?
- 8."하루에 천원만 내고 사세요"…'이 동네' 신혼부부들 난리났다는데
- 9."국평 대신 소형"… 분양시장 59㎡가 대세
- 10.[단독] 서울시 자율택시 유료화…내달부터 6700원 받는다