• 최종편집 2024-04-19(금)
 
합.png
 
미국 육군은 딥테이머, 킬러 로봇, 무인전투차량 등 ‘자율 무기’ 개발 주도 중

러시아의 ‘이반 터미네이터’, 일본의 무인수상정 및 잠수정도 ‘현실화’ 관측

세계적인 AI 학자 및 구글 직원 수천명은 ‘AI 자율무기’ 자체의 잠재적 공격성을 비판

선진국 국방부의 AI 무기 개발 경쟁 와중에 ‘자율적 인간 공격’의 비윤리성이 도마 위에 올라

국내 AI 연구자, “아인슈타인의 상대성 원리가 원자탄을 낳았던 비극의 재연을 막자는 게 AI윤리논쟁의 본질” 지적

(안보팩트=전승혁 기자)

미국, 일본 등 선진국들의 인공지능(AI)을 활용한 무기개발이 빠르게 진화중인 것으로 나타났다. 알파고처럼 인간훈련원의 도움을 받아 딥러닝(DEEP LEARNING)을 하는 로봇, 인간형 킬러 로봇, 무인전투차량, 무인수상정(USV) 및 무인잠수정(UUV)등이 상당한 수준으로 개발되고 있는 것으로 보인다.

그러나 세계적인 권위의 AI 학자들과 구글등 최고의 IT기업 직원등이 ‘자율적 판단으로 인간을 공격하는 AI무기’ 개발에 대한 보이콧을 선언하는 등 윤리논쟁도 격화되고 있다.

이와 관련해 국내의 한 AI 연구자는 6일 안보팩트와의 전화통화에서 “아인슈타인의 상대성 이론이 기존의 물리학 패러다임을 교체하는 과학적 혁명이었지만 핵폭탄의 이론적 근거로 활용됨으로써 윤리적 비난을 받게 됐다”면서 “AI를 둘러싸고 점화되는 윤리논쟁도 동일한 문제의식을 전제로 한다”고 지적했다.

그는 “상대성 원리가 원자탄을 낳았던 비극의 재연을 막자는 게 AI 윤리 논쟁의 본질”이라고 분석했다. 

국방기술품질원 등 국내 전문연구기관 및 외신 등에 따르면, 미군 육군연구소와 텍사스대학교는 ‘딥테이머(DEEP TAMER)라는 새로운 알고리즘을 개발해 군사용 로봇에 적용시키는 시도를 하고 있다. 

인간훈련원과 로봇.png▲ 인간훈련원과 '딥 테이머' 로봇 <사진 출처:국방기술품질원>
 

딥테이머는 인간의 두뇌 학습 알고리즘인 딥 러닝을 고스란히 적용시켰다는 점에서 관심을 모으고 있다. AI가 장착된 로봇이 인간 훈련원과 함께 생활하면서 과제를 학습하는 것이다. 이는 마치 인간이 개를 훈련시키는 방식과 유사해 텍사스대학교 교수인 피터 스톤 박사에 의해 ‘테이머(TAMER)'라는 명칭을 부여받았다.

인간 훈련원은 로봇에게 “잘했어”, “잘못했어” 등과 같은 평가를 함으로써 로봇이 적절한 대응 및 행위를 습득하도록 유도하는 역할을 수행한다. 이 같은 인간 훈련원의 피드백은 로봇이 오류를 최소화하고 학습 속도를 높이는 데 큰 도움을 준다는 게 연구진의 설명이다.

미국 육군 연구원인 개럿 워넬 박사는 “딥 테이머 로봇은 미래의 육군에서 인간 병사와 동료가 되어 함께 임무를 수행하게 될 것”이라면서도 “그 로봇은 자율적 행위자라는 점에서 새로운 환경에서 인간과 함께 수색, 구조, 감시와 같은 임무를 수행할 수 있다”고 밝혔다. 그러나 워넬 박사는 “인간은 훈련받은 내용을 일반화해 적용하는 데 능하지만 현재 AI 로봇은 그렇지 않다”고 한계를 인정하기도 했다.

미국 로봇 전문 제조업체인 보스턴다이내믹스는 킬러 로봇인‘ 아틀라스’를 개발중인 것으로 전해졌다. 인간처럼 팔과 다리의 관절을 자유롭게 작동시키면서 움직이는 아틀라스는 키 188㎝에 체중 156㎏의 거구이다. 미국 방위고등연구계획국(DARPA)의 연구비 지원을 받고 있다.
러시아 고등연구재단(FPI)도 킬러 로봇인 ‘이반 터미네이터’를 개발하고 있다. 이 AI 로봇이 자율적 판단 아래 총을 쏘거나 수류탄을 투척하는 수준에 도달한다는 목표이다.

킬러 로봇은 넓은 의미에서 인간의 조종이 필요 없는 공격형 항공기를 의미하기도 한다. 영국에서 개발된 무인 스텔스기 ‘타라니스’가 이에 해당된다. 목표 지역이 설정되면 타라니스는 인간의 무선 조종 없이 자율 비행으로 이동한다. 또한 적 공격을 스스로 감지해 피하며 정밀 타격용 유도폭탄을 탑재할 수 있다.

50명 이상의 유명 인공지능(AI) 연구자들이 이 같은 ‘AI 킬러로봇’ 연구에 대한 보이콧을 선언했다. 한국과학기술원(KAIST)이 그 대상에 포함된 것도 KAIST가 인명 살상용 AI를 개발중이라고 판단했기 때문이다.

로봇이 무기를 들고 ‘자율적 판단’ 아래 살상하거나 인간을 구조할 뿐만 아니라 재래식 공격무기의 조종석에는 인간 대신에 AI가 앉는 시대가 조만간 도래할 전망이다.

무인전투차량arcv.png▲ 미군 육군이 개발중인 무인전투차량 ARCV(사진출처:국방기술품질원>
 

미국 육군은 5년 이내에 무인전투차량(RCV. REOMTE COMBAT VEHICLE)의 시제품을 출시할 예정이다. 그 화력은 M-1에이브람스 전차 수준에 달할 것으로 알려졌다. 위험한 전장지역에 무인전투차량이 먼저 진입해 정찰을 하면 그 뒤를 유인차량이 따라가는 방식으로 작전을 수행한다는 계획이다. 유인 차량 1대가 무인차량 2대 혹은 4대를 제어하는 방식으로 전투를 벌인다는 것이다.

일본 해상자위대도 인구감소에 대응하기 위해 다양한 무인수상정(UUV) 및 무인잠수정(USV)을 개발하고 있다. 싱가포르에서 열린 2018년 아시아 방산 엑스포·콘퍼런스(ADECS7)에 참석한 해상자위대 장교에 따르면, 일본이 2020년까지 신형 UUV 및 USV를 배치한다는 목표를 수립해놓았다.

구체적으로는 미래형 3,900톤급 ‘Type 30’ 구축함(개발명 ‘30DD’)에서 대기뢰전(MCM8)을 수행하게 된다. 이 구축함은 2020년대 초에 최초운용능력(IOC)을 달성할 것으로 예상된다. 특히 이 구축함은 레이더로 탐지하기 어려운 북한의 목재선박의 불법 어업 및 육지 상륙을 감시하는 역할을 맡게 될 것으로 보인다.

물론 감시 및 인간 구조등의 영역에서 사용되는 AI는 윤리적 문제가 적다는 견해도 제기된다. 그러나 킬러로봇 및 무인공격용 무기는 AI가 자율적 판단 아래 인간을 공격할 수 있는 시대를 만든다는 점에서 거센 윤리적 비판에 직면해 있다.

더욱이 ‘인간 공격’의 개념에 대해서 포괄적인 기준을 적용해야 한다는 입장이 다수의 지지를 받고 있는 모습이다.

한국과학기술원(KAIST)이 AI를 이용해 살상용 무기인 '킬러 로봇'을 개발하고 있다고 비판한 해외학자들도 ‘인간 공격’의 기준을 포괄적으로 설정하고 있다.

토비 월시 호주 뉴사우스웨일스대 컴퓨터공학과 교수 등 29개국 교수 57명은 5일 성명서를 통해 "지난 2월 20일 KAIST가 방산 업체인 한화시스템과 공동으로 설립한 국방인공지능융합연구센터가 다양한 킬러 로봇을 개발할 가능성이 있다"고 지적하면서 "서명 교수들은 KAIST 총장이 공식적으로 인간의 통제를 벗어난 자율 무기를 개발하지 않겠다고 보장하지 않는 한 이 대학 구성원과의 모든 협력을 중단하기로 결정했다"고 강조했다.

인간의 통제를 벗어난 ‘자율 무기’는 언제라도 무차별적으로 인간을 공격하는 ‘최악의 흉기’로 돌변할 수 있다는 우려를 전제로 하고 있는 것이다. 

KAIST와의 협력 보이콧에 서명한 교수 중에는 제프리 힌튼 캐나다 토론토대 교수와 요수아 벤지오 캐나다 몬트리올대 교수가 포함돼 있다. 이들은 얀 레쿤 미국 뉴욕대 교수, 앤드루 응 스탠퍼드대 교수와 함께 4대 ‘AI 구루(스승)’로 불리울 정도로 권위를 인정받고 있다. 세계 최고수준의 AI 학자들이 AI 자율무기에 대해 강력한 견제에 나선 것이다.

민간 IT 기업 직원들도 대대적으로 ‘윤리적 행동’에 동참하고 있다. 지난 4일(현지 시각) 미국 뉴욕타임스 등 외신에 따르면, 구글 직원 3100여 명은 순다르 피차이 최고경영자(CEO)에게 미 국방부의 군사용 AI 연구에 구글이 참여하는 것에 대해 항의하는 서한을 발송했다. 구글은 AI를 통해 이미지 인식 기술을 향상시켜 무인 항공기 타격률을 높이는 미 국방부의 프로젝트에 참여하고 있는 것으로 전해졌다.

이들 윤리적 비판자들은 미국과 러시아가 개발중인 ‘킬러 로봇’은 물론 무인잠수함이나 무인전투차량 그리고 딥러닝을 하는 ‘딥테이머’와 같은 자율적 무기 전체에 대해 심각한 위험성을 제기하고 있는 것이다.


태그

전체댓글 0

  • 84988
비밀번호 :
메일보내기닫기
기사제목
[팩트분석]세계적 '공격용 AI 자율무기' 개발 붐과 ‘윤리논쟁’ 가열
보내는 분 이메일
받는 분 이메일