세계 강대국들은 군사 AI의 '책임 있는' 사용에 대해 고심하고 있다.
지난주, 전 세계 약 2,000명의 정부 관리와 전문가가 한국 서울에서 열린 REAIM(군사 분야의 책임 있는 인공지능) 정상회의에 참석했다. 이는 두 번째 종류의 행사였으며, 첫 번째는 2023년 2월 네덜란드에서 개최되었다.
올해 정상회의에서 61개국이 군에서 인공지능(AI)을 개발하고 사용하는 것을 규제하기 위한 "행동 청사진"을 지지했다.
그러나 중국을 포함하여 30개국이 정상회의에 정부 대표를 파견했지만 청사진을 지지하지 않았다.
청사진은 중요하지만 겸손한 발전이다. 그러나 AI의 책임 있는 사용을 구성하는 것과 이것이 군사 분야에서 구체적인 행동으로 어떻게 전환되는지에 대한 이해에는 여전히 간극이 있다.
AI는 현재 군사적 맥락에서 어떻게 사용되고 있을까?
AI의 군사적 사용은 지난 몇 년 동안 증가했으며, 특히 러시아-우크라이나 및 이스라엘-팔레스타인 갈등에서 두드러졌다.
이스라엘은 "Gospel"과 "Lavender"로 알려진 AI 기반 시스템을 사용하여 폭탄으로 공격할 위치와 사람 등 주요 군사적 결정을 내리는 데 도움을 받았다. 이 시스템은 사람들의 주소, 전화번호 및 채팅 그룹 멤버십을 포함한 방대한 양의 데이터를 사용한다.
특히 "Lavender" 시스템은 비평가들이 그 효능과 합법성에 의문을 제기하면서 올해 초에 헤드라인을 장식했다. 훈련 데이터와 표적을 분류하는 방식에 대한 우려가 특히 있었다.
러시아와 우크라이나도 군사적 의사 결정을 지원하기 위해 AI를 사용한다. 위성 이미지, 소셜 미디어 콘텐츠, 드론 감시는 방대한 양의 데이터를 생성하는 많은 정보 소스 중 일부에 불과하다.
AI는 인간보다 훨씬 더 빠르게 이 데이터를 분석할 수 있다. 결과는 기존의 "킬 체인"에 통합된다. 즉, 대상을 찾고, 추적하고, 타겟팅하고, 공격하는 프로세스이다.
즉, 군 관계자는 실제 무력 충돌 중에 더 빠른 결정을 내려 전술적 이점을 제공할 수 있다. 그러나 AI 시스템을 오용하면 잠재적인 피해가 발생할 수도 있다.
국제 적십자 위원회와 같은 시민 사회와 비정부 기구는 위험에 대해 경고했다. 예를 들어, 알고리즘 편향은 실제 전쟁 중에 민간인에 대한 위험을 악화시킬 수 있다.
군사 분야에서 책임 있는 AI란 무엇인가?
"책임 있는" AI가 무엇인지에 대한 합의는 없다.
일부 연구자들은 기술 자체가 책임 있을 수 있다고 주장한다. 이 경우 "책임 있는" 것은 공정성과 편견이 없는 것을 의미한다.
다른 연구에서는 설계, 개발 및 사용과 같은 AI 관련 관행이 책임 있다고 언급한다. 이는 합법적이고 추적 가능하며 신뢰할 수 있고 편견을 완화하는 데 중점을 둔 관행을 의미한다.
최근 서울에서 열린 정상회담에서 지지된 청사진은 후자의 해석과 일치한다. 이는 군대에서 AI를 사용하는 모든 사람이 관련 국가 및 국제법을 준수해야 한다고 주장한다.
2,000명이 넘는 정부 관리와 전문가가 서울에서 열린 REAIM 정상회의에 참석하여 군사 분야에서 AI의 책임 있는 사용에 대해 논의했다. 전헌균/EPA
또한 군사 분야에서 AI의 개발, 배치 및 사용에 있어서 인간의 역할의 중요성을 강조한다. 여기에는 인간의 판단과 무력 사용에 대한 통제가 책임감 있고 안전하게 관리되도록 하는 것이 포함된다.
이는 중요한 구분인데, AI를 둘러싼 많은 서사가 인간의 참여와 책임이 없다는 것을 잘못 암시하기 때문이다.
정부는 군사 AI를 책임감 있게 사용하기 위해 무엇을 할 수 있을까?
정상회담에서의 논의는 정부가 군사 AI의 책임감 있는 사용을 지원하기 위해 취할 수 있는 구체적인 단계에 주로 집중되었다.
현재 군사 AI 사용이 증가하고 있으므로 이를 처리하기 위한 중간 단계가 필요하다. 한 가지 제안은 글로벌하고 보편적인 합의에 도달하는 데 더 오랜 시간이 걸리지 않고 여러 지역 내에서 AI 규제 협정을 체결하는 것이었다.
군사 AI에 대한 글로벌 협력을 개선하기 위해 핵 확산 금지, 오존층 보호, 우주와 남극 대륙 비무장화와 같은 이전의 글로벌 과제에서 얻은 교훈을 참고할 수도 있다.
작년 첫 정상회담 이후 18개월 만에 정부와 기타 책임 당사자는 군사 AI에 대한 위험 완화 프로세스와 툴킷을 도입하기 시작했다.
청사진은 그 이후의 진행 상황과 정상회담에서 논의된 아이디어를 반영한다. 다음을 포함한 여러 가지 구체적인 단계를 제안한다.
●AI 기반 군사 역량에 대한 보편적 법적 검토
●국가, 지역 및 국제 수준에서 군사 분야에서 책임 있는 AI를 보장하기 위한 조치 개발에 대한 대화 촉진
●군사 분야에서 AI의 개발, 배치 및 사용에 대한 적절한 인적 참여 유지.
그러나 책임 있는 군사 AI가 실제로 어떤 모습인지에 대한 보편적인 이해가 아직 없기 때문에 진전이 느린다.
이러한 문제를 해결해야 할 필요성은 이제 다음 정상회담(아직 발표되지 않음)에 압력을 가하고 있다. 네덜란드는 또한 군사 AI에 대한 글로벌 일관된 접근 방식을 더욱 발전시키기 위해 전문가 기구를 설립했다.
인류는 AI 도구로부터 이익을 얻을 수 있다. 그러나 우리는 특히 군사 분야에서 그러한 도구가 초래하는 위험이 확산되지 않도록 긴급히 보장해야 한다.