본문 바로가기
Electronic Warfare/EW News

전자전 분야에서의 AI 활용에 대한 어려운 문제 - 2022.01.06

by 아짱이아빠 2022. 2. 25. 22:07
반응형

 

전자전 분야에서 인공지능은 현실화 되고 있다.
(전자전 분야에서 인공지능은 현실화 되고 있다.)

전자전 분야에서 인공지능이 점점 더 현실화되면서 해결해야 할 몇 가지 윤리적인 문제들이 있다. 

 

전자전 분야에서 윤리의 역할은 처음에 명확하지 않을 수 있다.

그럼에도 불구하고 전자전에서 AI의 진보는 윤리적인 문제를 제기한다.

AI는 인지 전자전(Cognitive Electronic Warfare)의 기본이 된다.

인지 전자전은 매우 광범위한 분야이며 간단히 말하면 전자전 자동화를 심화하는 것이다.

이것은 반응 시간은 빠르게 하면서 인간 작업자의 부담을 줄여준다.

AI는 의사 결정을 지원하기 위한 이러한 접근의 핵심이 된다.

인간 작업자가 해야 할 결정을 AI가 대신 한다던지 의사 결정을 지원한다.

  

싱가폴의 전자전 엔지니어링을 위한 TBSS 센터와 베트남의 TBSS 레이다 기술 및 모니터링 설립자인 Kar Heng Lee는 2021년 9월 레이다 및 전자전에서의 AI 활용에 대한 도덕 및 윤리적 측면에 대한 논문을 발표했다.

Lee 박사는 “AI 알고리즘을 개발할 때에 설계의 목표는 최고의 AI 훈련 알고리즘을 개발하는 것이며 이것은 매우 효율적으로 배우는 스마트한 AI 알고리즘이 된다.

그러나 이러한 과정에서 AI가 나쁜 것을 배우지 않도록 주시하는 것이 필요하며 이는 사고나 설계의 과정에서 발생할 수 있다”라고 얘기한다.

 

[Asimov의 법칙]

그는 자율 주행 자동차를 예를 들어 자동차 여행 중 AI를 이용한 의사 결정에 대해 언급했다.

만약 소프트웨어가 사이클 타는 사람을 피하기 위해 마주오는 차량쪽으로 위험하게 움직인다면 어떻게 될까?

Lee 박사는 이러한 시나리오가 삶과 죽음이 빈번하게 결정되는 전쟁 속에서 더욱 중요해진다고 말한다.

그는 로보틱스의 세 가지 법칙이 유용한 템플릿이 될 수 있다고 주장한다.

이 법칙은 작가 Issac Azimove가 고안했다.

이 법칙은 다음과 같다.

로봇은 인간을 다치게 하거나 행동을 하지 않아 인간이 다치게 놔두면 안된다.

로봇은 첫 번째 법칙에 위배되지 않는 한 인간의 명령에 복종해야 한다.

마지막은 로봇은 첫 번째와 두 번째 법칙에 위배되지 않는 한 자신의 존재를 보존해야 한다. 

 

Issac Azimov의 로보틱스의 세 가지 법칙은 전자전을 포함하여 많은 국방 분야에서 인공지능 사용을 위한 유용한 템플릿으로 활용되고 있다.
(Issac Azimov의 로보틱스의 세 가지 법칙은 전자전을 포함하여 많은 국방 분야에서 인공지능 사용을 위한 유용한 템플릿으로 활용되고 있다.)

 

Lee 박사는 AI는 표적 탐지와 추적 그리고 재밍에만 사용하고 발사에는 사용되면 안 된다고 주장한다.

마지막 행동은 반드시 인간에 의해 수행되어야 하며 이것은 타협할 수 없는 법칙이라고 주장한다.

 

그러나 재밍에 있어서도 윤리적인 딜레마에 빠질 수 있다.

A 국가는 B 국가에 대한 방공 무력화 작전을 진행했다고 가정하자.

작전을 통해 A 국가는 어느 정도의 성공을 거두었고 B 국가의 통합 방공 시스템은 심각한 타격을 입었다.

많은 지상의 대공 방어 레이다가 무력화되었거나 파괴되었다.

따라서 B 국가는 민간 교통관제 레이다를 사용하여 그들의 전투기를 지시하기 시작했다.

비록 민간의 시설이지만 군사를 지원하고 있기 때문에 공식적인 표적으로 간주될 수 있다.

A 국가는 이 레이다를 재밍할 수 있지만 B 국가의 민간 항공 안전에 영향을 줄 수 있다.

AI가 이러한 결정을 할 수 있는 역할을 줘야 할까?

만약 그렇다면 어떻게 AI를 프로그래밍해야 하는가?

 

반응형

 

[국제적인 접근]

Lee 박사가 제시한 윤리 원칙을 전자전에 적용하기 위한 솔루션은 무엇인가?

그는 윤리적인 이슈가 새로운 시스템이나 기술의 개발 과정에서 간과되거나 무시되는 것에 대한 위험성을 강조한다.

아마도 하나의 솔루션은 윤리적인 부분이 처음부터 다뤄지고 연구와 개발 중에 지속적으로 모니터링하는 것이다.

 

전략적인 차원에서 군사뿐만 아니라 전반적인 분야에서 AI 윤리적 차원의 글로벌적 협약은 엔지니어와 과학자가 작업할 수 있는 프레임워크를 제공할 수 있다.

화학과 생명공학, 핵무기, 지뢰 등에 대한 국제적인 협약은 아주 좋은 선례가 된다.

모든 국가가 서명을 하진 않을 것이며 AI 협약이 완벽하진 않을 것이다.

그러나 최소한의 가이드라인을 제시할 수 있을 것이다.

서명을 하지 않는 국가는 외교적으로 문제가 될 것이고 이것은 이러한 피할 수 없는 문제를 해결하는 첫걸음이 될 것이다.

결국 무기와 방어 장비를 위한 글로벌 AI 법률과 가이드라인의 수립은 인류에 이익이 될 것이다. 

 

 

 

출처 : ARMADA International

 

반응형

댓글