AI가 우리가 매일 사용하는 기술에 이미 영향을 미쳤다는 사실은 부인할 수 없습니다. 그것의 상승을 둘러싼 반대의 대부분은 그것이 어디에 어떻게 사용되는지에 집중됩니다. 미 공군이 이미 AI를 사용하고 있는 다양한 방법을 알지 못할 수도 있지만 효율성 향상 및 물류 단순화 가능성은 엄청납니다. 그러나 AI를 군사 문제에 통합할 때는 신중하게 진행하는 것이 중요합니다. 2026년 3월 미시간 상원의원 Elissa Slotkin이 도입한 AI Guardrails 법안은 이름에서 알 수 있는 바를 정확하게 제공하기 위해 시작되었습니다. 즉, AI 작업 뒤에 있는 최우선적인 인간 영향력과 최종 결정입니다.
정부 보도자료에 자세히 설명된 바와 같이, 슬롯킨 상원의원은 자신이 제안한 법안이 세 가지 핵심 영역에 초점을 맞출 것이라고 설명했습니다. “치명적인 자율 무기가 발사될 때 인간이 개입하도록 보장하고, AI가 미국 국민을 감시하는 데 사용될 수 없으며, 인간이 핵무기를 발사하도록 전환하고 있습니다.” 이러한 조치는 미국 AI 산업의 발전을 억제하기 위한 것이 아니라 오히려 해당 분야에서 국가의 지배력을 보호하는 동시에 해당 분야가 안전하고 실용적인 방식으로 발전하도록 보장하기 위한 것입니다(“우리는 중국과의 AI 경쟁에서 승리해야 합니다”라고 미시간 의원은 덧붙였습니다).
결국 오작동, 결함 및 실수는 AI 영역에서 전례가 없는 일이 아닙니다. 물론 인간의 판단과 의사결정에도 오류가 없는 것은 아니지만 두 가지 모두의 이점을 얻는 가장 좋은 방법은 두 가지를 동시에 사용하는 것입니다. 이 법안이 미국이 그렇게 하는 데 어떻게 도움이 될 수 있는지는 다음과 같습니다.
AI 가드레일법에 대한 자세한 내용
AI 가드레일 법안에 포함된 조치를 자세히 설명하는 보도 자료에서 슬롯킨 상원의원은 이 기술의 감독 없이 자율 무기로 공격하는 능력을 제한하고, 핵무기 발사를 금지하고, 대중에 대한 광범위한 감시에 기여하는 데 사용하는 것을 금지하는 것이 “상식”이라고 선언했습니다. 당연히 이것은 새로운 개념이 아닙니다. 예를 들어, 국방부 지침 3000.09에서는 “지휘관과 운용자가 무력 사용에 대해 적절한 수준의 인간 판단을 행사할 수 있도록 허용”한다는 개념으로 무기를 만들어야 한다고 명시하고 있습니다. 이것이 부분적으로 해군의 Phalanx CIWS와 같이 자동화된 기능을 갖춘 일부 무기 시스템에 목표물을 ‘표시’하지만 발사하려면 승인이 필요한 모드와 자동 모드(활성화된 경우)도 있는 이유입니다.
간단히 말해서, 이 법안의 의도는 AI의 세 가지 잠재적 사용 사례를 불법으로 만드는 것입니다. 그 이유에 대해 문서 자체에서는 “일부 군사 지휘 결정은 너무 위험하고 기계가 결정하기에는 너무 중요하다”고 간단히 설명합니다. 이는 또한 AI 시스템이 보다 독립적으로 행동할 때 다소 혼란스러울 수 있는 각 군사 결정에 대한 책임과 책무성을 보장하는 데 도움이 되는 효과가 있습니다.
이러한 움직임은 2020년 2월 부서의 AI 개발 전략의 일부로 채택된 윤리적 인공 지능의 5가지 원칙이 흥미로운 발전으로 볼 수 있습니다. 그들은 AI의 사용이 공평하고, 관리 가능하고, 신뢰할 수 있고, 책임감 있고, 추적 가능해야 한다고 명시합니다. 이 법안이 작성 당시 의제에 새로운 것이기 때문에 미시간 상원의원의 동료 의원들이 어떻게 될지는 아직 알려지지 않았습니다. 이는 가장 잠재적으로 위험한 영역 중 하나에서 AI 개발을 안전하게 조종하는 중요한 단계가 될 수 있습니다.