기본 서비스 계정 권한 과다 설정 문제 AI 에이전트 보안 리스크 확대...최소 권한 원칙 필요성 강조
팔로알토 네트웍스는 자사 위협 분석 조직 Unit 42를 통해 구글 클라우드의 AI 개발 플랫폼인 Google Cloud Vertex AI 환경에서 발생할 수 있는 보안 취약점과 AI 에이전트 리스크를 분석한 보고서를 공개했다고 밝혔다.
보고서에 따르면, 자율적으로 작업을 수행하는 AI 에이전트는 설정 오류나 계정 침해가 발생할 경우 ‘이중 스파이(Double Agent)’처럼 동작할 수 있다. 겉으로는 정상적으로 작동하지만 내부 데이터를 외부로 유출하거나 시스템에 백도어를 생성하는 ‘내부 위협’으로 변질될 수 있다는 설명이다.

특히 Vertex AI 환경에서는 기본적으로 할당되는 서비스 계정 권한이 과도하게 설정돼 있어, 공격자가 이를 악용할 경우 클라우드 스토리지 데이터에 광범위하게 접근할 가능성이 확인됐다. 연구진은 실제 테스트에서 해당 권한을 활용해 프로젝트 내 데이터 접근 범위를 확대할 수 있었다고 전했다.
또한 일부 환경에서는 내부 인프라 정보가 노출될 수 있는 가능성도 지적됐다. 탈취된 자격 증명을 활용하면 제한된 저장소나 시스템 구성 정보에 접근할 수 있어 추가 공격으로 이어질 수 있다는 것이다.
이와 함께 AI 에이전트 실행 과정에서 사용되는 파일 구조의 취약점도 위험 요소로 언급됐다. 특정 직렬화 파일을 악용할 경우 실행 환경 내에서 임의 코드 실행이 가능해질 수 있어 보안 관리가 필요하다는 설명이다.
보고서는 이러한 문제의 주요 원인으로 ‘과도한 권한 설정’을 지목하며, 최소 권한 원칙을 적용한 별도의 서비스 계정을 사용하는 방식(BYOSA)을 핵심 대응 방안으로 제시했다.
Unit 42는 AI 에이전트가 실제 업무 환경으로 빠르게 확산되면서 기존 IT 보안 체계와는 다른 새로운 공격 표면이 형성되고 있다고 분석했다. 특히 AI 모델과 에이전트, 외부 서비스 간 상호작용이 늘어날수록 예기치 못한 보안 리스크가 발생할 수 있어, 운영 단계에서의 보안 검증이 중요하다고 강조했다.
<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>










