클라우드플레어, LLM 상대로 한 남용과 공격 식별 솔루션 선보여
클라우드플레어, LLM 상대로 한 남용과 공격 식별 솔루션 선보여
  • 박시현 기자
  • 승인 2024.03.05 19:27
  • 댓글 0
이 기사를 공유합니다

‘AI용 방화벽’, AI 환경의 보안 구축 지원, 사람의 개입 없이 자동으로 위협 차단

[디지털경제뉴스 박시현 기자] 클라우드플레어는 거대언어모델(LLM)을 상대로 한 남용과 공격을 식별하는 새로운 보호 레이어인 ‘AI용 방화벽’’을 선보였다.

클라우드플레어는 글로벌 네트워크를 기반으로, AI용 방화벽을 통해 고객이 LLM 내에 있는 기능, 주요 데이터, 영업 비밀을 노리는 공격에 대응할 수 있도록 지원한다는 방침이다.

최근 실시된 한 조사에 따르면 최고 경영진 4명 중 1명만이 자신의 조직이 AI로 인한 위험에 대비하고 있다고 확신하는 것으로 나타났다. LLM을 보호하는데 있어 사용자 상호작용을 제한하는 것은 거의 불가능하다. LLM은 또한 동일한 입력 값이 주어져도 다양한 결과물을 생성할 수 있는 등 사전 설계에 의해 미리 결정되지 않는다는 점으로 인해 처음부터 적절한 보안 시스템을 구축하는 것이 어렵다. 이 때문에 LLM은 위협 행위자에게 무방비 상태가 되어 조직이 모델 조작, 공격 및 남용에 취약한 상태로 노출되는 결과를 야기한다.

가트너에 따르면, 생성형 AI 애플리케이션은 단독으로 보호할 수 없으며, 생성형 AI 전용 보안 제어 기능을 계획하고 배포하기 전에 반드시 클라우드, 데이터 및 애플리케이션 보안의 견고한 기반이 마련돼야 한다. 클라우드플레어의 AI용 방화벽은 기존의 포괄적인 보안 플랫폼에 레이어를 추가해 새로운 기술로 인한 위협을 궁극적으로 차단한다.

조직의 보안 팀은 클라우드플레어의 AI용 방화벽을 통해 AI 모델의 무기로 사용될 수 있는 잠재적 취약성으로부터 LLM 애플리케이션을 보호할 수 있다. AI용 방화벽은 클라우드플레어의 워커스AI에서 실행되는 모든 LLM 앞에 배포 가능하다. 사용자가 제출한 프롬프트를 스캔하고 평가해 모델을 악용하고 데이터를 추출하려는 시도를 더 잘 식별할 수 있다.

또 클라우드플레어의 글로벌 네트워크를 기반으로 구축된 AI용 방화벽은 엔드 유저와 가까운 곳에 배포되기 때문에 모델의 남용으로부터 거의 즉각적으로 보호할 수 있는 전례 없는 기능을 제공한다.

클라우드플레어의 워커스AI에서 LLM을 실행하는 모든 고객은 AI용 방화벽을 통해 무료로 보호를 받을 수 있으며, 이를 통해 프롬프트 주입 및 데이터 유출 등의 우려 사항을 방지할 수 있다.

클라우드플레어 CEO 겸 공동 창업자 매튜 프린스는 “새로운 유형의 애플리케이션이 등장하면 새로운 유형의 위협도 빠르게 뒤따르기 마련이다. AI 기반 애플리케이션도 마찬가지다”라며 “클라우드플레어는 AI용 방화벽을 통해 AI 환경의 보안 구축을 처음부터 돕고 있다. AI 모델을 위한 최초의 보호막 중 하나를 제공해, 기업이 기술 발전이 선사하는 기회를 활용함과 동시에 보호받을 수 있도록 지원하고자 한다”고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.