"내 AI가 공격 통로"···AI 통한 랜섬웨어 발견

ESET "로컬 시스템서 작동 GPT 기반 '프롬프트록(PromptLock)' 세계 첫 적발"

컴퓨팅입력 :2025/08/31 22:57    수정: 2025/08/31 23:07

인공지능(AI)을 통한 보안 위협이 현실화됐다. AI를 이용해 핵심 공격 로직을 생성할 수 있는 랜섬웨어가 발견됐다. 

31일 사이버 보안 업체 ESET에 따르면 최근 세계 최초로 GPT 기반 AI 기술을 악용해 로컬 시스템에서 작동하는 랜섬웨어 '프롬프트록(PromptLock)'을 발견했다고 밝혔다. 이 랜섬웨어는 AI의 코딩 기능을 악용해 악성 스크립트를 생성하는 방식으로 공격한다. AI를 통한 랜섬웨어 공격이 가능해진 것이다.

AI를 통해 공격을 실행할 수 있는 랜섬웨어가 발견됐다. (사진=픽사베이)

하드코딩된 프롬프트를 통해 대규모 언어 모델(LLM)이 즉석에서 악성 Lua 스크립트를 생성하고 실행하는 방식으로 공격이 진행된다. 구체적으로 Go(Golang) 프로그래밍 언어로 작성된 본체가 Ollama API를 통해 gpt‑oss:20b(오픈웨이트 모델)에게 하드코딩된 프롬프트를 보내면, 모델이 파일 열람·선별·유출·암호화 스크립트를 즉석에서 생성한다. 실행할 때마다 산출물이 달라져 IoC(침해지표) 변동성이 큰 것으로 확인됐다.

스크립트는 윈도, 리눅스, 맥OS 등 다양한 운영 체제에서 호환이 가능해 더욱 위협적이다. 파일 암호화 코드와 파괴 기능이 담긴 코드도 담겨 있는 것으로 확인됐다.

다만 프롬프트록이 현재까지 피해를 입힌 사례는 발견되지 않았다. 피해 환경에 Ollama가 로컬 또는 내부망으로 접근 가능해야 한다는 점에서 실전 위협성이 낮아 실제 피해가 발생하지 않았을 가능성도 있다. 아직은 개념 수준에서 존재하고 있는 것이다.

관련기사

하지만 실전 위협에 제약만 있을 뿐, 구성 여부에 따라 충분히 현실화가 가능한 위협인 셈이다.

이에 보안업계 관계자는 "사내에서 Ollama가 운영되는지 등 로컬·내부LLM 서비스 노출 상황을 점검하고, 사내 LLM·에이전트에 명시적 정책(시스템 프롬프트 가드레일·툴 사용 제한·감사 로깅)을 적용해야 한다"며 "프롬프트록은 프롬프트 주입형 공격이기 때문에 프롬프트 주입에 취약한 업무 요소를 최소화해야 한다"고 설명했다.