MS, AI 악용 차단에 나선다…"2025년은 더욱 위험할 것”

해커, 사용자 정보로 생성형 AI 서비스 접근…의도적으로 기능 변경·정보 재판매 정황

컴퓨팅입력 :2025/01/12 17:00

마이크로소프트가 생성형 인공지능(AI) 도구 악용을 막기 위한 시스템 개발과 대책 마련에 나섰다.

12일 포브스에 따르면 마이크로소프트는 지난 10일 해커가 AI 도구를 악용해 사이버 공격에 활용되는 사례를 막을 것이라고 공식 홈페이지를 통해 밝혔다. AI를 활용한 악성 활동을 차단하기 위해 강화된 안전장치를 개발하고 대응 조치를 마련할 계획이다.

마이크로소프트는 신년에도 사이버 위협 행위자가 AI 도구를 악용해 범죄 저지를 확률이 높다고 봤다. 포브스도 신년 AI 도구 악용 사례는 위협적일 것으로 예측했다. 실제 미국 연방수사국(FBI)도 "빠르게 진화하는 AI 위협에 대비해야 한다"고 발표했다. 파이낸셜타임스도 "AI를 활용한 메일 피싱 공격이 더욱 정교해질 것"이라고 보도한 바 있다. 

마이크로소프트가 생성형 인공지능(AI) 도구 악용을 막기 위한 시스템 개발과 대책 마련에 나섰다. (사진=챗GPT)

마이크로소프트 스티븐 마사다 디지털범죄유닛 책임은 "최근 사이버 위협 행위자가 고객 공개 정보를 스크랩해 생성형 AI 서비스에 접근, 서비스 기능을 의도적으로 변경한다"고 설명했다. 또 "해당 고객 정보를 다른 해커들에 재판매한 사실도 확인했다"고 덧붙였다. 

관련기사

이에 마이크로소프트는 자사 AI 서비스와 오픈AI 챗봇 '챗GPT'와 이미지 생성기 '달리' 악용 사례 방지에 힘쓸 것이라고 발표했다. 다만 구체적인 악용 사례 방지 대책과 시스템 개발 계획에 대해선 언급하지 않았다.

마이크로소프트는 "일반 사용자는 생성형 AI 도구를 활용해 창의적 표현과 생산성을 올린다"며 "이런 도구는 불행하게도 혁신을 악용하려는 행위자들을 동시에 끌어들인다"고 지적했다. 그러면서 "2025년은 이런 상황을 더 악화할 것"이라며 "안전벨트를 단단히 매야 할 때"라고 덧붙였다.