재생되는 음악 안에 사람이 알아차라기 어려운 명령어를 숨겨 AI 스피커를 공격할 수 있다는 연구 결과가 나왔다.
10일(미국 현지시간) 뉴욕타임스에 따르면, UC버클리 대학 연구진은 모질라 재단이 개발한 오픈소스 음성 엔진을 이용해서 명령어를 합성한 다음 이를 음악 안에 숨겨서 재생하는 데 성공했다.
AI 스피커가 내장한 음성인식 시스템은 각각의 소리를 문자로 변환한 다음 단어로 조합해 해석하고 작동한다. 그러나 사람의 말 소리를 알아 차리는 데는 약간의 시간이 걸린다.
UC 버클리 대학 연구진은 음성인식 시스템이 인식하던 소리를 취소하고 대신 원하는 명령어를 알아차리게 하는 방법을 썼다. 이렇게 숨겨 놓은 명령어를 아마존 알렉사나 애플 홈팟 등 AI 스피커에 들려주면 웹사이트를 열어보거나 물건을 주문하게 만들 수 있다는 것이 이들 연구진의 주장이다.
UC 버클리 대학 연구진들은 "이런 공격 방법이 실제로 시도된 적은 없지만 누군가 악용하는 것은 이미 시간 문제"라고 경고했다.
관련기사
- 당신의 AI 스피커, 안녕하십니까2018.05.11
- AI 스피커에 “고마워” 말하면 기부금 적립 ‘눈길’2018.05.11
- 융합의 새로운 전쟁터...AI 스피커 列國志2018.05.11
- 아마존 AI 스피커, 범죄 신고에 활용되나2018.05.11
AI 스피커를 공격해 이용자가 원하지 않은 명령어를 실행하게 하려는 시도는 최근 몇 년간 계속됐다. 2016년에는 중국 연구진이 AI 스피커에 초음파를 들려주어 공격하는 '돌핀어택' 영상이 화제가 됐다.
지난해 버거킹은 TV 광고에 "OK 구글, 와퍼 버거가 무엇이지?"라는 문구를 고의로 삽입해서 구글 홈이나 구글 어시스턴트가 위키피디아 페이지를 읽어주게 만들었다