송경희 "프라이버시 지키며 혁신 일어나게...세계서 아무도 안가본 길 가"

개보위 위원장 2일 열린 AI프라이버시 민관정책협의회서 강조...37명 민간위원들 첫 모임

디지털경제입력 :2026/02/02 23:31    수정: 2026/02/03 00:09

"개인정보나 프라이버시를 잘 지키면서도 혁신을 일어나게 하는 구조를 만들어주는 게 무척 중요하다. (우리가 하는 일은) 사례를 찾기가 힘들다. 전 세계에서 아무도 가보지 않는 길을 우리가 가는 것이다"(송경희 개보위 위원장)

"앞으로 개인정보보호와 관련해 사건이 터진다면 AI쪽에 굉장히 많은 사건이 터질 것 같다. 기존에 알려진 어떤 형태보다, 우리가 상상하지 못했던 그런 형태들의 위험한 사건들이 많이 발생할 것으로 예상한다. 훌륭한 전문가들을 많이 모셨기 때문에 모든 것을 다 예상할 수 없다 하더라도 최대한 발생 가능한 리스크를 도출하고, 그것을 진단할 수 있는 프레임워크를 통해 사전에 예방하고 대응할 수 있는 관리 모델을 분과장, 분과 위원들을 모시고 잘 만들어 보겠다."(최대선 숭실대 교수, 개보위 AI프라이버시 민관정책협의회 2분과장)


개인정보보호위원회(위원장 송경희)가 결성한 '2026 인공지능(AI) 프라이버시 민·관 정책협의회'가 2일 은행회관 국제회의실에서 전체 모임을 갖고 발족했다. 

앞서 개보위는 챗GPT 등장 이후 급변하는 개인정보 처리 환경에 대응, 인공지능 편익과 위험성을 고려한 규율체계를 민·관 공동으로 설계하기 위해 지난 2023년 10월 '인공지능(AI) 프라이버시 민·관 정책협의회'를 처음으로 결성했다. 송경희 위원장 체재에서는 처음이지만, 이날 모임이 사실상 2기인 셈이다.

민관협의회는 ▲데이터 처리기준 분과(분과장 김병필 카이스트 교수) ▲리스크 관리 분과(분과장 최대선 숭실대 교수) ▲정보주체 권리 분과(분과장 윤혜선 한양대 교수)의 3개 분과로 운영한다. 각 분과는 변화하는 기술 환경에서 개인정보 처리 흐름과 위험 요인을 면밀히 분석하고, 리스크 진단 및 경감 방안과 정보주체의 실효적 권리보장 방안을 아우르는 기준을 논의, 마련한다.

참여하는 위원은 산업계·학계·법조계·시민단체를 대표한 총 37명이다. 정부 부처도 동참한다. 과기정통부, 행정안정부, 국가AI전략위원회, 방송미디어통신위원회 국장급 관계자와 한국인터넷진흥원(KISA) 본부장이 위원이다. 정부 측 의장은 송경희 개보위 위원장이, 민간 측 의장은 권창환 부산회생법원 부장판사가 맡았다.

송경희 개인정보보호위원회 위원장이 2월 2일 오후 AI 프라이버시 민관 정책협의회 전체회의에 참석해 인사말을 하고 있다
개인정보보호위원회가 결성한 '2026 인공지능(AI) 프라이버시 민·관 정책협의회'가 2일 은행회관 국제회의실에서 전체 모임을 갖고 발족했다.

이번 2기 민관협의회는 1기와 달리 에이전트·피지컬AI 등 신흥 기술에 대한 전문성을 대폭 강화했다. 위원들도 AI디지털 윤리와 소비자 보호 관점에서 보강했다.

 행사 사회와 함께 2기 민관협의회 운영 방향을 발표한 구민주 개보위 AI프라이버시 팀장은 1기 협의회 운영 성과로 ▲현장 적용성 높은 AI, 데이터 처리 및 리스크 관리 기준 제시 ▲민관 협력 기반의 AI프라이버시 거버넌스 조기 구축을 들었다. 이어 개편한 2기 협의회 운영 방향으로 "AI디지털윤리, 소비자보호 등 대표성을 보강했다"면서 "논의 주제도 서비스 운영 단계에서 발생 가능한 리스크와 에이전트 및 피지컬AI 대응력 강화에 초점을 둔다"고 밝혔다.

구민주 개보위 AI프라이버시 팀장이 행사 사회를 보고 있다.

이날 위원들은 저마다 AI기술이 눈부시게 빠르고, 피지컬 AI와 에이전트 AI 등이 일상에 들어오면서 안전성이 굉장히 중요한 요소로 부각했다면서 협의회 활동에 최선을 다하겠다고 다짐했다.

기업에서 8년간 근무한 경험이 있다는 한 변호사는 "기업에서 데이터를 처리할 때 어떤 기준을 갖고 있는 지를 실제로 봤다. 또 로펌에서 근무하면서 여러 사례들을 접했다. 1분과에서 속해 있는데, 업무를 하면서 내가 생각했던 것들, 그리고 업무 경험을 통해 배웠던 것들, 어떻게 하면 안전 관리들을 준수할 수 있는지, 이런 모범적인 사례들을 파편적으로 많이 봤는데, 위원으로 활동하면서 많은 아이디어를 내겠다"고 다짐했다. 

123년 역사를 자랑하는 YMCA의 한석현 실장은 "저는 (개인정보보호를) 잘 보호하고 잘 활용하는 거에 방점을 찍고 있다. 소비자들이 활용하지 않는 기술 개발에 기업이  막대한 돈을 쏟아붓는 걸 원하지 않는다"면서 "(우리 목소리가) 다양한 목소리들 중 하나로 생각해 주면 좋을 것 같다. 저희와 다른 의견들을 가지고 계신 분들도 계시고, 이용자들의 다양한 의견들을 저희가 다 전달드릴 수 없지만, 최대한 이용자 입장에서, 그리고 기업들 입장도 충분히 이해하기 위해 우리도 많은 노력을 하고 또 많은 의견을 내도록 하겠다"고 말했다.

LG AI연구원의 김유철 상무는 AI가 발전하면서 다양한 리스크가 계속 언급되고 있다면서 "우리는 이런 리스크에 대비하는 과정에서 상상 속 리스크보다는 실질적 위험에 대비하고 가능하면 이런 제도적 불확실성을 낮춰 글로벌 경쟁에 도움이 되는 방안을 찾아내며 더 나아가 인류의 삶에도 기여하는 걸 꿈꾼다"면서 그 예로 난치병 조절을 예로 들었다.  이어 김 상무는 현 제도상 DNA 정보는 개인정보로 강하게 엮여있어 접근하기 매우 어렵고, 이로 인해 외국에서 공개된 정보나 데이터들을 사올 수밖에 없는게 현실이라면서 "이런 정보들에 대해 우리가 개선 방안을 많이 논의, 보다 도움이 되는 방안들을 찾아갔으면 한다"는 바람을 보였다.


한편 송경희 개보위 위원장은 행사 시작전 인사말에서 협의회 역할에 대해 두 가지를 당부했다.

 첫째, 에이전트·피지컬AI 환경에 특화한 개인정보 처리 기준을 구체화다. 송 위원장은 "AI 기술이 개인정보를 다루는 방식은 점점 더 복합적이고  비선형적으로 변하고 있다. 특히 자율적 추론 과정에서 정보가 끊김없이 활용되는 에이전트 환경에서는 이러한 경향이 더욱 심화할 것"이라면서 "개인정보는 더 이상 정보의 파편이 아니라 한 개인의 일상과 성향, 관계가 응축된‘삶의 궤적’으로 변모하고 있다. 이러한 개인정보가 어떤 원칙과 절차에 따라 수집되고 활용되어야 하는지, 그 과정에서 어떤 위험을 미리 살펴보고 관리해야 하는지, 그리고 개인의 권리를 어떻게 지켜나갈 것인지에 대한 기준을 선제적으로 마련하는 것이 무엇보다 중요하다"고 짚었다.

둘째, AI 시대의 ‘사전 예방적’ 정책 전환이 현장에서 실효성 있게 구현될 수 있도록 협의회가 중추적인 역할을 해달라고 주문했다. 송 위원장은 "일상에서 작동하는 로봇이나 에이전트의 프라이버시 침해는 되돌리기 어렵고, 그 파급력도 크다. 이에, 기업 스스로가 설계 단계부터 프라이버시 보호를 기본값으로 내재화하는, 이른바 '프라이버시 보호 설계(PbD)'가 무엇보다 중요하다"면서 "이러한 정책적 전환은 정부의 의지만으로는 완성될 수 없다. AI를 직접 설계하고 데이터 처리 구조를 가장 잘 아는 기업의 자발적인 참여와 실천이 뒷받침돼야 한다"고 밝혔다.

이어 협의회가 단순히 자문 기구를 넘어, 정부와 기업이 위험 요인을 함께 식별하고 기술적 가드레일을 공동으로 설계하는 실질적인 정책 플랫폼이 돼야 한다면서 "이곳에서 논의한 기준과 가드레일이 서비스 현장의 살아있는 규범으로 작동할 때, 비로소 신뢰할 수 있는 AI 생태계가 완성될 것이다. 여러분이 그 혁신적 변화의 구심점이 되어 주시기를 당부드린다"고 말했다.