챗GPT 등장 이후 인공지능(AI)과 신기술, 혁신적인 서비스의 개발을 해하지 않으면서도 이용자의 권리와 개인정보를 보호하려면 어떤 것을 고려해야 할 지에 대한 논의가 최근 활발해진 분위기다. 급변하는 정보사회에서 AI와 개인정보 보호에 있어 우리 사회가 취해야 할 균형 잡힌 자세가 어떤 것인지에 대해 법무법인 태평양 AI팀에서 [AI 컨택]을 통해 2주 마다 다뤄보고자 한다. [편집자주]
지난 2022년 11월 '챗GPT 3.5'가 출시된 이후 인공지능(AI)의 발전은 상상을 초월할 정도로 가속화됐고 현재 생성형 AI의 발전은 우리 사회에 더 이상 낯설지 않은 흐름이 됐다.
몇 년 전까지만 해도 개발자들의 전유물로 여겨졌던 AI가 이제는 법률, 금융, 교육, 행정 등 거의 모든 영역에 스며들고 있고 실제로 현장에서 이를 체감할 기회도 많아졌다.
다만 이 시점에서 단순히 "AI가 어디까지 발전했는가"를 묻기보다 "AI가 향후 건강하게 발전하려면 지금 무엇이 필요한가"라는 질문을 던지고 싶다. 기술이 신속히 발전하는 만큼 그 토대를 구성하는 법제도적 장치, 하드웨어 인프라, 그리고 소프트웨어 설계가 균형 있게 발전하고 있는지는 냉정하게 짚어볼 필요가 있다.

우선 기술적으로 가장 눈에 띄는 변화는 소프트웨어의 고도화다. 특히 텍스트, 음성, 이미지, 영상이 통합적으로 처리되는 멀티모달 모델이 상용화 단계에 접어들면서 단순한 언어 처리 능력을 넘어 인간의 '이해'에 근접하는 방향으로 발전하고 있다.
다만 지금처럼 거대한 모델을 계속 키우는 것이 능사는 아니다. 모델 경량화, 엣지 기기에서의 활용성, 그리고 무엇보다 신뢰할 수 있는 응답과 윤리적인 판단 능력이 보다 중요해지고 있다. 개인적으로는 최근 AI 관련 자문을 맡은 일들을 통해 기술보다 'AI의 신뢰성'이 실제 사용 여부를 좌우하는 핵심이라는 점을 자주 실감한다.
일례로 법률적 조언을 제공하는 AI의 경우 "정확한 정보를 근거로 했는가", "위험한 판단을 내릴 가능성은 없는가", "결과에 대한 책임은 누가 질 수 있는가" 등 실질적인 쟁점들이 반드시 수반된다. 그러다 보니 단순한 정답을 제공하는 AI보다는 위험을 감수하지 않는 AI, 즉 신뢰성과 보수성을 갖춘 설계가 중요하게 평가되는 상황이다.
이와 맞물려 하드웨어적 한계도 분명 존재한다. 고도화된 AI는 엄청난 연산능력을 필요로 하고 이에 따라 전력 소모나 서버 자원의 제약이 점점 현실적인 이슈로 떠오르고 있다. 그래픽 처리장치(GPU) 가격 급등, AI 연산용 반도체 수급 불안, 고성능 메모리 병목 등이 현실화되면서 이제는 국가 단위의 반도체 전략이 AI의 경쟁력을 좌우하게 된 상황인 것이다.
또 하드웨어와 관련해서는 하나 간과하기 쉬운 점이 있다. 바로 친환경성과 지속 가능성으로, 최근 대규모 AI 학습과정에서 발생하는 탄소 배출량이 무시할 수 없을 정도로 커졌다는 보고들이 이어지고 있기 때문이다. 유럽을 중심으로 AI 전력 사용에 대한 규제가 논의되고 있는 것도 같은 맥락이다. 기술의 발전이 환경을 침해하는 방식으로 이루어질 경우 장기적으로 사회적 반발에 부딪힐 수밖에 없다.
무엇보다 법률가로서 제도적 기반 마련의 필요성을 강조하고 싶다. AI가 만들어낸 결과에 대해 책임은 어디까지 누구에게 있는가. 이 물음은 단순한 추상적 고민이 아니라 실제 분쟁에서 빈번히 등장하고 있다.
생성형 AI가 만들어낸 문장을 토대로 명예훼손 소송이 제기된다면 그 책임은 AI 개발사에게 있는가, AI를 이용한 플랫폼에게 있는가, 아니면 해당 응답을 활용한 사용자에게 있는가.
현행법상으로는 명확하게 나눌 수 없는 회색지대가 너무 많다. 그렇기 때문에 지금 필요한 것은 책임 분산이 아니라 책임 명확화다. 이를 위해선 최소한의 법적 프레임이 있어야 한다.
일례로 일정 수준 이상의 AI 서비스에 대해선 등록제를 도입하거나 고위험 AI에 대해서는 별도의 사전검증 절차를 요구하는 방식도 고려해 볼 수 있을 것이다. 유럽연합(EU)이 AI법(AI Act)을 통해 위험기반 접근방식을 도입하고 있는 것처럼 우리도 지금부터는 기술친화적이되 이용자 보호의 원칙을 잃지 않는 방향으로 접근할 필요가 있다.
동시에 AI 학습에 필요한 데이터 확보와 개인정보 보호 사이의 균형도 지금까지 이상으로 중요한 과제가 됐다. 특히 비식별 정보의 활용에 대한 명확한 가이드라인이 부재한 상태에서는 기업들이 실질적으로 AI 모델 개선을 위한 데이터를 확보하기 어려운 환경이 이어지고 있다. 공공 데이터 개방, 데이터 샌드박스의 적극적인 운영, 저작권 및 개인정보 관련 법령 간 해석 충돌의 정비 등 기술 활용에 실질적인 길을 열어주는 정책이 마련될 필요성이 있다.
마지막으로 한 가지 더 언급하고 싶은 부분은 사람의 준비다. 기술이 신속히 바뀌는 만큼 일터의 형태, 직무의 내용, 전문성의 기준도 바뀌고 있다. AI가 법률 문서 초안을 1차로 작성하는 시대에 법률전문가의 역할도 바뀌지 않을 수 없다.
관련기사
- [기고] 새 정부 출범과 인공지능 시대2025.07.07
- [기고] AI 대전환의 시대, 기업이 지금 챙겨야 할 세가지 체크리스트2025.06.10
- [기고] AI 워싱, 신뢰를 위한 규제와 책임의 조화2025.04.25
- [기고] EU 데이터법과 인공지능 산업의 발전 방향2025.04.01
단순한 지식 습득을 넘어 AI를 협업 파트너로 활용할 수 있는 능력이 점점 중요해지고 있다. 교육체계 역시 이에 맞춰 바뀌어야 하고 실무에서도 이에 대한 적응이 필요하다.
요약하자면 지금 우리는 기술이 이끄는 변화를 따라가는 시대에서 기술의 방향을 결정해야 하는 시대로 진입하고 있다. AI 발전의 다음 단계는 단순한 속도경쟁이 아니라 신뢰성과 책임성의 경쟁이다. 이 방향성을 놓치지 않고 균형 있게 제도를 설계하고 사회적 공감대를 쌓아간다면 AI는 인간 사회에 해를 끼치지 않고 오히려 그 가능성을 확장시켜주는 동반자가 될 수 있다고 믿는다.