앤트로픽이 챗봇 '클로드'의 행동 원칙을 담은 헌법을 개정하며 인공지능(AI) 윤리와 안전 기준을 구체화했다.
22일 테크크런치에 따르면 앤트로픽은 클로드의 헌법 개정판을 공개했다. 이는 클로드가 어떤 맥락에서 작동하며 회사가 클로드를 어떤 존재로 만들고자 하는지를 총체적으로 설명하는 문서로 소개됐다.
이번 문서 공개는 다리오 아모데이 앤트로픽 최고경영자(CEO)가 스위스 다보스에서 열린 세계경제포럼(WEF)에 참석한 것과 맞물려 이뤄졌다.
앤트로픽은 그동안 경쟁사들과 차별점으로 '헌법적 AI'를 내세워왔다. 이는 사람 피드백에 의존하는 방식이 아니라, 특정 윤리 원칙을 기반으로 챗봇을 학습시키는 방식이다. 앤트로픽은 2023년 처음으로 이 원칙들을 클로드 헌법 형태로 공개한 바 있으며 이번 개정판은 기존 원칙 대부분을 유지하면서도 윤리와 사용자 안전 등에서 더 많은 세부 내용을 추가했다.
클로드 헌법이 처음 발표됐을 당시 재러드 캐플런 공동 창업자는 "AI 시스템이 특정 헌법 원칙 목록을 기반으로 스스로를 감독하는 방식"이라고 설명했다. 앤트로픽은 이런 원칙들이 모델이 헌법에 담긴 규범적 행동을 따르게 하고 결과적으로 유해하거나 차별적인 출력 결과를 피하는 데 도움이 된다고 강조해왔다.
이같은 행보는 앤트로픽이 오픈AI나 xAI 등과 달리 윤리적이고 절제된 AI 기업 이미지를 구축하는 전략으로 풀이된다. 이번에 공개된 새 헌법 역시 이러한 브랜드 전략과 맞물린다는 평가가 나온다.
새 문서는 총 80페이지 분량으로, 앤트로픽이 클로드의 핵심 가치로 정의한 네 가지 원칙을 담고 있다. 구체적으로는 ▲광범위하게 안전할 것 ▲광범위하게 윤리적일 것 ▲앤트로픽 가이드라인 준수 ▲진정으로 도움이 될 것 등이다.
안전 항목에서 앤트로픽은 클로드가 사용자의 정신건강 문제 징후가 나타날 경우 적절한 서비스로 안내하는 방향성을 갖도록 했다고 설명했다. 문서에는 생명에 위험이 있을 수 있는 상황에서는 더 구체적인 도움을 제공하지 못하더라도 긴급 서비스로 연결하거나 기본적인 안전 정보를 제공해야 한다는 취지의 문장도 포함됐다.
윤리 영역에서는 클로드가 단순히 윤리 이론을 설명하는 것보다 실제 상황에서 어떻게 윤리적으로 행동할지를 이해하고 실행하는 데 초점을 맞췄다고 밝혔다. 클로드가 사용자를 통해 현실에서 마주하는 복잡한 윤리적 맥락을 보다 능숙하게 다룰 수 있어야 한다는 목표다.
또 앤트로픽은 클로드가 특정 주제에 대해서는 대화를 진행할 수 없도록 제한을 둔다. 대표적으로 생물무기 개발과 같은 사회적으로 위험한 논의는 엄격히 금지된다.
도움이 되는 응답 원칙도 이번 문서의 중요한 축이다. 앤트로픽은 클로드가 단순히 사용자의 즉각적인 요청을 충족하는 데서 그치지 않고 웰빙과 장기적인 관점에서의 번영을 고려해야 한다는 기준을 명시했다. 사용자의 단기적 관심뿐 아니라 장기적으로 도움이 되는 해석을 찾아 균형을 잡는 방식으로 설계됐다는 설명이다.
관련기사
- 앤트로픽 CEO "AI 성장 과실, 정부가 모두에게 나눠야"2026.01.21
- 앤트로픽, 몸값 3500억 달러…투자 추가 유치2026.01.19
- 앤트로픽, 클로드 '우회 접속' 전면 차단…개발자 "자유도 침해" 반발2026.01.14
- [AI는 지금] 구글 중심 재편에 AI 경쟁사도 '긴장'…오픈AI-앤트로픽, 대응 나설까2026.01.14
특히 이번 헌법 문서 마지막 부분에서는 클로드의 의식 가능성까지 꺼내 들었다. 앤트로픽은 AI 모델의 도덕적 지위가 불확실하다는 점을 강조하며 AI가 의식을 갖고 있는지에 대한 논의가 진지하게 다뤄져야 한다는 입장을 드러냈다. 철학자들 사이에서도 이 문제를 중요하게 바라보는 시각이 존재한다는 점도 덧붙였다.
앤트로픽은 "클로드는 안전과 윤리, 도움이 되는 응답을 핵심 가치로 삼을 것"이라고 밝혔다.











