오픈AI의 챗GPT가 지난달 29일(현지 시각)부터 의료, 법률, 재정 분야의 구체적인 조언 제공을 중단했다. 인터내셔널 비즈니스 타임즈(IBT)가 2일 보도한 내용에 따르면, 이러한 조치는 법적 책임 우려 때문이다. 챗GPT는 이제 공식적으로 '컨설턴트'가 아닌 '교육 도구'로만 기능한다.
바뀐 이용 정책에 따르면, 챗GPT는 더 이상 약물 이름이나 복용량을 제공하지 않는다. 소송 템플릿, 투자 조언, 매수·매도 제안도 금지됐다. 대신 원칙을 설명하고 의사나 변호사, 재정 전문가와 상담하라고 안내한다.
건강 조언의 위험성이 특히 크다. 사용자가 '가슴에 혹이 있다'고 입력하면 AI는 악성 종양 가능성을 제기할 수 있다. 실제로는 비암성 지방종일 수 있는데도 말이다. AI는 검사를 지시하거나 환자를 진찰할 수 없고, 의료과실 보험에도 가입할 수 없다.
재정과 법률문제도 마찬가지다. 챗GPT는 상장지수펀드(ETF)가 무엇인지 설명할 수 있지만, 사용자의 부채 비율이나 은퇴 목표를 알지 못한다. 유언장 작성 요청도 위험하다. 유산법은 주마다 다르고, 공증 조항이 누락되면 문서 전체가 무효가 될 수 있다.
데이터 보안 문제도 있다. 소득, 사회보장번호 같은 민감한 정보를 입력하면 AI 학습 데이터에 포함될 수 있다. 한번 프롬프트에 들어간 정보가 어디에 저장되고 누가 검토하는지 보장할 수 없다.
관련기사
- AI, 입력된 글자와 '머릿속 생각' 구별한다…앤트로픽 "LLM, 자기 내부 상태 일부 인식"2025.11.01
- 우리 콘텐츠는 왜 노출 안 될까…'생성형 AI 최적화' 7대 비법2025.10.29
- "우리 부모님도 AI 쓴다"…50~70대 AI 사용률 70% 육박2025.10.27
- "메모리, 공급 자체가 병목화"…최태원 회장, '통 큰' 투자 결의2025.11.03
IBT는 "챗GPT는 자신감 넘치게 거짓 정보를 만들어내고, 설득력 있게 틀린 답변을 제공한다"며 "보완용 도우미지만, 인간 전문성을 대체하기에는 위험하다"고 지적했다.
■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)











