4차 산업혁명이 가져올 지능정보사회는 삶의 질을 높이고 도우미 로봇과 같은 맞춤형 서비스와 인공지능이 범죄를 미리 분석해 차단해 안전한 환경을 만들 수 있다.
하지만 자동화의 확대로 삶의 편의성, 안전성 측면은 좋아질 수 있지만 순기능만 있는 것은 아니다.
기계의 일자리 대체에 따른 소득수준 하락, 양극화 심화, 프라이버시 침해와 같은 심각한 사회 문제도 우려된다. 개개인을 넘어서 전력과 교통 등 공공망이 해킹될 경우 국가적인 위험에 노출될 수도 있다.
세계 각국, 글로벌 ICT 기업 모두 지능정보사회의 변화 속도는 상당히 빠를 것으로 내다보고 있다.
때문에 정부가 15일 공개한 지능정보사회 중장기 종합대책에는 “사회정책 개선을 통해 선제적으로 대응해야 한다”는 전제가 깔려 있다.
■ 우리 가족 일자리 그냥 사라지는걸까
지능정보사회가 도래하면 신기술 분야의 고부가가치 일자리가 많이 창출된다. 반면, 전통산업 종사자들은 일자리를 기계에 빼앗길 수 있다.
4차 산업혁명이 처음 언급된 다보스포럼의 미래고용보고서도 이 같은 고민이 담겨 있다.
고용 요건을 지속적으로 개선해야 할 필요성이 크다. 특히 신산업으로 원활하게 직업을 바꾸고 실직에 대한 두려움을 줄이는 것이 무엇보다 필수적이다.
이를 위해 고용형태 다변화를 대비해 고용안전망을 확대해야 한다는 게 종합대책 추진단의 판단이다.
사실상 정규직만 고려되는 현재 고용안전망 수준을 넘어서 중장기적으로는 다양한 고용형태를 포괄하는 새로운 근로기준 법제 마련을 검토해야 한다.
이를 위해 정부는 내년까지 주요 직종별 표준계약서와 약관을 확충하고, 2020년 고용 및 산재보험 적용대상을 점진적으로 확대할 계획을 세웠다.
권용현 지능정보사회추진단 기획총괄팀장은 "현재 정규직만 사회보장서비스에 포함되는데 지능정보사회에는 특수형태의 단기계약직도 포함되야 한다"고 밝혔다.
신산업에 누구나 적응할 수 있도록 내년부터 지능정보기술 분야 훈련과정도 새롭게 개발한다. 여기에는 중소기업 전직자 대상 재취업 역량강화 서비스도 포함된다.
어떤 일자리가 새롭게 생길지 예측이 어려운 만큼 인력수급전망 고도화와 통계전담조직도 확충한다는 것이 범 정부적 추진단의 구상이다.
■ 새로운 세상 준비? 교육이 먼저다
교육 혁신은 지능정보사회를 안정적으로 받아들이기 위해 반드시 이뤄져야 할 과제다.
실질적인 창의 교육이 필요하다는 논의가 추진단 내에서 오가고 있다. 소프트웨어(SW) 교육만 한다고 모두가 기술자가 되는 것이 아닌 만큼, 자동화의 중심에 있는 컴퓨터를 활용할 수 있는 능력을 누구나 갖추는게 필요하다는 이야기다.
이를 위해 문제해결 사고력 중심의 교육으로 변모시키고, 학생이 스스로 학습할 내용을 선택하는 학사제도 유연화가 필요하다.
또 정부 차원에서는 미래의 지능정보사회에서 빚어질 신산업 발전을 이끌 지능정보 영재를 조기 발굴해 양성한다는 계획을 세우고 있다.
온갖 미래기술이 논의되지만 실질적으로 전문가가 없다는 지적이 줄곧 나오는 것이 현실이다.
이에 기술 영역별로 대학원을 선정해 10년간 집중 지원하고 지능정보 분야의 석박사 과정에 대한 장학금 확대도 정책 방안으로 꼽히고 있다.
지능정보기술이 산업과 경제 발전에만 쓰일 것이 아니라 사회와 개인의 삶도 윤택하게 해야 한다. 누구나 불편없이 안정적인 삶을 누려야 하기 때문이다.
종합대책 추진단은 사회안전망 강화를 지능정보사회 필수요소로 꼽았다. 실업급여 등의 사회보장제도를 강화해야 한다는 것이다.
아울러 새로운 사회상에 맞는 신규 복지 이슈에 대한 논의가 필요하다. 이에 사회보장위원회를 통해 새로운 사회 갈등 요소를 미리 찾아내 선제 대응에 나선다. 이를테면 민간 회사의 보험 상품이 사회 문제로 빚어질 수도 있다.
권용현 팀장은 "일례로 보험의 경우 강남에선 보험금을 많이 내지만 수령하는 경우가 적을 수 있고, 시골에선 조금 내고 많이 받을 수 있다"며 "기업이 이를 활용하면 시골에선 보험 상품을 팔지 않을 수도 있는데 이런 문제를 가려 사회 후생을 단계적으로 개선해야 한다"고 설명했다.
복지 재정의 건전성 유지를 위해 소득, 재산 정보 분석을 통해 예산누수 방지, 행정부담 경감도 정부적으로 선결할 문제다.
■ “기계중심 AI 윤리, 사이버위협, AI 오작동” 무조건 막아라
인공지능(AI)을 갖춘 기계가 인간 중심 윤리를 벗어난다면 지능정보사회 도래를 반길 이유가 없다. 결국은 개인과 사회, 안전한 기업활동이 우선이다.
제도적으로 안전한 사회를 이끌어낼 수는 있다. 그래서 논의되는 것이 지능정보화 기본법(가칭)이다. 자율적인 판단 능력을 가진 기계에도 권리와 의무를 부여해야 한다는 논의 결과다.
AI를 개발하거나 이용하는 이들에게도 윤리의식을 고취하기 위해 지능정보기술 윤리헌장 제정도 동시에 추진된다. 지능정보기술의 오작동이나 남용을 최소로 줄여야 한다는 목적이다.
AI를 인간 중심 사회를 위한 방어도구로 쓸 수도 있다.
악의적 사회 시스템 해킹이나 오작동을 막기 위해 AI를 통해 지능형 자율 방어체제를 실현하자는 방식이다.
관련기사
- 정부, 인간 중심 지능정보사회 4대 전략 수립2016.12.15
- 인간중심 지능정보사회, 대국민 의견 모은다2016.12.15
- 국내 미디어 법규제, 4차 산업혁명 시대 준비됐나2016.12.15
- 인공지능 시대, 당신은 준비됐습니까2016.12.15
권 팀장은 "AI를 공격도구가 아니라 방어용으로, 데이터를 숨기거나 해킹 경로를 바꾸는 것도 AI의 역할이 될 수 있다"고 설명했다.
이 부분은 국내에만 국한된 문제가 아니다. 주요 선진국과 첨단 기술 공동연구를 확대하고 사이버 위협 정보를 공유하고 대응 공조 체계를 구축하는 것도 하나의 방법이 될 수 있다.