[박종성 피지컬 AI⑥] AI기본법 시행..."안전은 규제 아닌 무기"

'품질 보증서' 되게 설계때부터 '세이프티' 고려해야...정부 세심한 지원 필요

전문가 칼럼입력 :2026/02/14 19:48

박종성 LG CNS AI&최적화컨설팅 리더

2026년 1월 22일, 대한민국 산업계 역사에 굵직한 한 획을 긋는 거대한 법적 이정표가 세워졌다. AI 산업이 건전하게 발전하고 우리 사회가 이에 대한 신뢰를 형성하게 뒷받침하는 모법(母法), 즉 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 인공지능기본법)’이 국회 문턱을 넘어 본격적인 시행에 들어간 것이다. 이것은 단순히 새로운 법 조항이 하나 늘어났다는 사실에 머무르지 않는다. 그동안 신기한 기술로서, 그리고 기업의 수익 창출 수단으로만 여겨지던 인공지능이 비로소 대한민국의 국가 법 체계 안으로 들어와 권한과 그에 따른 엄중한 책임을 지닌 하나의 ‘사회적 실체’로 공식 인정받았음을 선언하는 상징적인 사건이다.

돌이켜보면 지난 수년간 우리 기술 혁신은 법이라는 울타리가 없는 황무지에서 이루어졌다. 일단 기술을 개발해 시장에 내놓고 문제가 생기면 나중에 수습하는, 이른바 ‘선(先) 허용, 후(後) 규제’라는 자유롭지만 불안한 기조 아래 위태로운 성장을 이어왔던 것이 사실이다. 하지만 이제 그런 시대는 막을 내렸다. 인공지능기본법 시행과 함께, AI 관련 기술은 이제 명확하게 그어진 법적 테두리 안에서 체계적인 지원과 보호를 받는 동시에, 오작동이나 윤리적 문제에 대해 무거운 책임을 져야 하는 성숙기에 접어들게 됐다.

하지만 법이 시행되고 약 한 달여가 지난 지금, 산업 현장을 감도는 공기는 희망찬 기대감보다는 짙은 당혹감과 혼란에 가깝다. 마치 예고 없이 바뀐 시험 범위를 받아 든 수험생들처럼, 기업들은 바뀐 규칙에 적응하기 위해 계산기를 두드리며 분주하게 움직이고 있다. 그중에서도 단순히 모니터 속에 갇혀 있는 챗봇이나 이미지 생성 AI 기업들은 그나마 사정이 나은 편이다. 강철과 회로로 이루어진 물리적 실체를 가지고 인간의 실제 삶의 공간으로 들어와 직접적인 영향을 미치는 ‘피지컬 AI’ 분야의 기업들은 유독 긴장한 기색이 역력하다. 소프트웨어 오류는 업데이트로 수정하면 그만이지만, 육중한 로봇의 오작동은 돌이킬 수 없는 물리적 사고로 이어질 수 있기 때문이다.

성급한 규제인가, 필연적인 선점인가

일각에서는 우려 섞인 목소리가 적지 않다. 지금 전 세계는 그야말로 총성 없는 AI 전쟁 중이다. 글로벌 패권 경쟁이 치열해지면서 주요 선진국들은 자국의 AI 개발 속도를 단 0.1초라도 높이기 위해 기존에 있던 규제마저 과감히 철폐하거나 유예하려는 움직임을 보이고 있다.

이런 급박한 전시 상황에서, 우리가 남들보다 앞서 엄격한 ‘AI 기본법’을 시행하는 것은 자칫 한창 달려 나가야 할 국내 산업의 발목을 스스로 잡는 ‘자발적 족쇄’가 되지 않겠느냐는 비판이다. 기업 입장에서는 남들은 운동화를 신고 달리는데, 우리만 무거운 모래주머니를 차고 뛰라는 요구처럼 느껴질 수도 있다.

그러나 우리는 감정에 치우친 우려를 잠시 거두고, ‘피지컬 AI’가 가진 냉정한 본질을 직시해야 한다. 피지컬 AI는 지금까지 우리가 경험해 온 그 어떤 IT 시스템과도 근본적으로 다르다. 챗GPT와 같은 생성형 AI가 모니터라는 안전한 유리벽 뒤에 머무는 가상 세계의 존재라면, 피지컬 AI는 그 유리벽을 깨고 나와 인간이 먹고, 자고, 일하는 물리적 생존 공간으로 직접 침투하는 실체적 존재다.

생각해 보라. 챗봇이 답변을 틀리면 단순히 정보를 수정하면 그만이지만, 100kg이 넘는 물류 로봇이나 배달 로봇이 판단 착오를 일으키면 그것은 곧바로 사람의 신체적 부상이나 생명을 위협하는 돌이킬 수 없는 사고로 이어진다. 그만큼 피지컬 AI가 우리 삶에 미치는 직접적인 영향력과 잠재적 위험의 무게는 과거의 소프트웨어 AI와는 비교할 수 없을 만큼 무겁고 엄중하다.

따라서 단지 시기상의 차이만 있을 뿐, 결국 인간의 안전을 위해 전 세계 모든 국가가 피지컬 AI의 개발과 운영에 관한 엄격한 안전 규정을 제정하고 실행하게 될 것임은 불을 보듯 자명하다. 지금 당장은 규제가 짐처럼 보일지 모른다. 하지만 오히려 개발 초기 단계부터 이러한 안전 규정을 꼼꼼히 살피고 제품의 DNA에 안전을 녹여낸 기업일수록, 향후 전 세계적으로 규제 망이 촘촘해지는 시점에 경쟁자들은 겪어야 할 해외 수출의 걸림돌을 선제적으로 제거하는 효과를 거둘 것이다. 나중에 닥쳐서 제품을 뜯어고치는 비용보다, 지금의 기준을 맞추는 것이 장기적으로 훨씬 효율적인 전략이다.

이것은 우리가 이미 경험한 성공 방정식과도 같다. 전 세계인들이 왜 ‘K-푸드’에 열광하는가? 단순히 맛이 좋아서가 아니다. 한국의 먹거리는 제조 과정이 위생적이고, 성분이 안전하며, 믿고 먹을 수 있다는 전 세계적인 ‘신뢰’가 깔려 있기 때문이다. 이러한 믿음은 깐깐한 국내 식품 안전 기준이 있었기에 가능했으며, 이것이 오늘날 K-푸드 수출의 가장 강력한 동력이 됐다.

피지컬 AI도 마찬가지다. 이제 규제를 단순히 기업의 혁신을 가로막는 장애물이나 관료주의적 족쇄로만 여겨서는 안 된다. 오히려 이것은 글로벌 시장을 개척하기 위해 반드시 통과해야 할 최소한의 ‘품질 확보 가이드라인’이자, “한국산 로봇은 안전하다”라는 ‘증표’로 바라보는 인식의 대전환이 절실하다. 안전은 규제가 아니라, 가장 강력한 경쟁력이다.

박종성 LG CNS AI&최적화컨설팅 리더

'고영향 인공지능', 스스로 증명해야 할 안전의 무게

이번 인공지능기본법을 관통하는 가장 핵심적인 장치는 바로 ‘고영향 인공지능(High-impact AI)’ 판단 가이드라인이다. 이는 기업들이 그동안의 수동적인 태도를 버리고, 자사가 만든 기술이 사회적으로 안전하다는 사실을 스스로 입증해야 한다고 요구하는 강력한 메시지다. 과거 규제 방식이 정부가 위험한 제품을 콕 집어 “이것은 위험하니 규제에 따르라”고 지정하는 ‘하향식’이었다면, 고영향 AI 판단 가이드라인은 사업자가 법이 정한 기준을 보고 “우리 제품은 위험할 수 있으니 안전 조치를 취하겠다”고 스스로 신고하고 확인하는 ‘상향식’ 체계로의 근본적 전환을 의미한다.

마치 세금을 납부할 때 국세청이 고지서를 보내길 기다리는 것이 아니라, 소득이 있는 사람이 스스로 신고하고 납부해야 하는 시스템과 비슷하다. 규제의 무게중심 또한 대폭 이동했다. 과거 AI 규제 논의가 주로 알고리즘이 특정 성별이나 인종을 차별하지 않는지(공정성), 학습 데이터에 개인정보가 섞여 있지는 않은지(프라이버시)와 같은 ‘소프트웨어적 윤리’에 머물러 있었다면, 인공지능기본법은 그 시선을 실세계의 ‘물리적 안전’과 ‘국민 생명 보호’로 과감하게 확장했다.

법은 생명이나 신체, 혹은 사회적 안전에 직접적이고 밀접한 영향을 미칠 우려가 있는 AI를 ‘고영향 AI’로 정의한다. 그리고 이를 명확히 가려내기 위해 과학기술정보통신부는 정교한 ‘2단계 판단 체계’를 제시한다.

첫 번째 단계는 ‘영역’ 확인이다. 내 AI 기술이 에너지 공급, 먹는 물 생산과 공급, 보건 의료, 교통, 금융, 교육, 고용, 공공 안전, 출입국 관리, 복지 등 국민의 삶을 지탱하는 11대 핵심 영역에서 사용되는지를 따져봐야 한다. 만약 이 영역에 속한다면, 두 번째 단계로 넘어가 ‘위험의 중대성’을 평가해야 한다. AI가 수행하는 기능이 완전 자동화되어 있는지, 시스템이 오작동했을 때 돌이킬 수 없는 피해를 주는지 등 5가지 요소를 꼼꼼하게 따져보는 것이다.

이 기준에 따르면, 피지컬 AI는 대부분 고영향 AI 범주에 포함될 운명이다. 공사 자재를 나르는 자율주행 물류 로봇, 위험한 건설 현장을 누비는 사족보행 로봇 개, 의사를 대신해 환자의 환부를 절개하는 수술 보조 로봇을 생각해 보라. 이 기계들의 오작동은 단순히 불쾌한 경험을 주는 차원이 아니라, 사람 뼈가 부러지거나 생명을 잃는 치명적인 인명 피해로 직결된다. 따라서 피지컬 AI 기업들은 그 어떤 소프트웨어 기업보다 더 높은 수준의 안전성 확보 의무와 입증 책임을 지게 된다.

하지만 법이 족쇄만 채우는 것은 아니다. 기업이 숨 쉴 수 있게 해주는 합리적인 ‘예외 조항’도 열려 있다. 만약 설계 단계부터 AI가 독단적으로 판단하지 못하도록 사람이 최종 결정권을 가지거나, 위험 상황을 상시 모니터링할 수 있는 장치(Human-in-the-loop)를 확실하게 마련한다면, 고영향 AI로 지정되더라도 규제 부담을 상당 부분 완화 받을 수 있다.

결국 이제 기업들에게 안전은 선택이 아닌 생존의 필수 조건이 되었다. 단순히 로봇이 얼마나 빠르고 힘이 센지를 자랑하는 ‘성능 경쟁’의 시대는 끝났다. 이제는 기획 단계부터 규제 요소를 꼼꼼히 따지고, 인간의 개입과 통제권을 어떻게 설계도에 녹여낼지 고민하는 ‘전략적 설계(Safety by Design)’를 시작해야 한다.

규제 데스밸리: 입증 책임의 무게

피지컬 AI의 안전성을 입증하는 과정은 소프트웨어 AI보다 훨씬 가혹하다. 물리적 충돌 테스트나 환경 변화에 따른 반응 데이터 수집에는 막대한 비용과 전용 시설이 필요하기 때문이다. 이러한 입증 책임은 자본과 인력이 부족한 중소기업에게는 감당하기 어려운 ‘규제 데스밸리’로 작용할 우려가 크다.

이에 정부는 규제의 완충 지대를 마련했다. 법 시행 초기 기업들이 적응할 수 있도록 ‘최소 1년 이상의 계도 기간’을 운영하며, 타 법령에 따른 안전 조치를 이미 이행한 경우에는 인공지능기본법상의 의무를 이행한 것으로 간주하여 중복 규제의 부담을 덜어주고 있다.

정부 역할은 단지 기업을 감시하고 규제하는 ‘심판’에 머물러서는 안 된다. 새로운 법이 넘기 힘든 거대한 장벽이 되지 않도록, 그 벽을 안전하게 넘을 수 있는 사다리를 놓아주고 실질적인 인프라를 제공하는 ‘조력자’로 나아가야 한다. 현재 과학기술정보통신부와 서울시가 추진 중인 ‘디지털 트윈 선도사업’ 및 ‘실증랩’ 구축이 바로 이러한 정부 의지를 보여주는 대표적인 사례다.

특히 서울 용산구에서 진행되는 ‘용산국제업무지구 개발 사업’에 주목할 필요가 있다. 이 프로젝트에서는 현실 세계를 컴퓨터 속에 그대로 복제한 ‘디지털 트윈’을 구현한다. 기업들은 로봇을 실제 도로에 내보내기 전, 이 가상 공간에서 로봇 주차 시스템이나 지하 물류 배송망이 제대로 작동하는지, 혹은 예상치 못한 사고 위험은 없는지 무한한 횟수로 ‘사전 리허설’을 진행할 수 있다. 이는 자칫 발생할 수 있는 물리적 사고를 예방하고, 안전이 검증된 피지컬 AI 도시 운영 표준 모델을 정립하는 중요한 시험대가 된다.

정부는 AI 혁신 인프라의 수도권 편중 현상을 타파하고, 디지털 혜택을 전국으로 확장하는 ‘초광역 AX 생태계’를 조성하고 있다. 현재 추진 중인 ‘지역 AX R&D 실증 거점’ 사업은 단순한 자금 지원을 넘어, 각 권역(전북, 동남, 호남, 대경)이 보유한 고유의 산업적 DNA와 AI 기술을 결합하는 데 방점을 둔다. 이는 기업들이 연구실이 아닌 실제 산업 현장에서 기술을 검증하고 상용화 단계를 앞당길 수 있도록 돕는 실질적인 ‘테스트베드’ 전략이다.

각 권역은 다음과 같은 특화된 임무를 수행하며 대한민국 AI 지도를 새롭게 그리고 있다. 전북권은 농생명 기반의 ‘피지컬 AI’와 지능형 소프트웨어인 ‘이음터’를, 동남권은 제조 현장의 물리적 작업을 수행하는 ‘거대 행동 모델(LAM)’을 실증하며 산업 지능화를 선도한다. 동시에 호남권은 에너지와 모빌리티의 완전 자율화를 위한 전초기지 역할을 수행하고, 대경권은 서비스 로봇과 바이오를 융합한 ‘인간 조력형 AI’의 기술 표준을 정립하는 데 주력하고 있다.

이들 거점의 본질은 기업이 홀로 짊어지기 힘든 ‘안전 입증 책임’을 공공 인프라가 함께 분담하는 데 있다. 단순히 테스트 공간을 제공하는 것을 넘어, 현장에서 수집한 날것의 데이터를 국가 표준에 맞춰 정제하고 해당 기술의 안전성을 보증하는 ‘공인 안전성 지표’를 산출한다. 이는 국가가 기업의 리스크를 직접 나누어 가짐으로써 피지컬 AI 산업의 진입 장벽을 근본적으로 낮추고 민간의 혁신을 가속화하겠다는 실천적 약속이다.

검증을 넘어선 실질적 지원책

많은 사람이 ‘법’이나 ‘규제’라는 단어를 들으면 기업 활동을 옥죄는 족쇄부터 떠올리기 쉽다. 하지만 이번 2026년 시행된 인공지능기본법의 내용을 자세히 들여다보면, 이 법이 단순한 규제 일변도의 통제 장치가 아니라는 사실을 알게 된다. 오히려 이 법은 안전을 담보한 기업에게 파격적인 혜택을 몰아주는, ‘규제’만큼이나 ‘진흥’에 강력한 방점을 찍고 있는 산업 육성책에 가깝다.

가장 눈여겨볼 대목은 법 제24조 등에 명시된 ‘공공 조달 우선 구매 제도’다. 스타트업이나 중소기업이 아무리 혁신적인 피지컬 AI 제품을 만들어도, 검증되지 않았다는 이유로 시장에서 외면받기 일쑤다. 이때 정부가 “안전성이 검증된 제품이라면 우리가 가장 먼저 사주겠다”고 나서는 것이다. 이는 단순히 물건을 팔아주는 수준을 넘어, 정부 공공기관이 초기 고객이 되어줌으로써 기업이 가장 힘겨워하는 ‘죽음의 계곡’을 건널 수 있게 돕는 가장 확실하고 강력한 법적 인센티브다.

피부에 와닿는 재정적 지원 또한 구체적이고 파격적이다. 과학기술정보통신부는 AI 기술을 도입하고 싶어도 돈이 없어 망설이는 수요 기업들에게 최대 2억 원 규모의 현금성 지원인 ‘AI 바우처’를 지급한다. 기업 입장에서는 내 돈을 들이지 않고도 최신 AI 솔루션을 도입할 수 있고, 공급 기업 입장에서는 확실한 매출처를 확보하게 되는 셈이다. 여기에 더해 국세청은 혁신적인 AI 중소기업들이 세금 문제로 에너지를 낭비하지 않도록, 세무조사 유예와 같은 파격적인 세정 지원을 제공해 온전히 기술 개발에만 몰두할 수 있는 환경을 조성하고 있다.

결국 정부의 이러한 전방위적 지원 사격은 규제를 단순히 기업을 옭아매는 ‘통제 수단’이 아니라, 통과하기만 하면 확실한 보상이 주어지는 ‘제품 품질 보증서’로 기능하게 만든다.  안전 규제를 충실히 지킨 기업은 정부가 공인한 안전한 기업이 되고, 이 타이틀은 공공 시장 진출과 세제 혜택이라는 날개를 달아주는 선순환 구조를 만들어내는 것이다.

글로벌 표준을 향한 K-피지컬 AI 차별화

대한민국의 인공지능기본법은 겉으로 보기에는 전 세계에서 가장 강력한 규제 법안으로 꼽히는 EU의 ‘AI Act’와 궤를 같이하는 것처럼 보인다. 사람의 생명이나 안전에 위협을 줄 수 있는 기술을 ‘고위험’으로 분류하고 집중 관리하는 ‘위험 기반 접근법’이라는 큰 틀을 공유하고 있기 때문이다. 하지만 그 속을 들여다보면, 산업의 현실을 반영한 매우 정교하고 유연한 ‘한국식 전략’이 숨어 있음을 알 수 있다.

EU는 AI 기술을 잠재적인 위험 요소로 간주하고, 엄격한 사전 규제를 들이대는 방식을 택했다. 만약 이를 어길 경우 전 세계 매출액의 일정 비율을 몰수하는 등 천문학적인 과징금을 부과해 기업들을 공포에 떨게 한다. 반면, 한국은 ‘규제’보다는 ‘진흥’에 무게중심을 두는 ‘혁신 우선’ 기조를 채택했다. 갓 태어난 AI 산업이 규제라는 무거운 갑옷에 짓눌려 성장판이 닫히지 않도록 배려한 것이다. 우리 법은 기업들이 바뀐 제도에 충분히 적응할 수 있도록 ‘계도 기간’을 두어 처벌을 유예하고, 제재 수위 또한 유연하게 설정하여 기업이 실패를 두려워하지 않고 도전할 수 있는 환경을 조성했다.

그렇다고 해서 안전 기준을 느슨하게 푼 것은 결코 아니다. 고영향 AI에 부과되는 투명성 공개 의무나 안전성 확보 기준은 미국이나 유럽이 요구하는 ‘글로벌 표준’의 높이와 정확히 맞추어져 있다. 이는 매우 고도화된 전략적 포석이다. 국내 규제를 충실히 준수한 기업이라면, 별도의 복잡한 준비 과정 없이도 까다로운 유럽이나 미국 시장의 문턱을 자연스럽게 넘을 수 있게 되기 때문이다. 우리는 이것을 ‘규제 상호운용성(Regulatory Interoperability)’이라 부른다. 즉, 한국의 AI 안전 인증을 획득하는 것이 곧 세계 시장으로 나가는 ‘프리패스 여권’을 손에 쥐는 것과 같은 효과를 누리게 되는 셈이다.

정부는 여기서 한 걸음 더 나아가 ‘인공지능 안전연구소’를 설립해 국가 차원의 검증 체계를 더욱 촘촘하게 다듬고 있다. 이는 개별 기업이 스스로 안전을 증명해야 하는 부담을 국가가 나눠지고, 공신력 있는 기관이 “이 기술은 안전하다”라고 보증을 서주는 시스템이다. 이러한 노력의 최종 목표는 분명하다. 전 세계 소비자들에게 “한국산 AI(K-AI)는 혁신적일 뿐만 아니라, 무엇보다 가장 안전하고 신뢰할 수 있다”라는 브랜드 이미지를 국제적으로 공인받는 것이다. 안전은 이제 규제가 아니라, K-AI가 세계 무대에서 경쟁자들을 압도할 수 있는 가장 강력한 무기이자 신뢰 자산이 될 것이다.

안전은 혁신을 완성하는 최후의 열쇠

인공지능기본법 시행으로 맞이한 이러한 변화 국면은, 대한민국 피지컬 AI 산업 입장에서 결코 위기가 아닌 ‘한 번 더 도약할 기회’로 작용할 것이다. 기술 혁신을 가로막는 진정한 적은 규제 그 자체가 아니라, 한 치 앞을 내다볼 수 없는 ‘불확실성’이기 때문이다. 그간 법적 공백 속에서 안갯속을 걷듯 불안감을 안고 사업을 이어온 기업들에게 이 법은 불투명성을 걷어내고 시장 내 공정한 경쟁을 가능케 하는 ‘명확한 규칙’이 되어준다. 규범이 확립된 경기장에서 비로소 선수들이 부상의 우려를 떨치고 전력으로 질주할 수 있는 것과 같은 이치다.

이제 기업들이 가야 할 길은 명확하다. 제품을 다 만들어놓고 나중에 안전장치를 덧붙이는 구시대적 방식과 결별해야 한다. 기획 단계의 설계도면에서부터 안전을 최우선으로 고려하는 ‘설계에 의한 안전(Safety by Design)’ 철학을 철저히 실천해야 한다. 이를 위해 기업은 정부가 깔아놓은 실증 인프라를 지렛대 삼아 적극적으로 활용해야 한다. 용산의 디지털 트윈이나 각 지역의 실증 랩에서 로봇을 굴리며 실제 환경 데이터를 축적하고, 이를 국가가 공인하는 ‘안전 성적서’로 변환해야 한다. 이는 글로벌 시장에서 우리 제품의 신뢰를 확보하는 가장 확실한 지름길이다.

또한, 기업에는 기민한 전략적 움직임이 요구된다. 현재 정부가 쏟아내고 있는 다양한 지원 사업과, 새로운 시도를 가능케 하는 ‘규제 샌드박스’ 제도를 상시 모니터링해야 한다. 남들보다 한발 앞서 가용한 자원을 선점하고, 제도의 혜택을 챙기는 영리함이 필요한 시점이다.

결론적으로, 안전은 더 이상 혁신의 발목을 잡는 장애물이 아니다. 오히려 까다롭고 정교한 한국의 규제를 완벽하게 준수한 경험은, 훗날 더욱 거센 규제 장벽이 세워질 글로벌 시장에서 ‘K-피지컬 AI’의 가치를 증명하는 가장 강력한 무기이자 ‘품질 보증서’가 될 것이다. 정부의 세심하고 실질적인 지원과, 기업의 책임감 있는 혁신 노력이 톱니바퀴처럼 맞물려 돌아갈 때, 우리는 비로소 로봇과 인간이 안전하게 공존하는 진정한 인공지능 강국으로 거듭날 수 있을 것이다.


필자 박종성은...

LG CNS AI&최적화컨설팅 리더다. LG그룹 비즈니스 컨설턴트로 15년간 조선·철강·해운·항만·전자·화학·배터리 섹터에서 대형 프로젝트를 총괄하며, 고객사가 한 단계 더 도약할 수 있도록 지원해 왔다.

LG CNS Entrue 컨설팅 산하 AI 전문 조직인 최적화/AI그룹 그룹장을 거쳐, 현재는 AI·양자·로봇 등 미래 ‘게임 체인저’ 산업 기술 근간이 되는 ‘수학적최적화(Mathematical Optimization)’ 분야에서 컨설팅팀을 이끌고 있다.

최근에는 산업 현장에서 피지컬 AI가 빠른 속도로 진화하는 모습을 직접 목격하면서, 향후 기업 간 경쟁을 넘어 세계 경제 질서를 어떻게 재편하게 될 것인지에 대해 관심 있게 지켜보고 있다.

관련기사

연세대학교와 런던정치경제대학교(LSE)를 졸업했다. LG인화원, 부산대, 인하대 등에서 AI/최적화, 문제 해결 방법 등에 대해 강의하고 있다. 지은 책으로는 '피지컬 AI 패권 전쟁'(아래 사진)  '혁신은 왜 실패하는가?'(2026년 ‘SERI CEO 비즈니스 북클럽’ 선정, 아래 사진) 'Enterprise IT Governance, Business Value and Performance Measurement' 등이 있다.

이와 더불어 영어와 일본어로 쓰인 좋은 책을 아름다운 우리말로 옮기는 일도 하고 있다. 번역서로는 '아마존 사람들은 이렇게 일합니다' (2021년 ‘세종도서 학술 부문 우수 도서’ 선정), '누구나 쉽게 시작하는 AI, 수학적최적화' '기묘한 과학책' 등 다수가 있다.

*본 칼럼 내용은 본지 편집방향과 다를 수 있습니다.