[신간] 인공지능이 인간을 죽이는 날.... 제4차 산업혁명 시대 자동차, 의료, 무기의 치명적 진화
[신간] 인공지능이 인간을 죽이는 날.... 제4차 산업혁명 시대 자동차, 의료, 무기의 치명적 진화
  • 김민성 미래한국 기자
  • 승인 2018.09.13 06:46
  • 댓글 0
이 기사를 공유합니다

저자 고바야시 마사카즈 (小林雅一) 는 1963년 일본 군마현 출생. 작가, 저널리스트, 정보시큐리티 대학원대학 객원교수. 도쿄 대학교 이학부 물리학과를 졸업하고 동대학원 이학계 연구과 수료 후 도시바, 닛케이BP를 거쳐 보스턴 대학교에서 언론학을 전공했다. 귀국 후 게이오기주쿠 대학교 미디어커뮤니케이션 연구소 등에서 근무했다. 저서로는 《인공지능의 충격, 인공지능은 인류의 적인가(AIの衝? 人工知能は人類の敵か)》 등 다수가 있다.
 

테슬라의 자율주행차 사망사고와 세계 금융위기의 원인이 같다고?

제2장은 2016년 5월에 발생한 테슬라의 반자율주행차 ‘모델 S’의 사망사고 현장검증을 중심으로 자율주행차의 사각지대에 대해 알아본다. 자율주행을 가능하게 하는 대표적인 센서는 라이더, 비디오카메라, 밀리파 레이더로, 역할과 장단점이 각기 다른 이 센서들이 자율주행차의 안전성을 좌우한다.

문제는 이 센서들이 너무 고가라는 것. 사망사고를 일으킨 테슬라의 모델 S만 해도 가장 핵심이면서 가장 고가인 라이더를 장착하지 않았다. 그러나 구글이 2022년 출시를 목표로 개발 중인 완전자율주행차처럼 아무리 모든 센서를 장착하고 안전한 대비책을 마련한다 해도 자율주행차가 안고 있는 근본적인 한계가 있는데 그것은 바로 팻테일 리스크다. 이론적으로는 일어날 확률이 제로(0)인 사고가 현실에서는 제로보다 훨씬 빈번하게 일어난다는 이야기다. 테슬라의 자율주행차 사망사고도 그런 경우였다. 같은 이유로 이론적으로는 100만 년에 한 번 일어날까 말까 한 세계적인 금융위기(리먼 사태, 서브프라임 모기지론, 러시아의 디폴트, 블랙먼데이 사건 등)가 실제로는 10년에 한 번씩 발생해 세계 금융시장을 초토화하고 있다. 

이해를 돕기 위해 본문은 자율주행 기술의 4가지 프로세스와 각각에 사용되는 규칙 기반 AI, 통계확률형 AI에 대한 기술적 설명을 덧붙인다. 팻테일 리스크는 통계확률형 AI가 필연적으로 안고 있는 문제다. 은닉 마르코프 모델, 베이즈 정리, 칼만 필터, 정규분포곡선 등 자율주행차를 이해하는 데 필수적인 공학 이론들의 핵심을 이해하기 쉽게 정리했다. 

왕년의 퀴즈왕 ‘왓슨’과 바둑왕 ‘알파고’가 명의로 환골탈태하다? 

의료 분야의 대표적인 두 가지 AI는 IBM의 ‘왓슨’과 구글의 ‘딥러닝’이다. 의료 AI는 인간의 정보처리 능력으로는 소화하기 불가능한 수많은 의학 자료를 기계학습해 각종 질병을 진단하고 치료법을 제시함으로써 의사를 보조하는 역할을 한다. 왓슨은 원래 미국의 유명 퀴즈쇼에 나가 역대 챔피언들을 꺾은 퀴즈왕이었다. 사람처럼 말을 하고 다양한 질문에 답을 주기도 하는데, 이를 ‘자연언어처리’라고 한다. 본문은 이에 대해 자세히 설명한다. 문제는 닥터 왓슨이 제시하는 진단과 치료법은 절대적인 정답이 아닌 확률이라는 점. 왓슨과 의사의 의견이 엇갈릴 때, 확률이 높은 답안을 받은 의사는 어떤 선택을 하게 될까? ‘마이너리티 리포터’와 관련된 그 문제들을 비롯해 현재 의료 AI가 사용되고 있는 현장에서 발생하는 문제들, 향후 우리가 겪게 될 문제들에 관해 본문은 논리적으로 접근하고 있다. 

구글도 의료 AI를 주력 사업으로 하고 있다. 구글의 의료 AI는 ‘딥러닝’이라 하며 왓슨과는 성격이 전혀 다르다. 왓슨보다 잠재력은 크지만 문제는 더 심각할 수 있다. 본문은 딥러닝에 사용되는 뉴럴 네트워크 기술과 기계학습, 그리고 패턴인식의 원리에 대해 자세히 설명하고 있다. 흥미로운 점은 ‘딥러닝’의 정체가 2016년 3월 이세돌 9단을 꺾은 ‘알파고’라는 것이다. 본문은 딥러닝의 위험성을 단적으로 보여주는 당시 대국 현장으로 우리를 데려간다. 이미 3패를 당한 이세돌 9단이 제4국 78수째에 중앙에 모험적인 수를 두자 알파고는 엉뚱한 수를 두면서 결국 패했다. 대체 왜 그랬을까? 하지만 알파고 개발자조차 그 이유를 설명할 수 없었는데, 바로 그것이 딥러닝의 진짜 문제다. 그 이유는 알파고와 딥러닝의 기반이 되는 뉴럴 네트워크의 블랙박스화 현상에 있는데 본문은 그 원리에 대해 자세히 설명하고, 그런 현상이 일으킬 우리 미래의 일상에 대해 생각해보게 한다. 또한 구글이 딥러닝을 위해 대량의 의료 데이터를 입수하고 있는데, 여기서 발생하는 프라이버시 문제도 생각해볼 문제다. 

미군이 주도하고 있는 세계적인 휴머노이드 기술 

무기 분야에서는 미국에서 개발 중인 자율적 무기 개발에 초점이 맞추어져 있다. 저자는 먼저 미국이 연간 5,000억 달러를 쏟아부으며 개발하고 있는 ‘살인 로봇’에 대해 이야기한다. 구체적으로는 ‘스스로 목표를 정해 돌진하는 미사일’ ‘상공에서 자율적으로 지상의 테러리스트를 감시하는 드론’ ‘적의 잠수함을 끝까지 추적하는 무인 군용함’ 등이 있다. 이런 자율적 무기 개발은 미 국방성이 2016년부터 단행하고 있는 제3의 군사쇄신의 일환으로, 본문은 군사적 우위를 확보하기 위한 미국의 의도를 역사적으로 설명한다. 여기서 발생하는 가장 큰 문제는 무기 제어권이 AI로 넘어가면서 무기의 자율성이 점점 커진다는 것. 이는 실제 ‘터미네이터 문제’라는 이름으로 펜타곤 관계자들 사이에서 논의 중인 문제이기도 하다. 미국 외에 영국, 프랑스, 이스라엘, 노르웨이, 한국, 북한, 중국 등에서 개발 중인 AI 무기 또한 소개되고 있다. 

미 국방성 산하의 다르파(DARPA)가 주최하는 ‘다르파 그랜드 챌린지’ ‘다르파 로보틱스 챌린지’ 등 민간의 자율주행 기술과 휴머노이드(인간형 로봇) 개발에 미군의 예산이 사용되고 있다는 점도 생각해볼 문제다. 또한 일본의 주요 대학에 미군의 예산이 흘러들면서, 일본 학계에 ‘군사연구 금지’가 해금되고 있는 현실에도 눈을 돌리고 있다. 미군에서 시작된 스마트 핵무기 개발이 세계적인 군비 확장 경쟁에 불을 지피고 있다는 것도 큰 문제다. 끝으로 본문은 ‘인간의 생사’와 ‘국가의 안전보장’을 좌우하는 분야에 AI에 의한 자동화가 실현될 때 어떤 함정이 도사리고 있는지, 우리가 진짜 경계해야 할 문제들은 무엇인지 소신을 밝힌다. 어려운 물리학 및 수학 이론을 쉽게 이해할 수 있는 것과 감동적인 엔딩은 이 책의 덤이다. 

본 기사는 시사주간지 <미래한국>의 고유 콘텐츠입니다.
외부게재시 개인은 출처와 링크를 밝혀주시고, 언론사는 전문게재의 경우 본사와 협의 바랍니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.