로봇신문사
> 로봇컬처 > Books
인공지능이 인간을 죽이는 날제4차 산업혁명 시대 자동차, 의료, 무기의 치명적 진화
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2018.09.30  23:53:50
트위터 페이스북 구글+ 밴드

테슬라의 자율주행차 사망사고와 세계 금융위기의 원인이 같다고?
- AI의 팻테일 리스크 문제 -

제2장은 2016년 5월에 발생한 테슬라의 반자율주행차 ‘모델 S’의 사망사고 현장검증을 중심으로 자율주행차의 사각지대에 대해 알아본다. 자율주행을 가능하게 하는 대표적인 센서는 라이더, 비디오카메라, 밀리파 레이더로, 역할과 장단점이 각기 다른 이 센서들이 자율주행차의 안전성을 좌우한다. 문제는 이 센서들이 너무 고가라는 것. 사망사고를 일으킨 테슬라의 모델 S만 해도 가장 핵심이면서 가장 고가인 라이더를 장착하지 않았다. 그러나 구글이 2022년 출시를 목표로 개발 중인 완전자율주행차처럼 아무리 모든 센서를 장착하고 안전한 대비책을 마련한다 해도 자율주행차가 안고 있는 근본적인 한계가 있는데 그것은 바로 팻테일 리스크다. 이론적으로는 일어날 확률이 제로(0)인 사고가 현실에서는 제로보다 훨씬 빈번하게 일어난다는 이야기다. 테슬라의 자율주행차 사망사고도 그런 경우였다. 같은 이유로 이론적으로는 100만 년에 한 번 일어날까 말까 한 세계적인 금융위기(리먼 사태, 서브프라임 모기지론, 러시아의 디폴트, 블랙먼데이 사건 등)가 실제로는 10년에 한 번씩 발생해 세계 금융시장을 초토화하고 있다.

이해를 돕기 위해 본문은 자율주행 기술의 4가지 프로세스와 각각에 사용되는 규칙 기반 AI, 통계확률형 AI에 대한 기술적 설명을 덧붙인다. 팻테일 리스크는 통계확률형 AI가 필연적으로 안고 있는 문제다. 은닉 마르코프 모델, 베이즈 정리, 칼만 필터, 정규분포곡선 등 자율주행차를 이해하는 데 필수적인 공학 이론들의 핵심을 이해하기 쉽게 정리했다.

왕년의 퀴즈왕 ‘왓슨’과 바둑왕 ‘알파고’가 명의로 환골탈태하다?
- 의료 인공지능과 블랙박스화 문제 -

의료 분야의 대표적인 두 가지 AI는 IBM의 ‘왓슨’과 구글의 ‘딥러닝’이다. 의료 AI는 인간의 정보처리 능력으로는 소화하기 불가능한 수많은 의학 자료를 기계학습해 각종 질병을 진단하고 치료법을 제시함으로써 의사를 보조하는 역할을 한다. 왓슨은 원래 미국의 유명 퀴즈쇼에 나가 역대 챔피언들을 꺾은 퀴즈왕이었다. 사람처럼 말을 하고 다양한 질문에 답을 주기도 하는데, 이를 ‘자연언어처리’라고 한다. 본문은 이에 대해 자세히 설명한다. 문제는 닥터 왓슨이 제시하는 진단과 치료법은 절대적인 정답이 아닌 확률이라는 점. 왓슨과 의사의 의견이 엇갈릴 때, 확률이 높은 답안을 받은 의사는 어떤 선택을 하게 될까? ‘마이너리티 리포터’와 관련된 그 문제들을 비롯해 현재 의료 AI가 사용되고 있는 현장에서 발생하는 문제들, 향후 우리가 겪게 될 문제들에 관해 본문은 논리적으로 접근하고 있다.

구글도 의료 AI를 주력 사업으로 하고 있다. 구글의 의료 AI는 ‘딥러닝’이라 하며 왓슨과는 성격이 전혀 다르다. 왓슨보다 잠재력은 크지만 문제는 더 심각할 수 있다. 본문은 딥러닝에 사용되는 뉴럴 네트워크 기술과 기계학습, 그리고 패턴인식의 원리에 대해 자세히 설명하고 있다. 흥미로운 점은 ‘딥러닝’의 정체가 2016년 3월 이세돌 9단을 꺾은 ‘알파고’라는 것이다. 본문은 딥러닝의 위험성을 단적으로 보여주는 당시 대국 현장으로 우리를 데려간다. 이미 3패를 당한 이세돌 9단이 제4국 78수째에 중앙에 모험적인 수를 두자 알파고는 엉뚱한 수를 두면서 결국 패했다. 대체 왜 그랬을까? 하지만 알파고 개발자조차 그 이유를 설명할 수 없었는데, 바로 그것이 딥러닝의 진짜 문제다. 그 이유는 알파고와 딥러닝의 기반이 되는 뉴럴 네트워크의 블랙박스화 현상에 있는데 본문은 그 원리에 대해 자세히 설명하고, 그런 현상이 일으킬 우리 미래의 일상에 대해 생각해보게 한다. 또한 구글이 딥러닝을 위해 대량의 의료 데이터를 입수하고 있는데, 여기서 발생하는 프라이버시 문제도 생각해볼 문제다.

미군이 주도하고 있는 세계적인 휴머노이드 기술
- 미국의 스마트 핵무기와 터미네이터 문제 -

무기 분야에서는 미국에서 개발 중인 자율적 무기 개발에 초점이 맞추어져 있다. 저자는 먼저 미국이 연간 5000억 달러를 쏟아부으며 개발하고 있는 ‘살인 로봇’에 대해 이야기한다. 구체적으로는 ‘스스로 목표를 정해 돌진하는 미사일’ ‘상공에서 자율적으로 지상의 테러리스트를 감시하는 드론’ ‘적의 잠수함을 끝까지 추적하는 무인 군용함’ 등이 있다. 이런 자율적 무기 개발은 미 국방성이 2016년부터 단행하고 있는 제3의 군사쇄신의 일환으로, 본문은 군사적 우위를 확보하기 위한 미국의 의도를 역사적으로 설명한다. 여기서 발생하는 가장 큰 문제는 무기 제어권이 AI로 넘어가면서 무기의 자율성이 점점 커진다는 것. 이는 실제 ‘터미네이터 문제’라는 이름으로 펜타곤 관계자들 사이에서 논의 중인 문제이기도 하다. 미국 외에 영국, 프랑스, 이스라엘, 노르웨이, 한국, 북한, 중국 등에서 개발 중인 AI 무기 또한 소개되고 있다.

미 국방성 산하의 다르파(DARPA)가 주최하는 ‘다르파 그랜드 챌린지’ ‘다르파 로보틱스 챌린지’ 등 민간의 자율주행 기술과 휴머노이드(인간형 로봇) 개발에 미군의 예산이 사용되고 있다는 점도 생각해볼 문제다. 또한 일본의 주요 대학에 미군의 예산이 흘러들면서, 일본 학계에 ‘군사연구 금지’가 해금되고 있는 현실에도 눈을 돌리고 있다. 미군에서 시작된 스마트 핵무기 개발이 세계적인 군비 확장 경쟁에 불을 지피고 있다는 것도 큰 문제다. 끝으로 본문은 ‘인간의 생사’와 ‘국가의 안전보장’을 좌우하는 분야에 AI에 의한 자동화가 실현될 때 어떤 함정이 도사리고 있는지, 우리가 진짜 경계해야 할 문제들은 무엇인지 소신을 밝힌다. 어려운 물리학 및 수학 이론을 쉽게 이해할 수 있는 것과 감동적인 엔딩은 이 책의 덤이다.

"인공지능이 인간을 죽이는 날-제4차 산업혁명 시대 자동차, 의료, 무기의 치명적 진화"
고바야시 마사카즈 지음 | 한진아 옮김 | 216쪽 |14.000원
새로운 제안 펴냄

조규남  ceo@irobotnews.com
조규남의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
최근인기기사
1
박스오피스 1000만 돌파 디즈니 ‘겨울왕국 2’ 4주 연속 예매 1위
2
중국 드론 택시 스타트업 '이항', 나스닥 상장 추진
3
사코스 로보틱스, 전신형 외골격 로봇 '가디언 XO' 판매
4
로보티즈, 자율주행 실외 배송 로봇 공개
5
우주 쓰레기 청소 로봇, 2025년 발사된다
6
中 중국화 로봇, '5분 이면 그림이 뚝딱'
7
중국, '원격제어' 버스 충전 로봇 개발 운영
8
인공지능 의료업체 '제이엘케이인스펙션', 코스닥 상장
9
한국스트라이커, 국내 로봇인공관절수술 시장 공략
10
'젊은 로봇 공학자' (32) DGIST 윤동원 교수
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    *국제표준간행물번호 ISSN 2636-0381 *본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 427호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com