로봇신문사
> 로봇컬처 > 재미있는 로봇이야기
[월간 로봇]이런 특허, 로봇 특허로봇을 더 로봇답게 만드는 로봇 특허
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
승인 2016.03.11  09:42:39
트위터 페이스북 구글+ 밴드
특허는 로봇 기술의 현재를 살펴볼 수 있는 기준이다. 기업은 특허 출원을 통해 기술력과 기업의 가치를 스스로 높이고 있다. 로봇 기술의 혁신이 다양한 분야로 확대되고 있어 우리가 생각하는 것보다 특허의 역할은 크다. 역할의 중요성을 알기에 특허 기술을 만든 사람에 대한 보호를 기본으로 기술 공유를 통해 더 나은 기술 발전이라는 과제도 우리가 놓쳐선 안 될 목표가 되어야 한다. 사실 로봇 특허가 따로 있는 건 아니다. 편의상 ‘로봇 특허’라 부르는 것이지 일반특허와 명확히 분류되진 않는다. 확실한 건 특허 기술이 로봇에게 어떻게 쓰일지는 한번 생각해 볼 만한 일이라는 것이다. 자고로 쓸모없는 아이디어란 없다.
아마존의 ‘프라임 에어’ 드론 배송 시스템
아마존은 누구보다 먼저 드론을 상업적으로 활용하려 했다. 사람이 직접 택배를 가져다주는 수고는 드론에게 맡기면 되는 것이다. 속도는 물론 비용 문제까지 해결되기에 드론이 물류 혁명을 불러 일으킨다는데 이견을 다는 사람은 없다. 아마존은 기민하게 움직이며 드론 물류 산업의 시작을 알린 것이다. 지난해 미국 특허상표청은 아마존의 드론을 이용한 자율 배송 특허출원을 승인했다고 밝혔다.
그런 아마존에서 ‘아마존 프라임 에어’ 특허의 세부 내용을 공개했다. 아마존 프라임 에어는 주문 상품이 30분 이내에 바로 배송이 시작되고 2.3kg의 물건을 실어 약 1.6km 거리를 날아 드론이 자율적으로 GPS를 통해 위치를 파악하고 정해진 장소로 물건을 배송하는 시스템이다. 2013년 드론으로 물건을 배송하겠다고 발표한 뒤 테스트를 진행했을 때만 해도 세부 내용에 대한 언급은 없었다. 세부 내용 공개는 이번이 처음인 것이다.
공개한 특허의 내용을 보면 드론은 주문자 모바일 기기의 GPS 정보를 받아와 위치를 파악하고 배송을 진행하게 된다. 정해진 장소에서 기다릴 필요 없이 주문자의 위치를 실시간으로 찾아가 더 신속하고 정확한 배송이 실현된다는 내용이다.
드론은 현재 기상정보와 장애물, 트래픽 등과 관련된 배송 정보를 매번 업데이트하고 공유한다. 정보를 분석해 가장 효율적인 배송 경로를 설정하고 드론에 결합한 카메라와 감지 센서를 통해 생명체를 인식하고 장애물이 없는 경로를 찾아 주문된 제품을 안전하게 배송하게 된다. 드론은 조종사의 도움 없이 철저히 자율적으로 움직이며 배송지에 착륙한 정보를 저장해 다음 배송에 활용하는 것이 가능하다.
미국 연방항공청(FAA) 등 각국 규제 당국으로부터 아마존은 드론 비행에 대한 규제를 해결하기 위해 노력해왔다. 지금까지 드론 시험 비행은 FAA의 규제 때문에 캐나다에서 이루어졌었고 앞으로는 영국 런던에 드론 연구 센터를 설립할 계획이라고 알렸다. 최근 FAA가 아마존의 시험 비행을 허락했지만 아직은 그 절차가 복잡하고 조건이 까다로우며 드론의 상업적 비행은 승인하고 있지 않은 상태다. 배송에 있어서 안전은 생명이다. 그 때문에 아마존은 드론 배송의 안정성이 확보될 때까지는 좀 더 테스트를 진행할 예정이라고 밝혔다.
사람의 성격을 이식한 로봇
세계 정복을 꿈꾸는 구글. 구글은 로봇 관련 업체들을 활발하게 인수하면서 로봇으로 사업을 확장시키고 새로운 꿈을 실현해 나가고 있다. 지난해 3월 구글이 승인받은 특허는 사람의 성격이나 행동을 클라우드 서버에 두고 필요에 따라 로봇에게 내려받는 기술이다. 마치 손쉽게 스마트폰에 앱을 내려받는 것처럼 로봇의 성격을 내려받는 것이다. 내용대로라면 인간의 행동을 로봇이 따라 할 수 있게 되는 것이다. 내가 좋아하는 연예인이나 친구의 성격과 행동을 따라 하는 로봇이 나타난다니 섬뜩하기도 하다. 보고 싶지만 이미 이 세상에 없는 사람을 닮고 행동하는 로봇이 나타난다면 어떤 일이 벌어질지 궁금해진다.
내려받는 것에서 그치는 것이 아니라 성격을 편집할 수도 있다. 사용자가 원하는 성격을 가진 로봇을 만드는 것이 가능해진 것. 로봇에게 부여된 성격을 다른 로봇에게 이식하는 것도 가능하다. 구글은 획기적인 기술임을 강조했다. 사람의 성격과 기억 데이터를 시스템에 어떻게 업데이트하는지 불분명하지만, 사람의 모습이 담긴 동영상이나 음성 기록 등의 데이터를 분석해서 한 인물의 데이터를 구축하고 이를 클라우드에 두고 내려받는 방식으로 추정할 수 있다. 클라우드에서 내려받은 데이터를 이식한 로봇은 고인과 닮은 로봇이 되어 친족들의 아픈 마음을 달래주고 그들의 상처를 치유하는 목적으로 사용될 수 있다.
네트워크를 통해 데이터를 처리하는 클라우드 방식을 사용하기에 이동한 장소에 있는 로봇에게 필요한 성격 데이터를 내려받아 이식하기만 하면 되고 장소에 구애받지 않는다는 장점이 있다. 그리고 때에 따라 새로운 로봇으로 교체를 해야 하는 경우에는 예전 로봇의 성격을 그대로 가져오면 된다. 로봇이 서비스업에서 쓰인다면 호텔이나 음식점에서 고객의 취향에 맞게 성격을 편집해 서비스하는 모습도 그려볼 수 있다.
소니, 로봇이 직접 자신을 청소한다
‘로봇 스스로 자신을 청결하게 하는 로봇기술’이 특허로 인정돼 화제가 된 일이 있다. 로봇 소프트웨어 다출원 기업 부동의 1위를 차지하고 있는 소니가 바로 그 주인공이다. 소니 측은 일찍이 로봇산업의 중요성을 인식하여, 특허 선점을 통해 향후 시장 지배력을 강화하고자 하는 적극적인 의지를 표명해왔다. 이번에는 로봇이 직접 몸체를 씻는 기술 관련 특허를 미국특허청에 출원했다. 소니의 이번 특허는 홈 로봇처럼 일반 가정에서 가사 일을 돕는 로봇에 관한 것이다. 이 기술이 구현된 로봇은 스스로 쌓여있는 먼지들을 털어내며 몸단장을 할 수 있다.

그림을 살펴보면 로봇이 카메라 부분을 닦는 모습을 확인할 수 있는데, 그 모습이 사람이 세수하는 모습과 많이 닮아있다. 해당 기술은 지금까지 상용화된 로봇 청소기의 고질적인 문제였던 먼지 인식 문제를 해결할 수 있을 것으로 전망된다. 일반적으로 내장 카메라로 다양한 물체를 인식하는 것이 핵심기능인 홈 로봇은 카메라 렌즈가 더러워지면 인식 기능이 크게 떨어질 수밖에 없다. 이 기술이 적용된 로봇은 더러워진 손이 오히려 쓰레기나 먼지를 흩뿌리게 되는 것을 미리 방지하기 위해 각각 다른 각도로 로봇의 손을 볼 수 있다. 또한, 만약 카메라 위에 먼지가 앉는다면 이것을 스스로 인식해 닦아낼 수도 있다.

* 본 기사는 '월간로봇' 3월호에서도 볼 수 있습니다. 모든 표기는 '월간로봇'의 규정에 따랐습니다.

박경일  robot@irobotnews.com
박경일의 다른기사 보기  
폰트키우기 폰트줄이기 프린트하기 메일보내기 신고하기
트위터 페이스북 구글+ 밴드 뒤로가기 위로가기
이 기사에 대한 댓글 이야기 (0)
자동등록방지용 코드를 입력하세요!   
확인
- 200자까지 쓰실 수 있습니다. (현재 0 byte / 최대 400byte)
- 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
이 기사에 대한 댓글 이야기 (0)
최근인기기사
1
박스오피스 1000만 돌파 디즈니 ‘겨울왕국 2’ 4주 연속 예매 1위
2
중국 드론 택시 스타트업 '이항', 나스닥 상장 추진
3
사코스 로보틱스, 전신형 외골격 로봇 '가디언 XO' 판매
4
로보티즈, 자율주행 실외 배송 로봇 공개
5
우주 쓰레기 청소 로봇, 2025년 발사된다
6
中 중국화 로봇, '5분 이면 그림이 뚝딱'
7
중국, '원격제어' 버스 충전 로봇 개발 운영
8
인공지능 의료업체 '제이엘케이인스펙션', 코스닥 상장
9
한국스트라이커, 국내 로봇인공관절수술 시장 공략
10
'젊은 로봇 공학자' (32) DGIST 윤동원 교수
로봇신문 소개기사제보광고문의불편신고개인정보취급방침이메일무단수집거부청소년보호정책    *국제표준간행물번호 ISSN 2636-0381 *본지는 인터넷신문위원회 자율심의 준수 서약사입니다
08298) 서울 구로구 공원로 41(구로동, 현대파크빌 427호)  |  대표전화 : 02)867-6200  |  팩스 : 02)867-6203
등록번호 : 서울 아 02659  |  등록일자 : 2013.5.21  |  발행인·편집인 : 조규남  |  청소년보호책임자 : 박경일
Copyright © 2013 로봇신문사. All rights reserved. mail to editor@irobotnews.com